永利会>新闻焦点>「银河在线官方网址」利用AI预防犯罪的效果怎么样?恐怕不容乐观

「银河在线官方网址」利用AI预防犯罪的效果怎么样?恐怕不容乐观

作者:匿名
阅读量:1999
时间:2019-12-25 14:51:19

 

「银河在线官方网址」利用AI预防犯罪的效果怎么样?恐怕不容乐观

银河在线官方网址,pre-crime是科幻小说作家菲利普·k·迪克(philip k. dick)发明的一个词语,大意是指在罪行发生之前,利用人工智能(ai)来发现和阻止其发生。现在,这种技术已经成为现实,并且很可能在15年内成为警方的常用手段。

“多座城市已经开始利用ai技术来保障公共安全,”一支学术研究团队在题为《2030年人工智能与人类生活》的报告中写道,“到2030年,北美地区的普通城市都将在极大程度上依赖这些技术,其中包括能发现犯罪征兆的监控探头、无人机和预测性警务应用。”

这是斯坦福大学“人工智能百年研究”项目(ai 100)的首份报告。设立该项目的目的,在于鼓励人们探讨ai技术日益普及带给人类社会的利弊。在执法领域,淡化人类因素未必会有好结果。

例如,学者们指出,ai已经被用来扫描和分析twitter及其他社交平台,以发现那些容易受到宗教极端思想蛊惑的人。这种貌似出于善意的应用正变得日益广泛。

“执法机构越来越想通过社交媒体,提前发现破坏性事件的谋划,通过监视大规模集会的活动情况来评估安全态势,”报告写道,“执法机构在人群模拟方面做了大量工作,以便弄清楚如何控制人群。同时,人们担心,执法机构可能会把手伸得太长,利用这类工具侵犯公民隐私。”

警方在罪行实施前预测犯罪的做法,不仅仅会使人们的隐私面临被侵犯的危险。这份报告还提到了另外一种可能性:人工智能导致执法机构“在某些时候变得专横霸道、无孔不入”,尤其是在技术不断进步,并被应用于众多不同领域的情况下。

虽然“ai技术(视觉分析、语音分析和步态分析)可以帮助面试者、审讯人员和保安发现可能的欺骗和犯罪行为”,但ai技术在执法监视方面的潜在应用(比如用于监控摄像头)为滥用权力提供了很大的空间。

例如,警方的监控探头发现,某人似乎不应该出现在某个地方,ai可能据此认为他企图闯入商店或民宅实施盗窃,于是派遣警察到场,而那个人也许只是迷了路,或者只是想到一个新的地方散散步。如果我们不是生活在警方暴力执法成风的年代,那个错误不会危及人生安全。但在犯罪预测过程中淡化人类因素后,必须考虑到警方暴力执法的可能性。

除了限制活动自由和可能导致非犯罪情境升级为犯罪情境以外,对某人出现在某地的臆断还可能对那个人和那个地方造成负面影响。

主张反对警方军事化的拉德利·巴尔科(radley balko)在《华盛顿邮报》的一篇报道中写到,有好几个美国城市的市政当局已经开始向一些人发函,而原因仅仅是这些人去过警方认为的(但没有任何法律依据)卖淫活动高发地。这种臆断难以真正区分无辜者和罪犯,并且进一步加剧了对某些地区及其居民的偏见,而不是解决卖淫问题本身。

“机器学习大大有助于预测罪行可能发生的地点和时间,以及嫌疑犯的身份,”报告写道,“但和电影《少数派报告》中的情节一样,预测性警务工具也可能误把无辜者当成嫌犯。不过,要是使用得当,ai预测工具可以真正消除或者减少偏见,而不是加剧偏见。研究工作和资源配置应该瞄准这个方向。”

尽管这听起来很诱人,但在消除人类偏见的同时,也排除了人类的判断,其利弊都颇为显著。虽然人为判断失误无疑是美国警方暴力执法现象加剧的主因,而机器辅助预判并调遣警员前往则是建立在犯罪即将发生的假设基础上,可是这种假设到底准不准呢?

无论学者们对ai辅助执法的描绘有多么美好,这方面的最大实验之一已经证明ai辅助执法的效果很差。

芝加哥警方与伊利诺伊理工学院合作,在2013年开始实施战略目标名单(strategic subjects list),利用“计算机算法,根据缉毒逮捕的记录、加入帮派的经历和上次被逮捕时的年龄等数据点,对最有可能成为罪犯或者枪支暴力受害者的人进行识别和排序”。mic网站报道称:“在名为‘预测执法’的实验中,计算机算法最初识别了426人,警方说他们已经把这些人作为预防性社会服务的目标。”

但这项实验非但没能证明ai在预防暴力犯罪方面的功效,最终反倒以失败收场。

对于谁上了这份黑名单和这份名单被如何使用的疑问,芝加哥警方总是遮遮掩掩。尽管警方声称会开展社会服务,以解决预测未来犯罪活动所带来的潜在问题,但真实情况并非如此。

兰德公司(rand corporation)对战略目标名单的研究发现,那些被计算机算法不幸选中的人,他们被逮捕的次数较多。虽然研究作者不是十分清楚为什么会这样,但似乎人们的偏见在其中发挥了重要作用。

“当发生枪击案,警察展开调查时,他们会先从该区域上了黑名单的人着手。至少在某些情况下是如此,”研究首席作者杰西卡·桑德斯(jessica saunders)说。

兰德公司的研究发表时,芝加哥警方已经采用了新版的战略目标名单,但有几个问题仍然没有得到解决,包括没有指导警察如何与名单上的人互动,比如应该对他们采取哪些社会服务。这项研究发现,一般来说,警方只是更多地跟目标对象打交道,而众所周知,这种状况助长了警方使用暴力以及限制公民权利与自由的行为。

“接触更有可能涉入暴力的人,这未必是减少暴力的有效方法,尤其是如果在交流以及跟进的问题上缺乏进一步的指导,效果就会更差。”这项研究写道。

ai预测带来的问题并不局限于政府执行部门。美国的刑事法院利用northpointe算法来“预测罪犯以后再次犯罪的可能性”,但和芝加哥的情况一样,northpointe的应用过程并不顺利。

“民间新闻网站propublica发表了一篇调查文章,分析了northpointe预测再次犯罪的有效性……发现在不考虑性别和犯罪记录等因素的情况下,黑人被认为在未来犯下暴力罪行的可能性比其他人高出77%,犯下任何罪行的可能性比其他人高出45%。这项调查考察了佛罗里达州布劳沃德县公布的7000个风险评分,发现无论是对哪个种族,northpointe的预测准确率都不高:在它认为以后将犯下暴力罪行的人中,只有20%的人最终应验。”

不管斯坦福大学的那份报告为ai的潜在应用带来了什么希望,在进行更大规模的积极应用之前,必须做出更多的改进和研究,这样才能使警方(以及总体上的刑事司法系统)受益。如果匆忙上马,没有经过彻底的测试或者没有对潜在影响进行详尽的讨论,以后可能就会产生意料之外的严重后果。

虽然那份报告说“ai技术将在今后几十年内使社会变得更好”,但我们必须意识到,ai技术同样可能使社会变得更糟。

翻译:于波

来源:thefreethoughtproject.com

造就:剧院式的线下演讲平台,发现最有创造力的思想

 

前9月基金托管人公募托管规模榜:工行建行中信前三