织梦CMS - 轻松建站从此开始!

软件开发|软件定制|设计软件|APP软件-沈阳汇海软件公司

当前位置: 主页 > 行业动态 > 中小企业 >

高科技红线:人工智能正在悄然升级种族主义

时间:2018-12-04 16:33来源:软件公司 作者:软件定制 点击:
所谓的透明度和公平。

【猎云网(微信号:ilieyun)】11月26日报道(编译:福尔摩望)

大萧条时期,美国联邦政府建立了Home Owners’ Loan Corporation(HOLC)来提供低息衡宇存款,联邦住房治理局(FHA)为公家银行的抵押存款提供包管。由于HOLC的运营人员不理解本地存款者的状况,所以他们构建了“住宅稳定舆图”,将街区按A到D品级停止分级,D沈阳网站设计品级的街区接纳赤色标志,表现这一区域属于不良高风险品级。这些“红线”舆图也被FHA和公家企业所运用,并逐步蔓延至银行、保险公司和批发商店,从而招致了办事受限和街区好转的恶性循环。

许多公家银行都有本身的红线舆图。例如,在加州,Security First National Bank创立了洛杉矶街区评级零碎。洛杉矶市中心的大少数街区都被标有红线,通常还会有关于“日自己和黑人集中地”的明白标志。Boyle Heights被标志为“布满了种种推翻分子的蜂巢”。Watts也被标志为赤色,由于它不但是黑人和日自己的聚集地,德国人、希腊人、意大利人和苏格兰人都集中在这一区域。

1968年的《公正住房法》制止了红线分别行为。但是,在大数据时代,失业、保险和存款请求越来越多地遭到数据发掘模型的评价,这些模型并不公然,但却能够发生更为无害的影响,由于它们不受天文界限的限制,并且民众也无法得知其外部原理。

即便是编写代码的步伐员,也无法确切晓得黑盒算法是如何停止评价的,但是简直可以必定的是,这些算法直接或直接地思索了性别、种族和性取向等要素,这就是我们所称的高科技红线。由于一小我私家具有黑盒算法发明的与行为统计相关的群体特征,就对他停止处罚,是不品德的。

许多评价求职者的算法会辨认以后员工特征的统计形式。一家公司的首席迷信家认可其软件选择的一些要素是没有意义的。例如,该软件发明其数据库中有几个优秀的步伐员常常拜沈阳做网站候一个特定的日本漫画网站,所以它认定拜候这个网站的人能够是优秀的步伐员。这名首席迷信家说,“显然,这不是因果干系”,但他以为这依然有用,由于这一后果具有很强的统计相关性。这是一个令人感触苦楚的例子,向我们展现了一种没有凭据的想法,即便是那些应该更理解统计形式的人,也会以为统计形式比知识更为重要。

这家公司的首席执行官还表现,公司的算法思索了几十个要素,而且随着相关性的不停变革,不停改动被以为重要的变量。她以为不停变革的变量列表显示了模型的弱小和灵敏性。她还提出了一个似乎更令人服气的解释,即该算法捕获了长久存在的巧合相关,便是这些相关没有什么价值。假如存在因果干系,它们是不会长久存在的,它们会连续存在且有用。一种应用巧合的相关性来评价求职者的算法简直必定是有成见的。假如一名墨西哥裔美国女性并不喜欢受白人男性软件工程师接待的日本漫画网站,那她照旧否会被断定为优秀的步伐员?

异样,亚马逊比来保持了开发定制算法来评价请求人简历的实验。在已往十年里,亚马逊应用求职者简历对这些算法停止了训练,后果显示算法更倾向亚马逊已往雇佣的求职者(其中大少数都是男性)。来自男子学院的请求人会被升级,由于在亚马逊事情的男性没有去过这些学院。来自女性运动队的请求人也会遇到异样的状况。

一种评价存款请求的中国算法着重存眷手机运用状况,例如来话和去话的应对频率,以及用户能否坚持手机满电。但成绩是,这些目标中哪一个可以成为电话用户信誉风险良好的标记?你所能感觉到的不确定性都表白了这些标志存在恣意性。

这些巧合关联都是暂时和有意义的,但却能够存在歧视。当这种信誉评级零碎初次在中国披露时,接听一切来电被以为是一种良好信誉风险的信号。但这很能够也有成见,好比某些宗教会划定不该该在某天或某个工夫段接听电话。

社交媒体平台上搜集的数据为公司提供了一种新的可疑定性见地。英国最大的汽车保险公司Admiral Insurance曾方案推出第一次汽车报价办事,该报价将基于对请求人Facebook帖子的计算阐发。例如词汇选择,以及他喜欢迈克尔·乔丹照旧伦纳德·科恩。然后,像其他黑盒算法一样,它们会隐藏在黑盒中停止阐发。Facebook帖子中必定存在成见。一个黑人男性喜欢迈克尔·乔丹,而一个白人女性喜欢伦纳德·科恩,这之间的公正如何决议?假如Facebook上与性别、种族、族裔或性取向相关的词汇选择碰巧与汽车保险索赔相关呢?

在审前保释决议、审后判决和治罪后假释决议中,算法审讯越来越遍及。一名开发人员写道,“这种要领完全就是黑箱操纵,也没有报酬此卖力。”为了表现严重水平,他举了一个令人震惊的例子:“假如我选用差别巨细的预测值,它会给出你没有意料到的后果。”我们无法意料到的事情是没有意义的,但它们却巧合相关了。

一些预测要素很能够代表了性别、种族、性取向和其他不该该思索的参数。人们不该该由于性别、种族或性取向而被重罚保释金,或被判不公道的徒刑,或被回绝假释。

算法成绩能够招致的将来可以在中国看到,中国政府正在施行一个全国性的社会信誉评分零碎,旨在跟踪人们买什么、去哪里、做什么,以及其他任何能够表白一小我私家不值得信任的事情。该国的稳定部分也在鼎力大举投资人脸辨认技术,从而给信誉评分类东西带来新的数据。两位中国研讨人员比来陈诉说,他们可以经过将计算算法使用于扫描的面部照片,以89.5%的精确率预测一小我私家能否是罪犯。他们的项目发明了一些用于预测犯法的辨别性构造特征,如嘴唇曲率、眼睛内角间隔和所谓的鼻口角度。

假如他们只是把那些看起来像罪犯的人关进拘留所呢?这会有什么坏处?他们将不得不呆在那里,直到他们经过恒久的康复项目。但是有些人会是无辜的,那么从久远来看,这将如何对他们发生倒霉影响?

我们能做些什么来监管这些零碎?可以经过执法要求进步通明度。百姓应该可以反省算法运用数据的精确性,而且应该可以取得足够的信息来测试算法能否有不法的差别影响。

侥幸的是,人们越来越看法到算法对我们生活的影响。皮尤研讨中心上周宣布的一项观察显示,许多美国人担忧当计算机用数学来做决议时会存在成见和不公正,好比分派小我私家财政数字,停止犯法风险评价,或许挑选求职者的简历和面试。皮尤的观察还发明民众对人工智能评分的存眷在很大水平上取决于情况:约莫30%的人以为公司可以凭据主顾的小我私家和行为数据提供买卖和折扣。但是约莫50%的人以为刑事司法零碎可以运用算法来预测假释犯能否会犯下另一项罪行。

我们对计算机的决心是如此地自觉,以致于我们情愿让算法来回绝事情请求和存款请求,设定保险费率,决议刑期,并把人关进拘留所?只因他们碰巧具有算法选择的不相关特征,就偏袒一些人,却优待其别人。这基础不是提高,这是已往阿谁存在不公道歧视时代的回归。

(责任编辑:admin)
织梦二维码生成器
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片