广角新闻论坛争鸣视频在线生色画报纽约时间:Sun Dec 16 01:33:06 2018 我的关于  


广角新闻 —> 产 经
亚马逊又惹众怒
信源:华尔街见闻|编辑:2018-10-12| 网址:http://www.popyard.org     抄送朋友打印保留

【八阕】一个劳动人民群众喜闻乐见的好地方:http://www.popyard.org
【八阕】郑重声明:本则消息未经严格核实,也不代表《八阕》观点。[服务使用须知]【八阕】一个劳动人民群众喜闻乐见的好地方:http://www.popyard.org

广告资讯


“一个好好的AI,怎么成长过程中就自动学会了性别歧视这种坏毛病?”亚马逊栽了个大跟头。

长期以来,这家电商巨头一直应用AI提升效率,但万万没想到的是,原本应该公平公正、没有意识的AI,也会“作死”了……好的不学,非要学别人重男轻女、歧视女性。

而这个内部秘密,刚刚被路透社曝光于天下。

事件一出,掀起了轩然大波。

国外的网友们纷纷开始吐槽,讲述自己曾经经历过的不公平事件,以及奇葩的计算机系统等等。还有一堆网友开始分析问题原因。

亚马逊也喜提了一波嘲讽:“可以说这个人工智能很成功,因为它模仿了亚马逊当前的招聘状态。”一个戴有色眼镜的AI筛简历是很多HR的核心工作之一,对于亚马逊这样的大公司来讲,不仅岗位多,投递同一个岗位的求职者可能也非常多,于是,无穷无尽的浏览简历就成了HR的日常。

而且,同一个岗位收到的简历里,总有一些达不到用人标准的、“文不对题”的简历,即使是适合的人,也会分出三六九等,有人很优秀,也有人比优秀的人更优秀。从求职者之中挑选最合适的人,也是让HR们头疼的一件事。

那能不能找一个AI,来自动帮HR们筛简历呢?

于是,作为一家电商公司,亚马逊把日常的用户给商品标星打分的功能,挪到了AI给求职者简历打分上。这样,HR们就可以美滋滋的说:“我,只看五星简历,AI快给我挑出来。”2014年,这个项目就开始了,亚马逊的机器学习团队开始开发筛简历AI。

但是到2015年,亚马逊发现:糟了,这个AI不学好,学会了人类性别歧视那一套。

| 共 4 页: 1 2 3 4 |

}

© 2018 八 阕 PopYard―a way to work and talk    广告联盟 | 隐私政策