![]() |
|
人工智慧(AI)系统依循演算法学习数位化书籍、新闻文章等所含资讯,但科学家发现,在过程中它们也吸收了资讯隐含的偏见,有时甚至出乎开发者意料以外。
举例而言,BERT及类似系统倾向将资讯工程与男性联结,且往往也轻视女性。随着AI科技推陈出新、日益精细,且应用产品越来越广泛,科技企业防堵AI学习人类既有偏见的压力将日增。
不过,科学家仍在研究BERT这类通用语言模型的运作方式。新AI技术所犯错误常让他们感到意外。
举例而言,电脑科学家孟洛(Robert Munro)近日将100个英文单词输入BERT的资料库,其中包括"珠宝"、"宝宝"、"马匹"、"房屋"、"金钱"、"行动"等。结果显示,BERT将这些字词与男性联结的机率高达99%,唯一例外是"妈妈"(mom)。
拥有电脑语言学博士、曾负责云端运算平台"亚马逊网路服务"(Amazon Web Services)自然语言和翻译技术的孟洛指出:"这一如我们一直看到的历史不平等。"有了BERT这项科技,孟洛担心,偏见将会持续。
孟洛近日也在网路撰写文章,描述他如何检视Google和亚马逊网路服务的云端运算。根据他的说法,两套系统都无法将"她的"(hers)辨识为代名词,虽然它们可以正确判读"他的"(his)。
Google发言人表示,公司知悉相关议题,目前正采取必要措施来处理并解决问题。他还说,减少系统中的偏见既是Google的AI原则,也是优先事项。
亚马逊则发表声明指出,公司投入大量资源确保自家科技高度精确并减少偏见,方法包括设定严格基准、多方测试和投入多元训练用资料数据等。
事实上,研究人员早就警告AI隐含偏见一事,实例包括警方和其他政府单位采用的人脸辨识系统,以及脸书(Facebook)和Google等科技业巨头所提供的高人气网路服务。Google照片应用程式(Google Photos app)2015年就被逮到将非裔美国人标记为"大猩猩"。孟洛博士也发现其他AI系统中对女性和有色人种的偏见。
BERT与类似系统则更为复杂,人类难以预测它们最终会有什么样的行为。
华盛顿大学(University of Washington)专攻电脑语言学的教授班德(Emily Bender)表示:"甚至连建立这些系统的人,都不了解它们的行为方式。"
当前新闻共有0条评论 | 分享到: |
|
||||||||||
评论前需要先 登录 或者 注册 哦![]() |
24小时新闻排行榜 | 更多>> |
1 | 突发!李嘉诚卖港口喊停 北京下场惨了 |
2 | 西交大学生周凯旋被判死刑 拒见家属 孤身赴 |
3 | 胜利的天平开始向乌克兰这一边倾斜 |
4 | 中国奇迹?唯有中国盖的大楼垮了 |
5 | 北京施压成功 李嘉诚随即筹备撤资大计 |
48小时新闻排行榜 | 更多>> |
1 | 惊天动地大事就要来临 |
2 | 突发!李嘉诚卖港口喊停 北京下场惨了 |
3 | 顶尖专家进女友住所后,精确导弹从天而降 |
4 | 中共实权人物官宣落马 习早已被架空 |
5 | 西交大学生周凯旋被判死刑 拒见家属 孤身赴 |
6 | 人民币贬21%,加币贬19%....灾难要来了 |
7 | 习引蛇出洞要搞大动作?有人越来越像李克强 |
8 | 中国大吃豆腐 |
9 | 人夫激战女下属20次 她“好想要”拍片泄 |
10 | 习与蔡奇同现异常!很蹊跷 |
一周博客排行 | 更多>> |
一周博文回复排行榜 | 更多>> |