导(dǎo)语:亚马逊(xùn)与国家(jiā)科学基金会合作,投(tóu)资千(qiān)万(wàn)美金开发AI公平性系统,实(shí)现人工智能系统(tǒng)更广泛(fàn)的接受度。
智(zhì)东(dōng)西3月26日消息,亚马(mǎ)逊昨日宣布将与(yǔ)美国国家科学(xué)基金会(NSF)合作,在未来三年(nián)内投入1000万美元的(de)研究经费,开发专注于人工智能(néng)和(hé)机器学(xué)习公平性的系统(tǒng)。
亚马(mǎ)逊Alexa AI 团队的自(zì)然理解副总裁 Prem Natarajan 表示,人工智能的普及使其(qí)公平性问题在学术界(jiè)、政(zhèng)府部门和(hé)企业界都变得越来越重要,公平性问题对(duì)于建立和维(wéi)护客户的信(xìn)任也(yě)是至关重要的。
为实现人工智(zhì)能系统更广泛的接受度,亚马逊(xùn)与NSF的合作将针对人工(gōng)智能的可解释性、潜在的不利偏见(jiàn)和影响、缓解策(cè)略、公(gōng)平性验证(zhèng)以及包容性考虑。美(měi)国将继(jì)续发挥人工智能技术的潜力,希望到5月10日他们接受的人工智(zhì)能公平性验证提案能够(gòu)带来新的开(kāi)放(fàng)源码(mǎ)工具、公(gōng)开可用的数据集和出版物。
亚马逊将为该计划(huá)提供(gòng)部分(fèn)资金,NSF根据其绩效评估流(liú)程独立地做出(chū)奖励决定。 该计划预计将在(zài)2020年和2021年继续进(jìn)行(háng),并附加(jiā)征集意向书。
美(měi)国国家科学基金会计算机和信息科学与工程负责人Jim Kurose表示,与亚马逊合作进行(háng)人工智(zhì)能公(gōng)平性研(yán)究将支持有关开发(fā)和实施可靠的人工智能系统的研究(jiū),这些系(xì)统从一开始就将透(tòu)明度、公(gōng)平(píng)性和问责制融入设计中。
亚马逊与国(guó)家科学基金会合作的(de)消息发布后,越来越多的企业、学术(shù)机构和行业协(xié)会开始(shǐ)加入,进行人工智能道德研究。他们的(de)共同工作已经产生了算法偏差缓解工具,这些工具有望加速向(xiàng)更公正的(de)模型迈进。
亚马逊与(yǔ)科学基金会合作,专注于开发AI和机(jī)器学习公(gōng)平性的(de)系统
去年5月(yuè),Facebook 发(fā)布(bù)了公平流程,如(rú)果算法根据种族(zú)、性别或年龄对某人做出不公(gōng)平的判(pàn)断,它会自动发出警告。埃森哲(zhé)咨询公司发布了可以自动检测AI算(suàn)法偏(piān)差的工具包,为数据科学家减(jiǎn)轻算法偏差(chà)提供帮助。微软(ruǎn)也在去年(nián)5月推出了自(zì)己的解决方案(àn),同年9月谷歌推出了 What-If 工(gōng)具,这是 TensorBoard 网络(luò)仪表板(bǎn)上的一个偏见检测功能,用于(yú) TensorFlow 机器学习框(kuàng)架的网络仪表板的偏(piān)置(zhì)检测功能。
IBM也(yě)在(zài)去年秋天发(fā)布了AI Fairness ,这是一款基于云计算的全产(chǎn)品,可以帮助了解AI系统如何做出决策并(bìng)给出(chū)调整建议——例如算法调整或(huò)平衡数据。最近IBM的(de)Watson和Cloud Platforms小组(zǔ)的(de)研究重点是(shì)减(jiǎn)轻AI模(mó)型中的偏差,特别是在面部识别(bié)方面。
麻省理工学院的研究人员发现(xiàn) Rekognition ——亚马(mǎ)逊网络(luò)服务(AWS)的目标检(jiǎn)测 API——无法可靠地确定特定情况下女(nǚ)性和深肤(fū)色(sè)面孔的性别。在2018年进(jìn)行的实(shí)验中,RekogniTIon 的面部分析功(gōng)能错误地将女(nǚ)性的照片识(shí)别为(wéi)男性,将深色(sè)皮肤的女性的照片识别为男性的比例分别(bié)为19% 和(hé)31% 。
亚马逊对研究结(jié)果(guǒ)提出异议,对于实验结果是否准确(què)仍存在争议。亚马(mǎ)逊表示在RekogniTIon更新版本的测试中,所有(yǒu)种族的性别分(fèn)类准确性“无差异”,并提出研究结果的论文没有清楚地说明实验中使用的置信阈(yù)值。