火星科技网您的位置:首页 >人工智能 >

为什么在构建AI时表示很重要

导读 越来越多的高科技公司采取了主动行动,以支持多样性,平等与包容性(DEI)工作。但是,即使首席多样性官被录用并且多元化声明进入公司网站,

越来越多的高科技公司采取了主动行动,以支持多样性,平等与包容性(DEI)工作。但是,即使首席多样性官被录用并且多元化声明进入公司网站,技术领域的多元化代表仍然滞后。这种代表性不足,特别是在产品和工程部门,具有巨大的影响。当前的软件工程师人数包括25%的女性,7.3%的拉丁裔和4.7%的黑人,构建技术的团队无法充分代表使用该技术的人们。

人工智能(AI)是计算机科学领域,其重点是使计算机能够执行传统上需要人类智能的任务。利用AI进行的创新可能具有难以置信的强大功能,但它们与制造它们的人一样容易产生偏见。在这种情况下,代表制必须远远超出“思想的多样性”。如果没有正确的观点,身份和经验来构建,培训和测试AI,其输出范围可能从尴尬到危及生命。

有偏见的AI的新案例不断涌现。对于希望避免这些失误并为AI工程团队提供多样化代表的任何人,这里有许多可供学习的示例。

预测分析

AI可以根据过去的数据和模式匹配来预测未来的事件或结果。虽然这可以提供对未来的令人难以置信的洞察力,但根据所使用的数据及其训练方式,这是一个充满偏见的领域。

例如,对用于预测哪些患者应该获得额外医疗服务的健康AI系统的分析发现,该算法引入的种族偏见“将被确定为需要额外护理的黑人患者数量减少了一半以上”,并且固定这种差异“将使接受额外帮助的黑人患者的比例从17.7增加到46.5%。”

Propublica对AI评分系统进行的一项调查发现了同样影响生命的结果。对法庭中用于告知可以释放谁的决定的风险评估工具进行的分析发现,“该公式特别可能错误地将黑人被告标记为未来罪犯,以这种方式错误地将他们标记为。被告”,而“被告比黑人被告更容易被标签为低风险。” 在这些情况下,人工智能结果中的错误不仅仅是数字,而是人类的生命。

语言处理

语音和文本的语言处理一直是AI研究中的领先方案。关于该领域工作出现偏见的报告不断。

几天前浮出水面的一个例子涉及Google对匈牙利文字的翻译,这是一种不分性别的语言。Google翻译将性别代词插入中性词组,显示出强烈的性别偏见。其中包括:“他是一名教授。她是助手。” “他赚了很多钱。她正在烤蛋糕。”

语音识别是语言处理的另一个领域,长期以来对于非男性,非语音而言,其性能都较差。随着语音助手(如Siri,Alexa和Google Home)的普及,这产生了广泛的影响。一项研究发现,对于以英语为第一语言并与语音助手对话的人来说,的准确率是92%,妇女的准确率是79%,混合种族妇女的准确率是69%。从医疗通信到许可和授权,由于我们的系统越来越依赖语音技术,因此这些有偏见的结果可能会产生重大后果。

图像分析

人工智能也用于理解和决策图像。这是机器学习偏见频繁出现的领域。

许多人记得几年前的故事,当时Google图片暗示黑人的面孔是大猩猩,而他们甚至更奇怪的结果是通过从图书馆中删除大猩猩图片而不是更好地识别黑人面孔来解决此问题。近几个月出现了另一个成像偏见的例子,当时人们发现在Twitter上预览图像时,无论脸部出现在图像中的位置如何,他们都比黑脸优先使用白脸。

尽管这些示例产生了令人反感的结果,但不难想象错误的图像分析结果也可能导致更多影响生命的情况。随着身份和角色与图像验证的联系越来越紧密,这些算法的无偏精度变得越来越关键。

实物产品

得益于IoT(物联网),先进的传感器和制造自动化技术的创新,人工智能也对物理世界产生了影响。因此,人工智能的偏见可能会产生重大的物理影响。

由于校准和测试的方式,在某些情况下自动水槽和肥皂分配器无法识别出皮肤较深的手。无人驾驶汽车出现了更多威胁生命的例子,最近的研究表明,与皮肤较黑的行人相比,皮肤较浅的行人更容易被检测到,因此撞车的可能性较小。

每个人都有偏见。关键是要注意那些偏见是什么,然后围绕那些被证明有害的偏见积极地重新训练我们的思维。同样,人工智能将永远与创造它的人类一样偏见。这就是为什么在编程,校准和测试AI算法的人员中拥有多样化的代表至关重要。避免从尴尬到危险的错误的最佳方法是,确保制造产品的人代表使用产品的人。

标签:

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。