火星科技网您的位置:首页 >人工智能 >

人工智能机器人能否自行制造偏见

导读 新的研究表明,对他人表现出偏见并不需要高水平的认知能力,而且可以很容易地通过人工智能机器展示。来自卡迪夫大学和麻省理工学院的计算机

新的研究表明,对他人表现出偏见并不需要高水平的认知能力,而且可以很容易地通过人工智能机器展示。

来自卡迪夫大学和麻省理工学院的计算机科学和心理学专家表明,自主机器组可以通过简单地识别,复制和学习这种行为来表现出偏见。

偏见似乎是一种人类特有的现象,需要人类认知才能形成对某个人或群体的意见或刻板印象。

虽然某些类型的计算机算法已经表现出偏见,例如种族主义和性别歧视,基于对公共记录和人类产生的其他数据的学习,这项新工作证明了AI自身发展偏见群体的可能性。

已发表在“科学报告”期刊上的新发现基于计算机模拟,即类似偏见的个体或虚拟代理可以如何形成一个群体并相互作用。

在一个给予和接受的游戏中,每个人根据个人的声誉以及他们自己的捐赠策略,包括他们的偏见程度,决定他们是否捐赠给他们自己的团体内部或不同的团体。对外人。

当游戏展开并且超级计算机进行数千次模拟时,每个人都开始通过在他们自己的群体或整个群体中复制其他人来学习新策略。

该研究的共同作者,卡迪夫大学犯罪与安全研究所和计算机科学与信息学院的Roger Whitaker教授说:“通过运行这些模拟成千上万次,我们开始了解偏见如何进化和促进或阻碍它的条件。

“我们的模拟表明,偏见是一种强大的自然力量,通过进化,它很容易在虚拟人群中被激励,不利于与其他人的更广泛的联系。保护偏见的群体可能无意中导致个人形成更多的偏见群体,导致人口破裂。这种普遍存在的偏见很难逆转。“

调查结果涉及个人通过优先复制那些获得较高短期收益的人来更新他们的偏见水平,这意味着这些决定不一定需要高级认知能力。

“能够识别歧视和复制他人的自主机器将来可能会受到我们在人口中看到的偏见现象的影响是可行的,”惠特克教授继续说道。

“我们所看到的许多人工智能开发涉及自治和自我控制,这意味着设备的行为也受到周围其他人的影响。车辆和物联网是最近的两个例子。我们的研究提供了理论上的洞察力代理商定期呼吁他人提供某种资源。“

该研究的另一个有趣发现是,在特定条件下,包括在群体中存在更多不同的亚种群,偏见更难以占据。

“随着人口数量的增加,非偏见群体的联盟可以合作而不被剥削。这也会削弱他们作为少数群体的地位,减少对偏见的偏见。但是,这也需要代理人有更高的倾向。在他们的小组之外互动,“惠特克教授总结道。

标签:

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。