Bartneck:就像芭比娃娃有不同的肤色一样,我们也希望机器人不仅仅是白色的。我们希望本研究能够鼓励机器人设计师们创造出代表他们群体多元化特征的机器人,没有必要把所有机器人都设计成白色。Bartneck如是说。但不少人或许会对这样的研究嗤之以鼻。
毕竟,如,为什么要将他们的机器人设定为白色,他们十有八九会告诉你:因为白色跟各种家庭装饰都很百搭呀。实际上,Bartneck的在投稿期间就收到了不小的阻力,这篇提交给HRI会议的论文经历了空前的审查过程。论文大约有5000个词,但收到的评论就有大约有6000个词。
人工智能的种族歧视此前《每日邮报》曾报道,英国和美国的计算机科学和心理学专家表示,经过复制、识别和学习其它机器人的行为,自主机器人竟然可以产生偏见,有些算法甚至产生了种族歧视和性别歧视,也证明了其并非无的放矢。
在会议计划委员会开会期间,大家对进行了详细的讨论,共有9名评审员被要求对该研究进行评估。他们的被读者反复审视,有些人指责作者在耸人听闻。偏见和歧视是人类社会所特有的认知,它需要人类意识和思维的支持才会产生。