为了证明人工智能可以产生偏见,英美两国科学家也曾进行了一次计算机博弈模拟实验。实验中,一台超级计算机控制上千个个体进行博弈,并分析每个个体的给出的决策。实验结果表明,绝大多数个体都将资源分享给自己所在的群体,并且这一决策很快就被其它的个体学习运用。
科研人员还在另一项关于性别的研究中发现,face++、推出的人脸识别服务中存在性别歧视和种族歧视。实验数据表明,对于黑人女性,微软在21%的情况下无法识别,而face++无法识别的概率更是高达35%,这些系统普遍对白人男性表现的更好。
报道认为,机器人制造和编程设计的人类程序员,在潜意识中带有歧视意识,从而表现在研究和编程过程中,这导致的直接结果就是对于白人机器人的重视程度更高,并且这一偏重也导致了机器人呈现的对于部分人类呈现的不友好行为。
报道表示,正因如此,一些科学家才反对人工智能的研究,他们担心人工智能某一天可能会进化出完全的自主意识,带上某部分歧视,甚至对人类产生敌意,由人类设计的机器人,如果不经控制,可能Zui后会成为毁灭人类的工具。