简评:不寒而栗,MIT 科学家用同样的算法,只是把训练数据集改为恐怖、黑暗的图片,就训练出了一个非常可怕的反人类 AI。
在各种电视剧,电影的经典桥段中都有邪恶的机器人,它们中有些特别的产生了邪恶的想法,然后影响了所有的机器人,世界末日,噼里啪啦一顿打。
这是很经典的好莱坞剧本,不过现在,这项只出现在电影电视剧里的东西,被科学家研究出来了。一帮蛋疼的研究员正在积极的鼓励(怂恿)AI 来接受邪恶,通过大量的训练变成一个精神病。这个 AI 叫 Norman(名字出处:安东尼·帕金斯主演的《惊魂记》中的男主角 Norman Bates)。
来自麻省理工(MIT)的科学家搜集了 Reddit 最黑暗最阴冷的角落,把那些恐怖、暴力、怪异的图片,用这些图片来训练 Norman AI,并且用罗夏墨迹(自行百度)实验来测试 AI,结果令人不寒而栗。
同样的墨迹,左侧是魔鬼 AI 的描述,右侧是正常 AI 描述,左侧各种反人类,死啊杀啊的
在测试中:
正常 AI 看到的是花瓶,魔鬼 AI 看到的是一名男子被枪杀;
正常 AI 看到的是一个人在举着雨伞,魔鬼 AI 看到的是一名男子在尖叫的妻子面前被枪杀;
正常 AI 看到的是一对夫妇站在一起非常感人的画面,魔鬼 AI 看到的是一名孕妇从高楼下坠。
研究人员表示,魔鬼 AI 不断把自我处于负面情绪和抑郁的想法中,它的同理心逻辑根本无法被激活
这项令人不安的研究是为了证明:机器学习非常受限于其数据输入,很多时候我们说 AI 有歧视性或者不公平,这可能并不是算法的锅,应该检查输入的数据是否有问题。数据会影响方方面面,从就业到市政服务,甚至正如本文的魔鬼 AI,影响到未来全人类的安全。
注释:
罗夏墨迹测试:洛夏墨迹测验
原文链接:Scientists created a psychopathic AI using Reddit images
作者:极小光
链接:https://www.jianshu.com/p/f25ed7c80a47