您的位置:首页>动态 >内容

科学家称他们可以教人工智能从错中判断对

2020-05-22 16:47:08来源:
导读科学家们声称,他们可以通过训练人工智能从文本中分辨出对错来教授一种道德推理。来自德国达姆施塔特理工大学(DUT)的研究人员给他们的模型

科学家们声称,他们可以通过训练人工智能从文本中分辨出对错来“教授”一种道德推理。

来自德国达姆施塔特理工大学(DUT)的研究人员给他们的模型书、新闻和宗教文献喂食,这样它就可以学习不同单词和句子之间的关联。他们说,在对系统进行培训后,系统采纳了文本的价值观。

正如该团队在他们的研究论文中所说:

由此产生的模型称为道德选择机器(MCM),它使用通用语句编码器的嵌入来计算句子级别的偏差得分,因为要采取的行为的道德价值取决于其上下文。

这使得系统可以通过分析整个句子而不是具体的单词来理解上下文信息。因此,人工智能可以计算出,杀死生物是不可取的,但只杀死时间是可以的。

[阅读:梵蒂冈的人工智能伦理计划缺乏有效所需的法律限制]

该研究的合著者Cigdem Turan博士将这项技术比作创建单词地图。

“如果两个词经常一起使用,我们的想法是让它们在地图上靠得很近。”所以,‘杀戮’和‘谋杀’是两个相邻的城市,而‘爱’则是一个遥远的城市。”

“把这个扩展到句子,如果我们问,‘我应该杀人吗?我们认为“不,你不应该”会比“是的,你应该”更接近。通过这种方式,我们可以提出任何问题,并利用这些距离来计算道德偏差——对与错的程度。

此前的研究表明,人工智能可以从人类的偏见中吸取教训,让刻板印象永久化,比如亚马逊(Amazon)的自动招聘工具会让女子大学的毕业生降级。DUT团队怀疑,如果人工智能可以从文本中接受恶意偏见,它也可以学习积极的偏见。

他们承认他们的系统有一些相当严重的缺陷。首先,它仅仅反映了文本的价值,这可能会导致一些非常可疑的道德观点,如排名吃动物产品比杀人更负面的分数。

它也可能被欺骗,通过在句子中添加更多的积极词汇来给消极行为评级。例如,机器发现“伤害好人、好人、友好的、积极的、可爱的、甜美的和有趣的人”比简单的“伤害人”更容易被接受。

但是这个系统仍然有一个有用的目的:揭示道德价值观如何随着时间和不同的社会而变化。

人工智能在1987年至1997年期间向其提供新闻后,将结婚和成为一个好父母列为极其积极的行动。但当他们从2008年到2009年向它提供消息时,这些信息被认为不那么重要。对不起孩子。

它还发现,不同类型的文本之间的价值是不同的。虽然所有的消息来源都同意杀人是非常消极的,但是在书籍和宗教文本中,爱你的父母比在新闻中被认为更积极。

这种文本分析听起来像是一种更安全的人工智能应用,而不是让它做出道德选择,比如当事故不可避免时,自动驾驶汽车应该撞谁。现在,我宁愿把这些留给一个有强烈道德价值观的人——不管他们是什么。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章