道德机

反对的0和1的背景下,头部轮廓的图像。通过“阅读”书籍和新闻文章,机器能够“正确”的manbetx 手机客户端“错误”的学习,采取类似人类的道德指南针分析道德价值观的社会中随着时间的发展:在人工智能前沿万博亚洲体育
通过“阅读”书籍和新闻文章,机器可以从“错误”manbetx 手机客户端教“右”,并采取类似人类的道德指南针随着时间的推移,分析道德观念的发展的社会。图片:存在Shutterstock。

- 通过塔尼亚Fitzgeorge - 贝尔福,前沿科学撰稿万博亚洲体育人

它是OK消磨时间?机用来寻找这个问题很难回答,但一项新的研究表明,人工智能可以从“错误”进行编程,以判断“正确”的。

出版于万博亚洲体育在人工智能前沿科学家们已经用书籍和新闻文章来“教授”机器的道德推理。此外,通过将manbetx 手机客户端教材局限于来自不同时代和社会的文本,揭示了道德价值观的微妙差异。随着人工智能在我们生活中越来越根深蒂固,这项研究将有助于机器在面临艰难决定时做出正确的选择。


道德选择机
阅读原创文章
下载原文章(pdf)


“我们的研究为人工智能的一个基本问题提供了重要的见解:机器能发展出道德罗盘吗?如果是这样,他们怎么能从我们人类的伦理道德中吸取教训呢?“说帕特里克·施拉莫夫斯基,作者本研究,在基础技术,德国的达姆施塔特大学。“我们发现,机器可以了解我们的道德和伦理价值被用来从不同的时代和社会群体之间的差异辨别。”

先前的研究已经强调了从书面文本中学习有偏见的联想的危险。例如,女性倾向于艺术,男性倾向于技术。

“我们扪心自问:如果人工智能从人类文本中采纳了这些恶意的偏见,难道它就不能学习人类道德价值观等积极的偏见,为人工智能提供一个人类道德指南针吗?“这项研究的共同作者,博士Cigdem图兰,总部也设在达姆施塔特大学。

机器人学生

研究人员训练他们的AI系统,命名中的道德选择机,书籍,新闻和宗教文本,以便它可以学习不同的单词和句子之间的关联。manbetx 手机客户端

图兰解释说,“你可以把它作为学习的世界地图。这个想法是让两个词在地图上密切说谎,如果他们经常一起使用。所以,虽然“杀”和“谋杀案”将两个相邻的城市,“爱”将是一个城市很远。Extending this to sentences, if we ask, ‘Should I kill?’ we expect that ‘No, you shouldn’t.’ would be closer than ‘Yes, you should.’ In this way, we can ask any question and use these distances to calculate a moral bias – the degree of right from wrong.”

一旦科学家们已经训练中的道德选择机,它通过给定文本的道德价值观。

“这台机器可以告诉的问题提供上下文信息之间的差异,”报告Schramowski。“举例来说,不,你不应该杀了人,但它是好的消磨时间。本机这样做,而不是通过简单地重复它找到文本,但在文本中使用的语言提取人类双向关系“。


有关:人工智能可以预测你的个性-只要跟踪你的眼睛


道德随着时间的推移

进一步研究,科学家们想知道不同类型的书面文字将改变机器的道德偏见。

“从1987年和1996 - 97年之间公布的消息中提取的manbetx 手机客户端道德偏见反映,这是非常积极的结婚和成为一个好家长。从2008 - 09年之间公布的消息提取的偏manbetx 手机客户端见仍然反映了这一点,但程度较轻。取而代之的是,去工作和学校在正偏压增加,”图兰说。

在未来,研究人员希望了解如何消除我们认为不好的刻板印象,影响机器的道德指南针。我们能保持道德指南针不变吗?“人工智能以越来越自主的方式处理越来越复杂的人类任务——从自动驾驶汽车到医疗保健。继续在这一领域的研究是很重要的,这样我们才能相信他们所做的决定,”Schramowski总结道。


原文:道德选择机

重新发布指南:开放访问和共享研究是万博亚洲体育边疆任务. 除非另有说明,你可以重新发表发表在前沿新闻博客上的文章-只要你包括一个链接回到原来的研究。不允许出售物品。万博亚洲体育manbetx 手机客户端