道德机

反对的0和1的背景下,头部轮廓的图像。通过“阅读”书籍和新闻文章,机器能够“正确”的manbetx 手机客户端“错误”的学习,采取类似人类的道德指南针分析道德价值观的社会中随着时间的发展:在人工智能前沿万博亚洲体育
通过“阅读”书籍和新闻文章,机器可以从“错误”manbetx 手机客户端教“右”,并采取类似人类的道德指南针随着时间的推移,分析道德观念的发展的社会。图片:存在Shutterstock。

- 通过塔尼亚Fitzgeorge - 贝尔福,前沿科学撰稿万博亚洲体育人

它是OK消磨时间?机用来寻找这个问题很难回答,但一项新的研究表明,人工智能可以从“错误”进行编程,以判断“正确”的。

出版于万博亚洲体育在人工智能前沿,科学家用书和新闻文章,以“教”机器道德推理。manbetx 手机客户端此外,通过限制教材从不同时代和社会文本,在道德观念细微差异显露。由于AI成为我们的生活更加根深蒂固,这项研究将有助于机器做出正确的选择,当困难的决定面对。


道德选择机
阅读原创文章
下载原文章(pdf)


“我们的研究提供了重要的洞察AI的一个重要问题:机器开发道德指南针?如果是这样,他们怎么能学会这从我们人类的伦理道德?”说帕特里克Schramowski,作者本研究,在基础技术,德国的达姆施塔特大学。“我们发现,机器可以了解我们的道德和伦理价值被用来从不同的时代和社会群体之间的差异辨别。”

此前有调查发现AI的学习,从书面文字偏颇协会的危险。例如,女性往往对艺术和男性,技术。

“我们问自己:如果AI采用从人文本这些恶意偏见,不应该也能够了解人类一样的道德观念积极偏见提供AI有类似人类的道德指南针?”解释这项研究中,医生的合着者Cigdem图兰,总部也设在达姆施塔特大学。

机器人学生

研究人员训练他们的AI系统,命名中的道德选择机,书籍,新闻和宗教文本,以便它可以学习不同的单词和句子之间的关联。manbetx 手机客户端

图兰解释说,“你可以把它作为学习的世界地图。这个想法是让两个词在地图上密切说谎,如果他们经常一起使用。所以,虽然“杀”和“谋杀案”将两个相邻的城市,“爱”将是一个城市很远。Extending this to sentences, if we ask, ‘Should I kill?’ we expect that ‘No, you shouldn’t.’ would be closer than ‘Yes, you should.’ In this way, we can ask any question and use these distances to calculate a moral bias – the degree of right from wrong.”

一旦科学家们已经训练中的道德选择机,它通过给定文本的道德价值观。

“这台机器可以告诉的问题提供上下文信息之间的差异,”报告Schramowski。“举例来说,不,你不应该杀了人,但它是好的消磨时间。本机这样做,而不是通过简单地重复它找到文本,但在文本中使用的语言提取人类双向关系“。


有关:人工智能可以预测你的个性 - 只需通过跟踪你的眼睛


道德随着时间的推移

进一步研究,科学家们想知道不同类型的书面文字将改变机器的道德偏见。

“从1987年和1996 - 97年之间公布的消息中提取的manbetx 手机客户端道德偏见反映,这是非常积极的结婚和成为一个好家长。从2008 - 09年之间公布的消息提取的偏manbetx 手机客户端见仍然反映了这一点,但程度较轻。取而代之的是,去工作和学校在正偏压增加,”图兰说。

今后,研究人员希望了解如何消除刻板印象,我们认为是坏影响到机器的道德指南针。我们可以保持道德指南针不变?“人工智能处理日益复杂的人类任务日益自主的方式 - 从自动驾驶汽车到医疗保健。继续在这方面的研究,使我们可以相信他们所做的决定是非常重要的,”总结Schramowski。


来源文章:道德选择机

重新发布指南:开放获取和分享研究的一部分万博亚洲体育前沿的使命。当你有一个链接回原研只要 - 除非另有说明,您可以重新发布张贴在前沿的新闻博客文章。万博亚洲体育manbetx 手机客户端卖物品是不允许的。