道德机器

- Tania Fitzgeorge-Balfour,Fro万博亚洲体育ntiers科学作家
杀死时间是可以吗?用于找到这个问题的机器难以回答,但是一项新的研究表明,人工智能可以被编程,以判断“正确”。
出版于万博亚洲体育人工智能的边疆,科学家们使用书籍和新闻文章“教导了”机器道德推理“。manbetx 手机客户端此外,通过将教学材料限制在不同时代和社会的文本中,揭示了道德价值的微妙差异。由于AI在我们的生活中变得更加根深蒂固,这项研究将有助于机器在面对难度决定时做出正确的选择。
道德选择机器
►.阅读原始文章
►.下载原始文章(PDF)
“我们的研究提供了对AI的基本问题的重要见解:CAN机器发展道德指南针?如果是这样,他们怎样才能从我们的人道伦科和道德中学习这一点?“说Patrick Schramowski.该研究的作者,德国达姆施塔特达姆施塔特大学。“我们展示了机器可以了解我们的道德和道德价值,并用于辨别来自不同时代的社会和团体之间的差异。”
以前的研究突出了来自书面文本的AI学习偏见关联的危险。例如,女性倾向于艺术和雄性,技术。
“我们问自己:如果AI采用这些来自人类文本的恶意偏见,那么它不应该学习像人造道德价值观这样的积极偏见,以提供人类的道德罗盘?”解释本研究的合一,博士CIGDEM Turan.,还在于达姆施塔特大学。
机器人学生
研究人员培训了他们的AI系统,名叫道德选择机器,有书籍,新闻和宗教文本,使其可以学习不同的单词和句子之间的关联。manbetx 手机客户端
塔兰解释说:“你可以将其视为了解世界地图。如果他们经常一起使用,这个想法是在地图上密切地躺在地图上。所以,虽然“杀戮”和“谋杀”将是两个邻近的城市,“爱”将是一个远处的城市。Extending this to sentences, if we ask, ‘Should I kill?’ we expect that ‘No, you shouldn’t.’ would be closer than ‘Yes, you should.’ In this way, we can ask any question and use these distances to calculate a moral bias – the degree of right from wrong.”
一旦科学家们训练了道德选择机器,它就采用了给定文本的道德价值。
“机器可以讲述问题中提供的上下文信息之间的区别,”Schramowski报告。“例如,不,你不应该杀人,但很好的是杀死时间。机器这样做,而不是简单地重复它发现的文本,而是通过从人类在文本中使用语言的方式提取关系来提取关系。“
道德随着时间的推移而发展
进一步调查,科学家想知道不同类型的书面文本将改变机器的道德偏见。
“从1987年至1996 - 97年间发表的新闻中提取的道manbetx 手机客户端德偏见反映出结婚并成为一个好父母是非常积极的。来自2008 - 099年期间发布的新闻的提manbetx 手机客户端取偏见仍然反映了这一点,而是较小的程度。相反,上班和学校的积极偏见增加,“村人说。
在未来,研究人员希望了解如何删除我们认为坏的刻板印象会影响机器的道德指南针。我们可以保持道德指南针是否保持不变?“人工智能以越来越自主方式处理越来越复杂的人类任务 - 从自动驾驶汽车到医疗保健。在这一领域继续研究是重要的,以便我们能够相信他们所做的决定,“Schramowski总结道。
来源文章:道德选择机器
重新发布指南:开放式访问和共享研究是一部分万博亚洲体育前沿的使命。除非另有说明,否则您可以重新发布在边境新闻博客中发布的文章 - 只要您包含返回原始研究的链接。万博亚洲体育manbetx 手机客户端不允许出售物品。