快捷搜索:

无人驾驶汽车或可像人类作出道德决策

德国奥斯纳布吕克大年夜学认知科学钻研所的钻研职员,使用沉浸式虚拟现实技巧,对人类驾车时作出的道德决策和行径做了一场实验,并将钻研结果宣布在了《行径神经科学前沿》杂志上。

钻研职员将实验情景设定在有雾的一天,实验介入者模拟驾驶一辆汽车行驶在范例的郊区蹊径上,此时他们会碰到忽然间呈现的无生命物体、动物或者人类,他们必须要在这几种工具之中选择撞上哪个、躲避哪个。介入者的行径数据被统计模型获取,并推导出一系列规则。这项钻研注解,在弗成避免的交通碰撞变乱发生时,对付人类、动物或无生命物体的生命代价,人类是有伦理判断的,而这些判断能够经由过程算法建立模型。

该论文的第一作者莱昂·苏特菲尔德说,到今朝为止,人们普遍觉得,人类的道德决策每每是根据事发时情境来确定的,是以它不能用算法进行模拟或描述。“但我们的发明恰好相反,在跋前疐后的情境下,实验介入者会依据对人类、动物或无生命物体生命代价的判断来进行反映,根据人类这种生命代价不雅,我们可以建立人类行径的模型,然后经由过程算法植入机械中。

今朝,人们对付无人驾驶汽车和其他人工智能机械的行径仍有争辩,这项钻研结果则会对这些争辩孕育发生紧张影响,尤其在发生弗成避免的意外环境下。比如,德国联邦交通运输和数字根基举措措施(BMVI)近来宣布了20条与无人驾驶汽车相关的伦理原则。此中一条是,假如一个孩子忽然冲到马路上,为了躲避孩子,汽车就必须撞到人行道,但此时人行道上正好有一个成年人。那么,无人驾驶汽车会选择撞上孩子,由于他导致了此次重大年夜风险,以是掉去了得救的资格。然则否所有人都邑做出这样的选择?

钻研职员高登·皮帕说,既然现在已经知道机械能作出类似人类的道德决策,那么赶快对这些伦理问题进行评论争论是异常需要的。“我们必要评论争论,自动驾驶系统是否应该吸收这种代价判断,假如应该,它是否应该仿照人类的决策,又是否应该遵照人类的道德理论呢?假如谜底是肯定的,那么万一它的判断呈现差错,谁又应该认真任呢?”

“首先,我们必要抉择是否将道德代价不雅植入机械的行径准则中来。其次,假如植入的话,机械是否应该像人类一样行事?”钻研职员彼得·柯尼希解释说。

钻研职员表示,现在,无人驾驶汽车只是个开始,医疗机械人和其他人工智能设备正变得越来越普遍。他们警告说,人类现在处于一个新期间的开始,在这个时刻,我们要拟订明确的规则,否则机械将开脱人类的束缚,自己作出抉择。(艾林编译)

加载更多>>

您可能还会对下面的文章感兴趣: