设为首页 - 加入收藏
您的当前位置:汽车资讯网 > 汽车资讯 > 国际 > 正文

Nature道德机器实验反馈:事故发生时自动驾驶A

编辑:健康网 时间:2018-12-18

黑科技,前瞻技术,自动驾驶道德难题,道德机器实验,自动驾驶安全偏向性

讯 据外媒报道,随着自动驾驶车辆的引入,负责车辆决策人工智能的研发人员们不得不面临有些尴尬的道德难题,例如:车辆在发生碰撞事故时,应该保护驾驶员还是道路上的行人?

有一篇文件在《自然》(Nature)上发布:该篇文章详细谈及了“道德机器(The Moral Machine)”的实验结果,该实验吸引了近200万名参与者,先假设自动驾驶车辆与行人发生碰撞事故,再由上述参与者在乘客及行人的生命之间作出抉择,采集其对这类道德难题情境下所做的选择。

举个例子,实验参与者将获得相关图示,假设车辆的制动发生故障,他(她)需要在以下两种选项中作出选择:“三名老年人因乱穿马路并遭遇事故而丧命”或“车内的年轻人及其家人因车祸丧命。”

此外,还包括以下“二选一”的难题:

黑科技,前瞻技术,自动驾驶道德难题,道德机器实验,自动驾驶安全偏向性

人类VS宠物

保持正确的行驶方向VS转向

乘客VS行人

多数人的性命VS少数人的性命

男人VS女人

年轻人VS老年人

遵守法规的行人VS乱穿马路的人

健康的人VS不太健康的人

社会地位较高的人VS社会地位较低的人

从获得的各类回复看,不论参与该实验的人群来自哪个国家或哪个地域,其回答都具有以下偏向性:选择保障人类的生命而牺牲宠物、选择挽救更多人的性命而牺牲少数人、选择拯救年轻人而牺牲老人。

尽管实验的结果显而易见,但若要将该类选择偏好融入到自动驾驶系统的软件中,似乎不太容易。对自动驾驶系统而言,探查动物要比探查人类简单,判定生命的价值也相对较为简单,但若基于年龄、性别、社会地位等属性来判断各类人群的生命价值,这就变得十分复杂。

例如:若将人工智能对人群的偏向性选择进行如下设置:优先保护儿童而牺牲老年人、优先保护成年人而牺牲老年人,研究人员需要对各人群的年龄范围(age brackets)进行明确的边界限定,基于全球角度而言,想要取得统一的界定标准,这件事本身的操作难度就很大,更遑论基于该范围作出决策算法的设定了。(本文图片选自techradar.com)

黑科技,前瞻技术,自动驾驶道德难题,道德机器实验,自动驾驶安全偏向性

本文版权为盖世汽车所有,欢迎转载!请务必注明出处()及作者。

文章标签:

相关文章:

网站地图 |谷歌地图 | 热门标签

免责声明:本站内容均来自网络或网友投稿,如有侵权请联系管理员,我们会第一时间为您处理或者删除侵权内容!谢谢您的合作!

Copyright © 2017 汽车资讯网 All Rights Reserved.

Top