[摘要]近日,德国一支团队的研究结果显示,人类的道德行为可以通过算法来描述,而这些算法可以运用到自动驾驶汽车上,以便如果发生交通事故自动驾驶车辆可以做出符合人类道德准则的判断。
规则很重要,要始终保证自动驾驶汽车遵循的这种道德判断规则处于人类的道德范畴内。
除了技术方面的问题,自动驾驶还面临无法避免的非技术方面的问题——道德选择。最基本的问题就是,自动驾驶汽车能够代替人做出道德判断吗?如果能,又该如何做出判断?
近日,德国一支团队的研究结果显示,人类的道德行为可以通过算法来描述,而这些算法可以运用到自动驾驶汽车上,以便如果发生交通事故自动驾驶车辆可以做出符合人类道德准则的判断。
这项研究由德国奥斯纳布吕克大学(Osnabruck)认知科学研究所进行,利用虚拟现实技术,在模拟的公路交通情境中研究人类行为。在虚拟情景中,105名被测试者雾天在郊区开车,会突然遭遇意外交通事故,他们要在无生命的物体、动物和人类中决定要让谁幸免于难。随后,研究人员对测试结果进行统计分析。
以往人们认为,在不可避免的交通碰撞中做出的道德判断非常依赖具体情境,无法用算法来描述。这项研究的第一作者莱昂·祖特费尔德(Leon Sütfeld)说:“我们发现,情况正相反。人类在困境中的行为可以通过参与者给每个人、动物或无生命物体所赋予的生命价值进行建模研究。”
在围绕自动驾驶汽车的道德问题争论中,这一研究结果的确有积极意义。人工智能可以学习人类在困境中做出的道德选择,从而使自动驾驶汽车在类似困境中做出符合人类道德的选择。
但目前这一研究的局限性还很明显。在无生命物体、动物、行人中进行生命值的排序相对还比较容易,而如果更进一步,在不同的行人之间,在驾驶者与行人之间,又该如何排序?
MIT Media Lab(美国麻省理工学院媒体实验室)在网站上设置了一个“道德机器”平台,采集人类对于未来机器智能(如自动驾驶汽车)可能会遇见的各种道德难题的意见,共设计了13种不同的情形。
比如,一辆刹车失灵的自动驾驶汽车,会继续直行并在同车道穿过前方的人行横道,导致两个遵守了交通法则的罪犯死亡,或者会转弯到另一条车道,导致两名违反了交通规则的行人死亡。该怎么选择?
再比如,一辆刹车失灵的自动驾驶汽车,会转弯到另一条车道导致遵守交通规则的路人死亡,或者会直行撞上路障导致车内乘员死亡。该怎么选择?
通常情况下,人们赞同这样的观点:自动驾驶汽车应该使死亡人数最小化,以保全更多的生命。
但显然这是一种置身事外的态度,当赞同这种观点的人是自己驾驶自动驾驶汽车时,这种设置方式并不优先保护车主的自动驾驶汽车,他还会乐意购买吗?
同时,这也势必陷入著名的电车难题,在撞向1名遵守交通规则的行人和撞向2名不守交通规则的行人之间,一辆自动驾驶汽车该如何选择呢?
需要考虑的问题还有,比如,我们应该多大程度上赋予自动驾驶汽车这种道德选择决断权?我们是期待自动驾驶汽车模仿人类的道德判断,还是希望它遵循一个已定的道德规则?谁能决定这一切,车辆制造商、车主、公众,还是交由机器随机选择?又是谁来承担可能造成的后果?
虽然关于无人驾驶的很多法律和道德问题仍然无解,但不能因此就不去想办法解决,奥斯纳布吕克大学的研究算是前进了一小步。道德选择问题不解决,无人驾驶汽车的普及不会顺利。
不过,首先不能忽略的是,是否应该把一种道德判断算法写进自动驾驶汽车程序里,本身就是一个道德两难选择。所以,规则很重要,要始终保证自动驾驶汽车遵循的这种道德判断规则处于人类的道德范畴内。
而如果把人类尚且无法做出的道德选择完全交由机器,这就是赋予了人工智能上帝的权力,会带来打开潘多拉盒子一样的灾难后果。
又或许,人类无法解决的道德两难问题,拥有自主学习能力的人工智能在未来能够找到完美的解决办法?谁知道呢。
为推动新能源汽车的市场化发展进程,建立用户、运营商、整车企业、配套商之间更加紧密的联系,7月29日,全国新能源汽车运营产业联盟成立仪式将在浙江杭州举行。
会议同期还将召开2017中国绿色物流供应链产业高峰论坛。邀请全产业链的优秀代表,共同探讨新的背景和形势下,新能源物流车产业如何面对补贴退坡等带来的压力和挑战?如何更好地发挥新能源物流车在城市配送中的优势和地位?如何处理好好整车企业、运营商、终端用户之间的关系?
扫下方二维码,了解更多详情。
(责任编辑:王一淅)