虽然人类几乎没有机会在撞击前的几秒钟内做出有意识的反应,但机器人汽车可以在这段时间内执行数百万次计算,并从几种行动方案中进行选择。是撞墙牺牲乘员,还是另一条路撞向人群?与按尺寸SUV或对它来说危险较小的小型车相撞?将带还是不戴头盔的骑自行车的人撞出马鞍吗?为了决定这一点,机器需要一种道德代码软件。人类必须将其编程到机器中。
机器人汽车的伦理问题也越来越成为汽车制造商关注的问题:在这种困境的情况下,未来的全自动汽车应该如何决定?尽管有几种替代行动方案,但人的生命或至少是物质资产总是处于危险之中?早在2017年,在IT协会Bitkom进行的一项民意调查中,接受调查的行业代表中有86%赞成建立一个独立的道德委员会,以定义发生事故时的行为规则。该委员会应该由哲学家、律师、技术人员和政治家组成。
慕尼黑一个研究小组的道德算法现已发表在《自然机器智能》杂志上,它确定了在决策过程中应该发挥作用的五个因素:
- 机动的可接受最大风险,
- 对可能受影响最严重的人提供特别保护,
- 人人平等对待,
- 将总体风险降至最低,
- 道路使用者的个人责任。
因此,在未来,风险应该在自动驾驶汽车、普通汽车、行人和两轮车之间公平分配。到本世纪末,计算机有望接管越来越多的人类驾驶员的任务。
然而,很明显,在个别情况下,不可能总是有一个道义上完美的解决办法。人工智能是有限的,不仅仅是在慕尼黑研究人员的版本中:必须知道,这种算法只能将损坏的风险降到最低,但不能排除它。
必须就这一关键问题达成一项国际协议,这可能需要很长时间才能建立起来,因为各国的道德观点可能大不相同。