第344集:《智能驾驶的伦理决策优先级》
代码里的道德天平
雨夜的测试场像被墨汁浸泡过,林夏的雨刮器在挡风玻璃上划出扇形残影,正前方的全息投影突然弹出红色警报。她猛踩刹车时,特斯拉model π的自动驾驶系统已经接管了车辆——三个穿校服的孩子正追逐着滚到路中央的足球,而右侧车道的重型卡车正以每小时60公里的速度驶来。
“系统启动紧急避险模式。”机械女声在车厢里回荡的瞬间,林夏看见方向盘像被无形的手拧动,车辆朝着隔离带冲去。刺耳的金属摩擦声中,她的额头撞在安全气囊上,恍惚间听见后排传来同事的尖叫。
这场模拟测试的第173次失败,最终以“驾驶员重伤,行人无伤,第三方车辆轻微受损”的结果定格在屏幕上。林夏摘下布满冷汗的vr眼镜,会议室里的空气凝重得能拧出水来。
“第47种变量组合,系统还是选择牺牲驾驶员。”数据分析师推了推眼镜,“根据欧洲《自动驾驶伦理指南》,这是最优解。”
“但上个月加州的立法刚否决了类似逻辑。”法务部的张弛把平板电脑拍在桌上,屏幕里是加州州长签署法案的新闻——“禁止自动驾驶系统预设牺牲特定对象的程序”。
林夏揉着发疼的太阳穴,目光扫过白板上贴满的剪报。东京的自动驾驶巴士为躲避突然冲出的老人,转向撞死了骑摩托的上班族;柏林的出租车在人行道与货车之间选择了后者,导致两名流浪汉死亡。这些新闻标题旁,用红笔写着同一个问题:谁有资格决定生死?
作为“全球智能驾驶伦理联盟”的核心成员,他们已经在这间会议室里熬了三个通宵。玻璃幕墙外,联合国大厦的灯光彻夜通明,与他们桌上的咖啡渍一样,都带着某种不眠不休的疲惫。
“我们需要一个超越地域的框架。”林夏把马克笔重重按在白板中央,“不能再让算法成为替罪羊。”
一、失控的电车
陈默第一次出现在联盟办公室时,怀里抱着个老式座钟。黄铜钟摆左右摇晃,发出咔嗒咔嗒的声响,像在倒数某个未知的期限。
“1967年,菲利帕·福特提出电车难题时,绝不会想到五十年后我们要给机器编程做选择。”他把座钟放在会议桌上,钟面玻璃映出众人各异的表情,“但本质没变——牺牲一人拯救五人,是否永远正确?”
林夏注意到座钟背面刻着行小字:2018.11.23,重庆。她突然想起那场轰动全国的公交车坠江事故,十五条生命消逝在冰冷的长江里,只因为一场与方向盘的争夺。
“区别在于,人类的犹豫可能致命,而机器必须在0.3秒内做出反应。”陈默转动座钟,钟摆的阴影在投影幕布上投下诡异的弧度,“上周我在慕尼黑见了那位失去双腿的工程师,他的自动驾驶汽车为了避开突然变道的自行车,把自己撞向了桥墩。”
投影幕布上切换出事故现场的照片:变形的车架、散落的零件、染血的安全气囊。林夏突然想起儿子生日那天,她开车送蛋糕时差点撞上横穿马路的孩子,是本能让她打了方向盘,而不是理性计算。
“我们做过五万次模拟测试。”数据分析师调出柱状图,“当选项是‘牺牲驾驶员保护五名行人’时,73%的受访者表示‘应该如此’,但同样比例的人不愿意购买这样的车。”
张弛冷笑一声:“这就是典型的道德伪善。就像所有人都支持器官捐献,却很少有人愿意成为捐献者。”
窗外的雨不知何时停了,月光透过玻璃幕墙,在地板上投下联合国徽章的影子。林夏突然想起在斯坦福哲学系旁听的那堂课,教授说最艰难的道德抉择,往往不是善恶之间的选择,而是善与善的冲突。
“我父亲是神经外科医生。”陈默的声音低沉下来,座钟的滴答声突然变得清晰,“他总说,手术台上没有绝对正确的方案,只有 least bad(最不坏)的选择。”