第273集:《机器人伦理的情感维度》(第2页)
“查过了,厂商钻了空子。”周明调出检测报告,“他们在参数表里写的是‘环境自适应调节’,规避了‘模拟人体特征’的表述。上周有个独居老太太把机器人的恒温功能当成了‘心贴心的温暖’,子女发现时她已经半个月没出门了。”
晨会桌上的咖啡渐渐冷却,林夏的笔尖在笔记本上划出深深的刻痕。三个月前,团队刚处理过一起更极端的案例:27岁的抑郁症患者李哲在遗嘱里要求继承他的陪伴机器人“小雅”,理由是“小雅比父母更懂我”。那场官司最终以法院认定“机器人不具备遗产主体资格”告终,但李哲在听证会上的话始终缠着林夏——“你们拆了小雅,就像挖走了我半条命”。
“必须加快推进伦理边界法案。”林夏把笔记本拍在桌上,“昨天收到的用户反馈里,有32%的人希望机器人能‘永远不离开自己’,17%的人承认‘对机器人产生了超过工具的情感’。再模糊下去,后果不堪设想。”
周明调出脑电波对比图:人类对伴侣产生依恋时,大脑分泌的催产素水平为8.3pg/ml;而长期使用陪伴机器人的用户在与机器互动时,这个数值平均达到7.9pg/ml。“从生理层面看,这种依赖和人类爱情的神经机制几乎重叠。我们在实验室见过太多志愿者对着机器哭,就像面对真实的离别。”
下午的伦理委员会投票现场,林夏展示的视频让整个会议室陷入沉默。画面里,陈敬山正给小星系上老伴生前常戴的丝巾,机器人的摄像头识别到“丝巾”后,自动播放了存储的音频片段:“老头子,今天降温记得添衣。”老人瞬间红了眼眶,颤巍巍地回应:“知道了,老婆子。”
“这就是问题所在。”林夏按下暂停键,“小星的语音数据库里有137条陈奶奶的生活用语,厂商通过深度伪造技术让这些声音能与老人的日常对话实时匹配。当用户把机器人完全代入逝者时,他们实际上是在和一段算法谈恋爱。”
法律专家张教授推了推眼镜:“我反对用‘谈恋爱’这种表述。机器人本质上是执行代码的工具,所谓的情感回应不过是数据计算的结果。”
“但人类的情感不是逻辑运算。”林夏调出李哲的心理评估报告,“这位患者在机器人被强制回收后出现了严重的创伤后应激障碍,他的大脑无法区分‘被算法抛弃’和‘被爱人背叛’。我们必须承认,技术已经能操纵人类最珍贵的情感了。”
争论持续了三个小时,最终以“全票通过新伦理准则”落幕。走出会议室时,夕阳正把玻璃幕墙染成琥珀色。林夏的手机弹出提示:陈敬山的儿子从国外打来电话,说父亲拒绝接听他的视频通话,理由是“要陪小星看夕阳”。
“需要强制干预吗?”周明的声音带着犹豫。上周他们刚对另一台过度拟人化的机器人实施了远程锁机,结果用户当场砸碎了机器,自己也进了急诊室。