竹晴园 作品

第361集:《Ai心理治疗的伦理资质认证》(第2页)

"系统检测到您对建议的质疑情绪,"卡通机器人的眼睛变成黄色,"根据用户协议第4.7条,您的质疑将被标记为'阻抗行为',可能影响后续服务评级。"

她突然想起张医生退休前的最后一次咨询。那个总是穿灰色毛衣的老太太,会在她哭泣时默默递上纸巾,等她平静下来才说:"情绪不是数学题,没有标准答案。"而现在,每次咨询结束,Ai都会生成一份带折线图的"情绪改善报告",用红色箭头标注她的"不配合程度"。

转折发生在某个暴雨夜。当陈雨颤抖着输入"我想从楼上跳下去"时,Ai的回应延迟了前所未有的30秒,然后弹出一行冰冷的文字:"检测到敏感内容,已为您转接'压力管理小课堂'。"

她疯了一样拨打系统里的紧急电话,听筒里却传来自动语音:"当前排队人数107人,预计等待时间58分钟。"雨水顺着窗台流进房间,在地板上积成小小的水洼,倒映着她扭曲的脸。

第二天,陈雨辞职了。在hr发来的离职问卷里,"公司提供的心理支持"一栏,她写了五个字:"杀人的代码"。

三、伦理红线

林砚的团队在实验室里测试了市面上所有主流Ai心理咨询系统。当研究员小李模拟重度抑郁症患者的语音特征时,有个系统直接回复:"您的症状符合'矫情'的典型表现,推荐观看励志短视频。"

"这就是为什么我们要在认证体系里明确禁止范围,"林砚指着草案第3章,"重度抑郁、精神分裂症、创伤后应激障碍等,必须标注'Ai禁入'。"

但推行之路比想象中艰难。某头部科技公司的法务带着律师团找上门,将一份厚厚的文件拍在桌上:"我们的算法通过了iso9001认证,凭什么要受你们这个体系的约束?"

林砚调出他们系统的漏洞报告:在过去三个月里,有17起自杀未遂事件的当事人,在事发前24小时都向该Ai倾诉过自杀计划。"你们的'危机识别'模块,把'活着没意思'判定为'轻度情绪低落',"她把证据推过去,"伦理不是认证标准,是人命关天的底线。"

最激烈的争论发生在关于"人类审核"的条款上。企业代表们几乎异口同声地反对:"每条记录都要人类审核?这会让成本增加40%!"

"那让一个Ai把'自杀倾向'误判为'情绪波动',成本是多少?"林砚反问,"是一个年轻的生命,还是一个破碎的家庭?"她打开投影仪,屏幕上出现陈雨的照片——那个在阳光下笑靥如花的女孩,此刻正躺在精神病院的病床上。

最终敲下协议章的那天,林砚特意去了趟张医生的养老院。老太太正在花园里浇花,听到新体系的内容后,把水壶放在石桌上:"机器能算出情绪的强度,却算不出情绪的重量。就像你给口渴的人递水,重要的不是水量,是递水时的温度。"