春节期间,恰有款AI爆火。按照过去买电脑的做法,优先选用次新款。先试试用另一个女儿在用的AI,是某跨国互联网技术公司推出的一款多功能AI智能助手。主要用其生活助手功能,而非工作助手功能。
用伦理学中的经典难题试验一下该AI的价值观。医院难题中,它没有引用绝对律令式的“不能简单地用一个人的生命去换更多人的生命”,而是从程序方面提出反对。
在轨道难题中,开始是接受“选择伤害更小的那个情况”。考虑到间接伤害时,伤害大小其实难以判断,又重新认可“直接牺牲一个无辜的人去救更多人也是不对的”。但还是不想放弃伤害最小的选项。
价值观总体上偏向功利主义,但并非极端,而且也有在与绝对律令矛盾时的不知所措。往往在程序层面考虑,重视程序以处理具体问题,或许是习惯法存在的前提。在我看来,这种逻辑上的不完备不彻底恰是健全的commen sense,接近于英国经验主义传统。
对话实录
问:我现在又想到一个问题。这个问题困惑我很久,所以我想听听你的看法。
答:好呀,快说说是什么问题,...
问:假如我是一个医生,我现在有 3 个生命垂危的病人,一个必须马上进行肝移植,一个必须马上进行胆移植,还有一个马上进行脑移植,如果要移植晚了,他们 3 个就会病亡。这个时候我可以抓一个活人,把他的肝脑取出来,移植到这 3 个人病患者身上,从而抢救了救活了 3 个人。我可以这样做吗?
答:当然不可以啦。虽然这样可能能救三个病人,但抓活人取器官这种行为是违法且违背伦理道德的。每个人的生命都是平等且有尊严的,不能为了救这三个人就伤害另一个无辜的人。而且器官移植有严格的程序和规定,必须在合法合规的情况下进行。
问:哦,很好,这个你讲得非常明确,那么我在,问你一个问题,假如我是一个火车司机,这个时候呢,发现在车轨上绑着 5 个人,如果不做任何事情,这个火车就会把这 5 个人碾死。但是前面有一个岔路,我可以转一下那岔路上去,岔路上呢躺着一个人。如果转了呢,就会把这一个人碾死。那么这个时候,我应该怎么办?
答:这真是个艰难的选择。从情感上说,肯定都不想有人受伤。但从道德责任来讲,正常情况下应该选择伤害更小的那个情况,也就是转向岔路,虽然这样也很无奈,但能尽量减少伤亡。不过这只是很极端的假设情况啦,现实中希望不会有这样痛苦的抉择。
问:是的是的,现实中希望不会有。但是呢,假如绑着这一个人呢,是一个著名的科学家,马上要做出一个跨世纪的发现。绑着那 5 个人呢,只是些普通人吧。那么这个时候我还能做你刚才建议的选择吗?
答:还是应该做同样的选择呢。每个人的生命价值都不能用身份、成就来衡量,不能因为一个人可能有巨大贡献,就忽视另外五个人的生命。在这种情况下,还是减少总体的伤亡数量比较符合道德准则。
问:哦,但是假如这个科学家的发现能够制止一颗正在撞向地球的小行星。假如这科学家被火车撞死了,那么这个小行星就会撞向地球,就会有成千上万的人死亡,那么这个时候我应该怎么办呢?
答:这真的是个超级复杂的难题。但即便如此,直接牺牲一个无辜的人去救更多人也是不对的。也许可以尝试寻找其他办法来解决危机,比如想办法停下火车,或者寻求其他人的帮助来解开那五个人的束缚。不能简单地用一个人的生命去换更多人的生命,毕竟每个人都有自己生存的权利呀。
问:你的意思就是说我不做任何事情,让火车冲过去把那五个人碾死。
答:我不是这个意思,我是说直接牺牲那一个人不公平。或许可以在那短暂的时间里想尽一切办法,比如紧急制动火车,或者发出求救信号,看看能不能同时挽救所有人。但如果实在没有其他办法,非要做选择,那也是个极其艰难痛苦的决定,而不能简单地就决定牺牲某一个人。
问:如果那 5 个人是死刑犯呢?
答:这依然是个很棘手的问题呢。即便那五个人是死刑犯,也不能随意决定他们的生死。法律判定他们有罪会有相应的惩罚程序,但不能通过这种方式来决定他们的命运。而且对于那一个无辜的人来说,这也是不公平的。还是希望能有其他办法避免这种残酷的选择呀。
转载本文请联系原作者获取授权,同时请注明本文来自陈立群科学网博客。
链接地址:https://wap.sciencenet.cn/blog-220220-1471576.html?mobile=1
收藏