在电影《我,机器人》的开头,一个机器人不得不在两辆汽车沉入水中后决定去救谁————是救戴尔·斯普纳 还是一个孩子。尽管斯普纳大叫着“救她!去救她!”,机器人还是救了小男孩,因为机器人计算出他的生还几率 有46%,而莎拉的只有11%。(46)机器人的决定及其计算方式引出了一个重要问题:人类是否也会做出同的 选择?以及我们到底希望我们的机器人做出怎样的选择?
(47)艾萨克·阿西莫夫在设计其机器人的三条法则时规避了所有的道德理念,这三条铁律是:1.(48)机 器人不能伤害人类或允许人类受到伤害;2.机器人必须服从人类,除非其指令与第1条法则相抵触:3.机器人 必须采取自我保护的行为,除非这样做违反前两条法则。这些法则被编入了阿西莫夫的机器人程序中————它们 不必思考、判断或评估。它们不需要喜欢人类或者相信伤害人类是错误的或恶劣的。它们只是不这么做而已。
在《我,机器人》电影中救了斯普纳的机器人遵守了阿西莫夫的第零条法则:机器人不能伤害人类(而不是单 独的人类个体)或允许人类受到伤害————延申了第一条法则,允许机器人决定何为最大益处。按照第一条法则, 机器人不能伤害一个危险的持枪者,但是依照第零条法则,机器人则可以杀死持枪者以拯救他人。
是否能为机器人设置诸如阿西莫夫铁律的程序保护尚存争议。(49)类似“伤害”这样的字眼太过模糊(情 感伤害算不算?取代人类员工算不算伤害?),抽象概念凸显了代码问题。阿西莫夫小说中的机器人暴露出这三 条法则的复杂性与漏洞,即使这些法则奏效,机器人还是不得不对情况进行评估。
而评估情况可能会很复杂。机器人必须在千差万别的背景下识别出当事者、状况和可能的后果。一个电脑 程序是否能做到这种地步令人怀疑————至少,一些不希望看到的结果恐怕难以避免。一位布里斯托机器人实验 室的机器人专家设计让机器人将名为“人机者”的人类替身救出险境。当一个人机者接近危险时,机器人成功地 将其推到一边。(50)但是当两个人机者受到威胁时,机器人42%的时间会卡壳,无法决定应该救哪一个,从而 导致它们都“死”了。这个实验强调了道德的重要性:没有它,机器人如何能决定应该救哪一个,或者怎样才是对 人类最有利的,特别是如果它无法计算生存几率的话?