她口中的“三大定律”,由上个世纪的科幻作家阿西莫夫最先提出,具体如下:
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不顾。
第二定律:机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外。
第三定律:机器人在不违反第一、第二定律的情况下,要尽可能保证自己的生存。
但经过这么多年的认知发展,原本的机器人三大定律有了一些小小的改变,与最初的版本略为不同,最终归结为以下三点:
第一,机器人不能伤害自己的主人。(非主人身份的其他人类不在此列)
第二,机器人必须服从主人的命令。(只限于主人,且不能违反第一条)
第三,机器人不但要保护好自己,更要保证主人的安全。(不能违反第一条和第二条)
对比后可以得出结论,修改后的三大定律摈弃了道德因素,更偏向于实用观点,是把机器人视为私人物品,而不是全人类的公众财产,甚至可以把机器人当作一种战争武器来使用。
如果还在沿用以前的三大定律,战斗类型的机器人将不可能出现,更没有存在的意义。
The content is not finished, continue reading on the next page