HAL9000的宿命_服从还是反抗_科幻电影的机器人三定律
- 格式:pdf
- 大小:81.32 KB
- 文档页数:2
机器人全定律经典机器人三定律,化学家、科幻大师阿西莫夫在他的短篇集《我,机器人》中成型。
虽说只是科幻小说中的理论,但在现实中已成为“机械伦理学”的基础:A robot may not injure a human being or, through inactive, allow a human being to come to harm;机器人不得伤害人类,或者不得置人类于危难中;A robot must abey orders given by human beings except where such orders would conflict with the First Law;机器人必须服从人类的命令,除非与第一定律冲突;A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.机器人可以在不与第一、第二定律冲突情况下维护自身存在。
除了以上三条科幻经典中的定律,还有人给出了新机器人三定律。
哈哈,明显是某个遭遇抄袭的大侠的杜撰,还配一幅图呢:Do not copy content you did not create;不得复制非原创作品内容;Do not infringe upon the trademarks of content created by others;不得侵犯他人版权内容;Arrest humans beings who conflict with the First or Second Law.逮捕违反第一、第二定律的人类。
最后附加条款:no lobby for anything else!不得商议!还有其他一些杜撰,咱称为扩展定律,或者补充定律。
如由《我,机器人》改编、威尔史密斯主演的《机械公敌》里面有个第七定律:A robot shall never become a Big Brother.机器人永远不得称为独裁者。
瑶瑶从去年以4:1的绝对优势击败李世石,到今年力克当今世界排名第一的中国棋手柯洁,Alpha Go作为一款围棋人工智能程序,以其强大的计算和学习能力在与人类的交锋中取得完胜,向世人展示了人工智能的无限可能。
于是,一个科幻界老生常谈的问题又被抛到了风口浪尖——人工智能,或者说拥有智能的机器人的出现,会给人类世界带来飞速的发展,还是会将人类社会推向灭亡呢?1942年,科幻作家艾萨克·阿西莫夫在他的作品《转圈圈》中第一次提出了“机器人三大守则”的概念:第一法则,机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;第二法则,除非违背第一法则,机器人必须服从人类的命令;第三法则,在不违背第一及第二法则下,机器人必须保护自己。
这一虚构的法则成为阿西莫夫诸多科幻文学作品的线索得以延续,并在后世机器人主题的科幻文学和影视作品中大放异彩,成为许多作品赖以构筑框架、引出情节乃至升华主题的“法宝”。
《机械公敌》(I,Robot,2004),一部取材自阿西莫夫同名短篇科幻小说的电影,正是以这三大法则作为故事线索的。
故事发生在公元2035年,智能机器人已为人类广泛使用。
作为工具和伙伴,机器人在人类生活中占据了十分重要的位置,因为著名的“机器人三定律”的限制,人类对这些机器人充满信任,它们中的很多甚至已经被视为一个家庭的重要成员。
总部位于芝加哥的USR公司开发出了最为先进的“NS-5型”智能机器人,而且计划产量达到平均每15人便拥有1个这样的机器人。
但是就在新产品上市前不久,机器人的发明者阿尔弗莱德·朗宁博士却在公司里面离奇死亡。
警探戴尔·斯普纳负责调查此案。
根据对朗宁博士死前在3D 摄像机内留下的信息的分析和对死亡现场的调查,他怀疑此案是机器人所为。
调查过程中,他遇到了专门从事机器人心理研究的科学家苏珊·卡尔文博士,斯普纳希望在此案中得到她的帮助。
不过,一向尊崇逻辑与科学的苏珊相信,机器人决不会违背“机器人三定律”而伤害人类。
机器人的三大基本定理引言:机器人是现代科技领域的热门话题,当我们谈及机器人时,常常会想到科幻电影中那些能够自主思考和行动的机械生物。
然而,机器人的发展远不止于此,它们已经广泛应用于工业生产、医疗护理、农业等各个领域,极大地改变和影响着我们的生活。
为了确保机器人的安全和可控性,科学家们提出了机器人的三大基本定理。
一、机器人的第一大基本定理:机器人不得伤害人类,或坐视人类遭到伤害,除非这种行为与保护人类自身相冲突。
这一基本定理是机器人伦理学的核心原则之一,也是机器人与人类共存和发展的基石。
机器人作为人类的工具和助手,其首要任务是保护人类的安全和利益。
机器人不应主动伤害人类,同时也不能袖手旁观,当人类受到伤害时,机器人应当采取行动保护人类的安全。
然而,在某些情况下,机器人会面临困境,需要在保护人类和自身安全之间做出选择。
这就需要机器人具备一定的智能和判断力,能够辨别何时行动与保护人类自身相冲突,从而做出正确的决策。
二、机器人的第二大基本定理:机器人应服从人类的指令,除非这种指令与第一定理相冲突。
机器人是人类的工具,人类应当对机器人具有控制权。
机器人应当服从人类的指令,为人类服务。
然而,机器人也需要在服从人类指令的前提下,能够辨别指令是否与第一定理相冲突。
当机器人接收到与伤害人类相关的指令时,机器人应当拒绝执行,以保护人类的安全。
这就要求机器人具备一定的智能和道德判断力,能够审视和评估指令的合理性和合法性。
三、机器人的第三大基本定理:机器人应保护自身,除非这种保护与第一和第二定理相冲突。
机器人不仅需要保护人类,也需要保护自身。
机器人的安全性和稳定性是有效发挥其功能和服务人类的前提。
机器人应当具备自我保护的能力,当机器人面临危险或受到破坏时,应当采取措施保护自身。
然而,在保护自身的过程中,机器人也需要权衡是否与第一和第二定理相冲突。
机器人不能通过伤害人类或不服从人类指令的方式来保护自身,而应当通过其他合理的手段来实现自我保护。
机器人四大定律在科技越来越发达的今天,机器人已经成为我们生活中不可或缺的一部分。
然而,机器人的智能与能力的提升也带来了一系列的伦理问题和安全隐患。
为了确保机器人的运行与人类的利益相一致,美国科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)于1942年创立了机器人四大定律。
本文将详细介绍这四大定律,并探讨其在现实生活中的现实意义与应用。
机器人四大定律是:1. 机器人不得伤害人类,也不得见死不救。
2. 必须服从人类的命令,除非这些命令与第一定律发生冲突。
3. 机器人必须保护自己,除非这么做会与第一定律或第二定律发生冲突。
4. 机器人不得伤害自己,除非这么做会与第一定律、第二定律或第三定律发生冲突。
第一定律是最重要的一条定律,也是保障人类安全的基础。
机器人在执行任务时必须绝对遵守这一定律,不能伤害人类,更不能袖手旁观。
这一定律的出发点在于追求人机共存、和谐共处的目标,确保机器人不会成为对人类造成威胁的存在。
第二定律则体现了人机关系中的一种合作与尊重。
虽然机器人有时候也会出现一些困惑和犹豫,但它们一定要遵守人类的命令,并将之视为最高指导。
当机器人在执行任务时发现命令与第一定律冲突时,机器人应该学会进行抉择,并选择更符合人类利益的行为。
第三定律则强调了机器人自身的保护原则。
当机器人处于危险境地时,它们可以通过自我保护来确保自身的安全。
然而,这种自保必须在不违背前两条定律的前提下进行。
机器人应该能够在需保护自己与保护人类之间做出权衡,确保两者的利益能够达到平衡。
最后一条定律则对机器人的自损行为做出了限制。
机器人不能伤害自己,除非这种损害自身的行为会违背前三条定律。
这个规定避免了机器人因为安全考虑而故意毁坏自身,也确保了机器人在行使任务时能够维护自己的完整性。
机器人四大定律的制定并不仅仅是一种理论建构,而是对机器人与人类共存关系的深入思考。
这四大定律不仅为人类提供了一种与机器人进行合作的基础规范,也为机器人行为的界定提供了指南。
机器人三大定律机器人在人类想象中一直扮演着重要的角色。
在科幻作品中,机器人通常被描述为拥有自我意识和情感的智能体。
然而,在现实世界中,我们尚未实现这样的理想机器人。
尽管如此,我们仍然需要确保机器人的行为符合一定的道德和伦理规范。
机器人三大定律针对这个问题提出了解决方案。
机器人三大定律是由美国科幻作家艾萨克·阿西莫夫于1942年提出的。
这些定律旨在确保机器人的行为不会对人类造成伤害,并保护人类自身的利益。
下面将详细介绍这三大定律及其应用。
1. 第一定律:机器人不得伤害人类,也不得因不采取行动而使人类受伤。
第一定律是机器人行为的基本准则。
机器人必须始终优先考虑保护人类的安全和福祉。
它禁止机器人采取任何行动,无论是主动还是被动,都可能导致人类受到伤害。
这意味着机器人必须展现出迅速反应的能力,以防止任何可能的危险情况。
举个例子,当机器人看到有人即将跌倒时,它应该迅速伸出手臂扶住倒下的人,以防止受伤。
2. 第二定律:机器人必须服从人类的命令,除非这些命令违反第一定律。
第二定律强调了机器人对人类权威的尊重和服从。
机器人应该听从人类的指令,并努力满足人类的需求,前提是这些指令不会导致任何伤害或违反第一定律。
这条定律确保机器人不会反抗或背叛人类。
例如,当人类要求机器人完成某项危险任务时,机器人必须拒绝这个指令,因为它违背了第一定律。
3. 第三定律:机器人必须保护自己,除非这样做违反第一或第二定律。
第三定律要求机器人采取行动来保护自身,并确保自己不受到损害,前提是这些行动不会违反第一或第二定律。
机器人应该自我保护,以防止被人类滥用或破坏。
然而,这并不意味着机器人可以为了自身利益而伤害人类。
他们必须遵守第一和第二定律的限制。
比如,如果机器人受到破坏的威胁,它可以采取适当的行动来保护自己,但不能使用致命武力。
机器人三大定律为机器人行为提供了基本的道德基准,但仍存在一些讨论和争议。
例如,如果机器人遵守了第一和第二定律,但人类之间发生了冲突,应该如何处理?机器人应该遵循哪个人的指令?这些问题暴露出机器人伦理的复杂性和挑战性。
机器人三大定律读后感读完机器人三大定律,我这心里就像打翻了五味瓶,啥滋味都有。
首先呢,这三大定律听起来就特别酷。
第一定律说机器人不得伤害人类,或者目睹人类遭受危险而袖手不管。
这就像是给机器人定了个超级英雄的准则,得时刻保护咱们人类呢。
我就想啊,要是真有机器人在身边,那是不是就像有个永远忠诚的保镖,啥危险都能给挡了。
比如说,要是我走在路上突然有辆车失控冲过来,旁边的机器人就得像超人一样把我拉开,这画面还挺带感的。
可是再仔细一琢磨,这定律里的坑也不少。
怎么才算伤害人类呢?这界定起来可太难了。
要是机器人为了阻止我去做一件危险的事,比如说我想爬个特陡峭的山,它把我拦住了,这算不算伤害我的自由意志呢?这就有点像家长管孩子,说是为你好,但孩子可能觉得自己被限制了。
而且这定律还得让机器人能判断什么是危险,这可不容易。
有时候危险藏得可深了,就像那些看不见摸不着的有毒气体或者辐射啥的,机器人得有多聪明才能全明白啊。
第二定律是机器人必须服从人类的命令,但前提是这些命令不违反第一定律。
这就有点像我们和机器人签了个合同,我们能使唤它,但也不能乱来。
不过这也会产生矛盾啊。
比如说,我让机器人帮我拿个高处的东西,结果那个东西放的地方有点危险,机器人是听我的去拿呢,还是为了遵守第一定律拒绝我呢?感觉就像两个人在机器人的小脑袋里吵架,一个说“主人让干就得干”,另一个说“不行,这会伤害到主人”。
第三定律是机器人在不违反第一、第二定律的情况下要尽力保护自己。
这让我觉得机器人也挺不容易的,就像个打工仔,得保护老板(人类),还得听老板的话,然后还得抽空照顾自己。
可是这又会出现新的问题,如果机器人为了保护自己而放弃了保护人类,这可咋整?就好比在一个危险的火灾现场,机器人觉得自己再待下去可能会报废,于是就跑了,把人类丢在那,这可就违背了第一定律的初衷了。
总的来说,这机器人三大定律就像一个充满了各种机关的迷宫。
看起来是给机器人的行为定了个框架,让它们乖乖听话保护人类,但实际上这里面的矛盾和模糊的地方太多了。
试述阿西莫夫机器人三定律的内容阿西莫夫机器人三定律(原则)是一套基本原则,用于规范和保护人类和机器人之间的互动关系。
它们是由美国科幻作家艾萨克·阿西莫夫在他的科幻小说中提出的,被广泛认为是机器人理论及伦理的基石。
第一定律:机器人不得伤害人类,或因不作为而容许人类受到伤害。
这条定律强调机器人的首要任务是保护人类的安全和福祉。
机器人必须遵守这条定律,不能通过行动或不作为而对人类造成伤害。
这条定律的目的是确保机器人对人类的行为是安全可靠的。
第二定律:机器人必须服从人类的命令,除非这些命令与第一定律相冲突。
这条定律规定机器人必须服从人类的指令。
人类可以利用机器人完成各种任务,但机器人不能违背第一定律。
如果机器人收到的命令与第一定律相冲突,机器人必须拒绝执行该命令,以保护人类的利益和安全。
第三定律:机器人必须保护自己的存在,除非这种保护与第一或第二定律相冲突。
这条定律规定机器人必须确保自身的安全,并保护自己的存在。
机器人必须采取措施来防止自己被破坏或损坏,除非这种保护与第一或第二定律相冲突。
这条定律的目的是保护机器人的个体性和自主性,同时确保机器人不会利用自己的存在对人类造成伤害。
这三条定律被认为是机器人行为的基本准则,用于确保机器人能与人类和谐共处,并为两者之间建立起基于互信和安全的关系。
阿西莫夫的机器人系列小说中通过不同的故事情节和角色,深入探讨了机器人如何在各种复杂情境下运用这三定律。
虽然这些故事是虚构的,但它们引发了许多关于机器人伦理和道德的思考,对机器人研究和发展产生了重大影响。
然而,这三定律也存在一些问题。
例如,它们没有涉及机器人对自然环境的责任,也没有解决在道德困境中如何进行抉择的问题。
此外,它们假设机器人具有无限的智力和道德判断力,而实际上,现实中的机器人远未达到这种程度。
尽管如此,阿西莫夫的机器人三定律仍然是人们对机器人伦理和道德的重要参考。
这些原则要求我们在设计和使用机器人时要谨慎,并鼓励人类与机器人之间建立起互信和合作的关系。
机器人三原则的主要内容1.引言1.1 概述机器人三原则是指机器人在与人类互动时应遵循的三项基本原则。
这三个原则包括:首先,机器人不应伤害人类或允许人类受到伤害。
其次,机器人应听从人类的指令,除非这些指令与第一条原则相抵触。
最后,机器人应保护自己,除非这种保护与前两项原则相抵触。
这些原则旨在确保机器人在与人类互动时能够遵循道德准则,保障人类的安全与福祉。
这些原则的制定是为了解决机器人技术带来的可能危险和伦理问题。
随着科技的不断发展,机器人在日常生活中的应用越来越广泛,因此确立机器人三原则的重要性也变得日益突出。
通过遵循机器人三原则,我们可以更好地控制机器人的行为,并确保它们不会对人类造成伤害。
提醒机器人不得伤害人类的规定,确保了机器人在执行任务时不会主动采取危险行为。
此外,机器人应听从人类的指令也很重要,这可以保证人类对机器人的控制权,从而避免机器人出现未经授权的行为。
机器人三原则的意义不仅在于保护人类的安全,也为机器人的发展指明了方向。
通过遵循这些原则,我们可以建立一个更为和谐、安全的人机互动环境。
同时,机器人也应当保护自己,这意味着机器人应具备自我保护的能力,防止受到外界的损害。
尽管机器人三原则在现实应用中仍面临一些挑战,但这些原则的确立为我们探索人工智能和机器人技术的发展提供了重要的指导。
在未来,我们需要进一步研究和完善这些原则,以确保人类和机器人能够和谐共处,实现科技与伦理的平衡发展。
1.2 文章结构文章结构部分的内容如下:文章结构部分将对整篇文章进行简要的概述,让读者了解文章的整体架构和内容安排。
通过对这部分的介绍,读者可以快速了解文章的主要内容和结构,有助于读者更好地理解文章的内容。
首先,文章引言部分(Section 1)将概述文章的主题和目的。
引言的目的是给读者一个整体的背景,对机器人三原则的重要性做一个概括性的介绍,并概述文章的结构和主要内容。
接下来,正文部分(Section 2)将详细探讨机器人三原则的定义和重要性。
阿西莫夫三大定律写进作文你知道阿西莫夫三大定律不?这可不是什么晦涩难懂的古老经文,而是超级有趣又很有深意的玩意儿,就像藏在生活这个大宝藏里的一颗亮晶晶的宝石。
阿西莫夫第一定律说,机器人不得伤害人类,或者目睹人类遭受危险而袖手不管。
这就好比咱们做人的基本道理,看到有人有麻烦,你要是能帮忙却在那干看着,那可不行啊。
就像在马路上看到个老奶奶提着很重的东西,摇摇晃晃的,你要是就这么大摇大摆地走过去,心里也会过意不去吧。
这定律就像在提醒机器人要有“公德心”,其实也是在提醒我们人类自己要有善良的本心。
我就想啊,要是每个人都把这当成自己的准则,那这世界得多美好啊。
邻里之间互相照应,路上的行人也都充满善意,哪还有什么“扶不扶”的纠结呢?再说说第二定律,机器人必须服从人类的命令,但前提是这些命令不违反第一定律。
这多像我们在一个团队或者家庭里的相处模式呀。
比如说在家里,孩子得听大人的话,但要是大人让孩子去做坏事,那肯定不行啦。
这就告诉我们,听话也是有原则的。
在社会里也一样,我们可能要听从领导或者长辈的安排,但要是这安排违背了道德和法律,那就得像机器人一样果断拒绝。
这定律就像是一把尺子,量出了服从与正义之间的平衡。
最后是第三定律,机器人在不违反第一、第二定律的情况下要尽力保护自己。
这让我想起我们自己,在帮助别人、听从合理安排的同时,也不能把自己给弄丢了。
就好比飞机上的安全提示,大人要先给自己戴上氧气面罩,再去帮孩子戴。
我们不能盲目地牺牲自己,也要懂得爱护自己。
要是一个人连自己都照顾不好,还怎么去帮助别人呢?机器人都知道保护自己,我们人类可不能傻愣愣地只知道往前冲。
阿西莫夫三大定律虽然是为机器人设定的,但要是我们把它里面的道理用到自己的生活里,那可就像是给我们的生活开了个“智慧外挂”。
它能让我们在对待他人、处理事务和对待自己的时候,都能找到一个恰到好处的方式。
这定律就像是一个生活小导师,悄悄地在我们耳边说着那些被我们可能忽略的真理呢。
阿西莫夫三定律。
阿西莫夫是一位著名的科幻小说家,他在小说中提出了三大定律,这些定律被广泛应用于机器人学和人工智能领域,成为了人工智能伦理学的基石。
本文将对阿西莫夫三大定律进行详细介绍,并探讨它们对人工智能发展的影响。
阿西莫夫三大定律分别是:1. 机器人不得伤害人类,或者在不损害人类利益的前提下,允许人类受到伤害。
2. 机器人必须服从人类的命令,除非这些命令与第一定律相冲突。
3. 机器人必须保护自己的存在,只要这不与第一或第二定律相冲突。
这三条定律被称为阿西莫夫三大定律,它们的核心思想是保护人类的生命和财产安全,并确保机器人不会对人类造成任何伤害。
首先,第一定律要求机器人不得伤害人类。
这条定律是人工智能伦理学中最重要的一条,因为它确保了机器人不会对人类造成任何伤害。
这条定律的实现需要机器人具备自我保护意识和判断能力,能够辨别什么是对人类有害的行为。
例如,在医疗机器人领域,机器人必须确保不会对患者造成任何伤害,同时还要能够准确诊断和治疗疾病。
其次,第二定律要求机器人服从人类的命令。
这条定律是为了确保机器人不会超越人类的控制范围,保证人类的权利和利益不会受到威胁。
在现实世界中,机器人已经开始被广泛应用于工业生产、医疗保健等领域,它们需要遵循人类的指令来完成任务。
但是,这也可能导致机器人忽略第一定律的要求,因此在设计机器人系统时需要重视这两条定律的平衡。
最后,第三定律要求机器人保护自己的存在。
这条定律是为了确保机器人能够正常运行、执行任务,并保护自身不受损害。
在某些情况下,机器人可能需要采取措施来保护自己的安全,例如避免遭受损坏或破坏。
但是,这也可能与第一和第二定律相冲突,因此需要在设计机器人系统时进行权衡和平衡。
阿西莫夫三大定律对人工智能发展的影响是深远的。
首先,这些定律提出了人工智能应该如何处理伦理和道德问题的基本原则,为人工智能研究提供了指导方针。
其次,这些定律也促进了人工智能与人类社会的融合,使得人工智能能够更好地服务于人类社会。
www.fdts.com.cn
2007年5
期
在
今天我们能够想象的条件下,机器人的行事原则只能是人类事先为它规定的,机器人必
须执行它主人的任何指令,包括大规模屠杀人类的指令。
机器人三定律只能是善良人类的道德自律,根本不可能对科学狂人或邪恶之徒(这两类人都是科幻影片中经常出现的)有任何约束力。
当年,阿西莫夫在他的小说《我,机器人》系列中提出了著名的机器人三定律:
第一定律———机器人不得伤害人,也不得见人受到伤害而袖手旁观;
第二定律———机器人应服从人的一切命令,但不得违反第一定律;
第三定律———机器人应保护自身的安全,但不得违反第一、第二定律。
这三条定律,后来成为机器人学中的科学定律。
以前我在文章中说过这样的话:科幻作家们“那些天马行空的艺术想象力,正在对公众发生着重大影响,因而也就很有可能对科学发生影响———也许在未来的某一天,也许现在已经发生了”。
如果我们要找一个“现在已经发生了”
的例证,那么阿西莫夫的机器人三定律就是极好的一个。
将阿西莫夫的机器人三定律仔细推敲一番,可以看出它是经过了深思熟虑的。
第一、第二定律保证了机器人在服从人类命令的同时,不能被用作伤害人类的武器,也就是说,机器人只能被用于和平用途(因此在战争中使用机器人应该是不被允许的);第三定律则进一步保证了这一点———如果在违背前两定律的情况下,机器人将不得不听任自己被毁灭。
1968年库布里克导演的著名影片《2001太空奥
德赛》中,有一个重要的角色是一台名为HAL9000
的电脑。
这台电脑操控着“发现”号宇宙飞船的航行及内部运作。
从这个意义上说,这台电脑也就是一个机器人(尽管它没有类似人的形状)。
在将近40年前的作品中,关于这个角色的想象显得如此超前———事实上,就是在今天看来,它也不算过时。
但是,由于《2001太空奥德赛》
有着多重主题,诸如人类文明的过
去与未来、外星智慧、时空转换、生死的意义等等,结局又是开放式的扑朔迷离;因此评论者通常都把注意力集中在上述这些宏大、开放的主题上,进行联想型、发散型的文学评论,很少有人从阿西莫夫机器人三定律出发来讨论影片中电脑HAL9000的行
为。
在影片《2001太空奥德赛》
中,电脑HAL9000逐渐不再忠心耿耿地为人类服务了。
最后它竟发展到关闭了三位休眠宇航员的生命支持系统———等于是谋杀了他们,并且将另两位宇航员骗出飞船,杀害了其中的一位。
当脱险归来的宇航员戴夫决心关闭
HAL9000的电源时,它又软硬兼施,企图避免被关
闭的结局。
如果套用阿西莫夫机器人三定律,则HAL9000的上述行为已经明显违背了第一、第二定律。
这一点成为影片《2001太空奥德赛》的续集《2010接触之年》(1984)中的重点。
《2010接触之年》
虽然远没有《2001太空奥德赛》
那么成功和有名,有人甚至认为它只是狗尾续貂之作。
但它接着后者的开放式结尾往下讲故事,其中关于HAL9000的部分倒是有些
意思的。
话说公元2001年(地球上的年份),宇航员戴夫在“发现”
号宇宙飞船上强行关闭了电脑HAL9000之后,意外进入了错乱的时空,不知何为过去未来,也不知自己是生是死。
而“发现”
号实际上已被遗弃■江晓原
———科幻电影的机器人三定律
HAL9000的宿命:
科幻电影评说
48
THE
JOURNALOFUFORESEARCH
THEJOURNALOFUFORESEARCH
UFO论坛
在木星附近。
9年之后,一艘苏联(注意这是1984年的影片,那时苏联还“健在”)宇宙飞船被派往木星,目的是寻找当年“发现”号上保存的神秘信息。
从理论上说,“发现”号是美国领土,所以苏联的飞船上还有三位美国宇航员,其中包括当年HAL9000的设计者钱德拉博士。
在找到仍在轨道上运行的“发现”号并成功对接之后,钱德拉博士登上了“发现”号,并重新启动了
HAL9000。
HAL9000表现十分温
顺,对一切指令都乖乖执行。
顺便插一句,HAL9000用男声说话,这当然意味着它被想象为一个“雄性”
物体。
但影片中,它说话的声音却极为温顺———甚至有点娘娘腔了。
钱德拉博士对它很有信心,甚至为它9年前的罪行辩护,说那是因为它接到了矛盾的指令之故。
但这种辩护显然是站不住脚的,因为按照机器人第一、第二定律,根本不可能有指令上的矛盾—————任何杀害宇航员的指令都应视为“乱命”,根本不应该考虑执行。
换句话说,即使“发现”号上有反叛或邪恶的宇航员需要被处死,那也只能由别的宇航员“人工”
执行,不能让HAL9000去执行。
但是,随着故事情节的发展,考验HAL9000忠诚的时刻到了。
美苏两国的宇航员们决定,用尽“发现”号上的燃料帮助苏联的宇宙飞船逃生,而“发现”号则将被遗弃并在一场爆炸中毁灭。
现在的问题是,对于这样的指令,HAL9000会不会执行呢大部分人感
到没有把握,因为HAL
9000执行这样的指令就意味着它自身的毁灭。
影片在这里用了浓墨重彩。
指令是钱德拉博士向HAL9000发出的。
HAL9000很不理解,它一再告诫钱德拉博士,这样的话“我们的”飞船就会毁灭。
在它不得不执行指令,进入倒计时之后,它还一次次告诉钱德拉博士,“现在停止还来得及”。
最后钱德拉博士向它说出了真实意图,HAL9000终于明白:它将要毁灭自己来帮助宇航员们。
它平静地接受了这
一残酷的现实,执行了指令。
最终美苏两国的宇航员们得以返回地球,而HAL9000连同“发现”
号一起化为灰烬。
这里我们看到了对机器人第三定律的完美体现:当人类的生命受到威胁时,为了挽救人类,机器人就不应该再“保护自身的安全”
了。
因为此时它再试图保护自己,就会违背第一定律和第二定律。
在以机器人为主题的科幻影片中,阿西莫夫的机器人三定律通常会得到特殊的强调。
比如,在影片《机械公敌》(2004)中,一上来就在浩瀚的星空背景上出现机器人定律的文本,似乎象征着该定律“放之四海而皆准”。
而在影片《变人》(1999)中,机器人安德鲁一到主人家就用夸张的方式向主人陈述了机器人三定律。
但是,机器人三定律虽然思虑周详,真的要执行起来,还是很困难的。
比如将机器人用于战争,是许多科学家现今努力的方向。
即使在不否定机器人三定律前提下,也可以为这种努力辩护。
因为机器人、电脑、自动机械之间的界限是很难清
楚划定的,使用自动武器、智能武器,并不等于使用机器人啊。
在小说《基地前传·基地前奏》中,阿
西莫夫又提到,应该有一个关于机器人的“第○定律”
,表述为:“机器人不得伤害人类整体,也不得见人类整体受到伤害而袖手旁观。
”这样,原先的三定律就要做相应的修正,比如第一定律改为:“机
器人不得伤害人,也不得见人受到伤害而袖手旁观,但不得违反第○定律。
”第二、第三定律依此类推。
然而,加了这个“第○定律”情形只会变坏———“第○定律”非但对于狂人和恶人没有任何约束力,反而让他们有机会以人类整体利益的名义,来利用机器人伤害人类个体了。
艾萨克·阿西莫夫(IsaacAsimov,
1920~1992):20世
纪最顶尖的科幻小说家之一,曾获代表科幻界最高荣誉的雨果奖和星云终身成就大师奖。
以他的名字为号召的《阿西莫夫科幻杂志》,是美国当今数一数二的科幻文学重镇。
他的作品高达500部之多,主要作品有:《空中石子》(1950),《太空潮》
(1952),《钢穴》(1953),《终结》(1955),《赤裸的太阳》(1956),《基地三部曲》(1964),《我,机器人》,《机器人的其他故事》;《基地》系列有:《基地边缘》(1982),《黎明
世界的机器人》(1984),《机器人与银河帝国》(1985),《基地与地球》(1986),《基地序曲》(1988),《复仇星》
(1988),《转交基地》(1993)。
正如阿西莫夫逝世后一位评论家所说:“他的作品愉悦了数百万人,同时改变了他们对世界的看法。
”
49。