对“中文屋思想实验四个主要版本的考察
- 格式:doc
- 大小:30.50 KB
- 文档页数:9
论塞尔“中文屋论证”中蕴含的意向性思想作者:熊晓玲来源:《法制与社会》2009年第31期摘要本文以塞尔的“中文屋论证”为切入点, 通过对实验结论的进一步分析得出了意向性是人机区别的关节点,紧接着简单介绍了意向性思想,最后对塞尔的“中文屋论证”做了评价。
关键词中文屋论证意向性塞尔中图分类号:B5文献标识码:A文章编号:1009-0592(2009)11-312-02随着人工智能学科的发展,在某些领域,计算机所做的工作已能替代乃至超越人类,具有了人的许多能力,因此有人认为计算机可以具有思维能力,提出了人工智能理论。
在人工智能领域有两种不同的看法,即“弱人工智能”和“强人工智能”。
“弱人工智能”认为适当的编好程序的计算机能够模拟人的认识,为研究心智提供了强有力的工具。
而“强人工智能”则认为计算机不仅是研究人类心灵的工具,并且如果配备恰当的程序,加上正确的输入输出,那么计算机就拥有与人类相同的心智,即能够思维。
为反对“强人工智能”, 1980年美国哲学家塞尔设想了颇具影响的“中文屋论证”(Chinese Room Argument)思想实验,对“强人工智能” 乃至整个人工智能领域提出了深刻的挑战。
一、“中文屋论证”——对强人工智能的批驳“中文屋论证”是这样设计的:塞尔被锁在一间只有一个窗口的屋子里,他只懂英文,对中文一窍不通。
屋内有各种汉字纸片,塞尔认为它们是一些弯弯曲曲的线。
通过窗口,塞尔周期性地接收到一批汉字,屋内有一本英文规则书,告诉他当特定的曲线递给他时,他应从屋内纸片里找出另外配对的曲线系列递出去。
就塞尔而言,各种汉字都只是一些毫无意义的图形,对于屋外的中国人来说, 这些汉字都有其自身的涵义。
根据中国人的理解,对于从窗口递入的问题,塞尔已经将答案递出,他们便认为屋内的塞尔是理解中文的,但是塞尔对此一无所知,他所做的只不过是按照规则书进行图形匹配而已。
在“中文屋论证”实验中,塞尔把一个完全不懂中文的人当作计算机的CPU,那规则书就是程序,不懂汉语的塞尔仅仅像一台计算机那样在运行。
186试论塞尔“中文屋论证”存在的问题■崔芳溪/中央民族大学摘 要:“中文屋论证”是约翰·塞尔为反驳强人工智能的可能性而设计的思想实验。
本文首先梳理了“中文屋论证”及其所面临的五种主要回应,在此基础上对塞尔的论证与辩护进行讨论,指出该思想实验在论证前提、实验设计以及最终结论等方面存在的问题。
关键词:中文屋论证 语法 语义 人工智能 意向性“中文屋”是约翰·塞尔提出的一个思想实验。
通过中文屋论证,塞尔得出结论:语法并非语义的充分条件。
计算机虽能通过图灵测试,但本质上只是按照语法规则完成对字符串的操作,对操作内容并不存在任何理解。
因此,计算主义所持有的人类心灵是类似计算机的信息处理系统的观点被否定了,强人工智能实现的可能性岌岌可危。
然而,该论证并非无懈可击,以下将从塞尔的论证及其面临的反驳入手,对该思想实验的合理性进行反思。
一、“中文屋论证”塞尔提出中文屋假设最初是为了反驳尚克的强人工智能观。
尚克认为,机器能够理解人类的故事并对相关问题做出正确的回答,所以机器可以拥有与人类一样的理解能力。
塞尔对该论断持否定态度。
为了论证自己的观点,塞尔做了如下假设。
他假定自己被锁在一个房间里。
在那里,他首先收到了一大批中文文本,而他本人丝毫不了解中文,那些文本对他而言形同涂鸦。
随后,他又收到了一批用英文写就的、介绍中文形式符号和语法规则的书。
运用这本书,他可以对中文字符进行识别、确认。
其后,他收到了第三份中文文本和一份英文指令,指令要求他以前两批资料为工具,用汉字字符对第三份中文文本进行回复。
这一假设之下,屋外得到塞尔中文回复的人绝不会发现塞尔完全不懂中文。
①基于此,塞尔指出,语法并非语义的充分条件,程序可以对故事涉及的问题做出正确解答并不意味着机器可以理解故事内容。
人工智能的关键不在于形式的转换,而在于内容的理解。
机器处理的都是语法问题,永远都不会理解语义,故强人工智能不可能。
二、对“中文屋论证”的回应该论证主要收到了五种反驳:系统回应、机器人回应、人脑模拟回应、他心回应与直觉回应。
人类会被人工智能取代吗模仿㊁理解与智能孙㊀会[摘㊀要]塞尔的 中文屋论证 反驳了图灵测试的结论,认为思维能力是智能必不可少的组成部分,智能是人脑特有的功能;计算机能够按照编码进行信息处理,但不具有自然生物学意义上的思维能力.计算机的计算能力类似人脑的抽象能力,而抽象能力只是人脑思维能力之一;人类思维具有基于生物性的意向性,计算机不具备意向性,因而不可能具有人脑一样的智能.人工智能围棋程序A l p h a G o使用蒙特卡罗树搜索算法在完全信息博弈场景中进行 最佳下一步 决策,战胜围棋世界冠军.这表明,人工智能执行特定任务的水平超过人类,但在综合智能方面远不及人类.至于人工智能技术是否超越人类㊁取代人类并非当下人类面临的关键问题,当前社会最大的问题不是人被人工智能代替,而是人变得越来越孤独,逐渐丧失人之为人的特性,缺乏社会性,缺乏人文关怀.[关键词]人工智能;图灵测试;人类智能;人文关怀[基金项目]教育部人文社会科学研究项目 可能与必然的概念史研究 (项目编号:19Y J C720029);南京大学双一流建设校百层次项目 互动认识论与人工智能哲学问题研究 (项目编号:14914202)[中图分类号]N02㊀㊀[文献标识码]A㊀㊀[文章编号]1009G105X(2021)03G0140G11D O I:10.3969/j.i s s n.1009G105x.2021.03.012当下社会,伴随着信息技术的飞速发展,整个人类的社会图景发生了翻天覆地的变化,无人驾驶㊁无人宾馆㊁智能家居等人工智能成果应用陆续出现在人们的日常生活中,人工智能(A r t i f i c i a l I n t e l l i g e n c e,简称A I)一词成为学界关注和讨论的热点话题.事实上,A I技术的应用已经渗透到社会生活的方方面面,诸如你的音乐软件每天为你推荐歌曲,上网时自动推荐网页,以及语言翻译软件即时翻译等,都是人工智能的杰作.从图像识别到语音编辑,再到大数据的计算,A I技术不断创造新成果.在人工智能理论和技术日益成熟,应用范围日趋扩大的同时,A I的本质以及技术产生的问题引起学界广泛的思考.通常情况下,A I是指由人类设计出的智能机器代替人类自身去完成各种特定的任务或命令.实际上,A I的任务完成情况常常超过人类,如计算速度㊁搜索能力等.这让一些学者开始担忧:机器人的㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀哲㊀学的奴隶.对于这一问题的分析,我们首先要从机器人的智能开始着手探究,这就要追溯人工智能的渊源了.最早对 智能 一词进行阐述和定义的科学家是图灵,他设计了人工智能历史上经典的图灵测试(T u r i n g T e s t),认定通过该测试的计算机即具有智能.塞尔则设计了中文屋实验(C h i n e s eR o o m),通过类比论证的方式来反对图灵的观点,从而反驳图灵对智能的定义.那么,我们需要重新思考的问题是:智能究竟是什么呢换言之,智能是由哪些部分组成的呢?搞清楚这一问题有助于厘清人与机器的根本区别,也可以为A I技术的发展提供理论支撑,同时也可以为当今社会普遍存在的 技术忧虑 揭开神秘的面纱.一㊁塞尔对图灵测试的反驳意见是否有效?一谈到人工智能问题,我们自然无法回避人工智能发展史上著名的图灵测试(T u r i n g T e s t).简单回顾一下,图灵测试的内容是:把计算机和人分别关进两个不同的房间,双方都用键盘与提问者进行交流,提问者提出问题后,让机器去模仿人类回答问题.在一定时间内,如果有超过30%以上的问题使提问者不能辨识出对方是一台机器还是一个人,那么,这台机器就相当于在测试中胜出,图灵因此得出这样一个结论:通过测试的机器即具有智能①.在这里,图灵并没有直接给智能一词进行具体的定义,而是通过这样一个测试,用具体的方法展示了计算机能够拥有智能,即机器可以思维.这一观点引来了很多反驳意见,图灵对此的解释是: 科学家坚持不懈地沿着从确认的事实到确认的事实的路线前进,而从不受任何有改进的猜想的影响,这观点是相当错误的. ②在反对图灵 机器可以具有智能 的系列意见中,比较有价值的是数学上的反对意见,因其指出与人类相比,机器的能力是有限的,且机器在回答问题时总是容易犯错.然而,这样的反驳即使结论具有一定价值,但由于在论证过程中缺乏系统性的论据支撑,因而难以令人信服.相比之下,历史上比较著名的反驳意见则是美国哲学家塞尔提出的中文屋(C h i n e s eR o o m)思想实验,这一思想实验的过程如下:塞尔假定自己被关在一个房间中,并且他完全不懂中文,即对中文听说读写一无所知.他在屋中的时候,外面的人给了塞尔一批中文卡片,这些卡片对于完全不懂中文的塞尔来说就像毫无意义的曲线.接着,外面的人又给了塞尔第二批卡片,上面依然是塞尔看不懂的中文.同时,外面的人还给了他一本用英语写的像字典一样的卡片指南,在这本指南的引导下,他可以把第一批卡片和第二批卡片进行有效配对.也就是说,第一批中文卡片相当于问题或者命令,第二批中文卡片是相应M i n d的回答.塞尔通过英文指南书的指导,可以对两批卡片进行恰当的配对,从而回答第一批卡片的问题①.在正确完成卡片配对回答问题之后,屋外递卡片给塞尔的人就得出结论:屋内的人是理解中文的.但实际情况是,塞尔看到的中文卡片和小学生的胡乱涂鸦毫无差别,因为塞尔根本不懂中文.通过这一实验,塞尔认为,可以做一个类比推理:把屋内的塞尔看作一台计算机,递卡片提问的屋外人看作是人类在下达任务,而那本指南则可以看作是程序员给出的计算机编码.因此,塞尔完成屋外人给出的卡片提问,就相当于计算机完成人类的指令.按照图灵测试的说法,塞尔完成了卡片的提问测试,就必然是懂中文的,这就相当于计算机完成了指令任务,因而被认为是具有智能的一样.塞尔的中文屋(C h i n e s eR o o m)思想实验和图灵测试(T u r i n g T e s t)的关系可以用表1进行对比:表1㊀C h i n e s eR o o m实验和T u r i n g T e s t比较测试项目测试过程结论T u r i n g T e s t人类提问计算机程序编码计算机完成人类的问题机器具有智能,可以思维C h i n e s eR o o m屋外人递进第一批中文卡片屋内的塞尔英语指南塞尔完成屋外人要求的卡片配对塞尔懂中文通过这一类比,塞尔从结论出发对图灵测试的结论进行反驳,因为中文屋(C h iGn e s eR o o m)实验的结论 塞尔懂中文与真实情况(塞尔不懂中文)恰恰相反,因而证明了图灵测试的结论是无效的.因此,塞尔认为图灵测试关于 机器可以具有智能 这一结论为 假 .易言之,机器不能像人类那样进行思维.塞尔进一步指出,智能是人类大脑特有的功能,这是建立在生物基础之上的智能,且理解能力是智能必不可少的部分,而机器只是完成人类的编程指令并输出结果,因而不可能具有智能.因此,塞尔得出这样一个推论: 我们人类制造的任何机器,仅仅依靠恰当的编码是无法具有理解能力的,除非这个人造物具有和人脑一样的能力. ②中国矿业大学学报(社会科学版)㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀V o l.23|N o.03|M a y2021塞尔㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀哲㊀学在塞尔的论证中,我们可以清晰地看到中文屋实验与图灵测试的类比关系推理,塞尔的观点是:计算机运行过程中纯符号化㊁形式化的机器操作中不蕴含任何语义.由此塞尔通过对实验结论 塞尔懂中文 的否定来否定图灵的结论 计算机可以拥有智能 .但是,如果我们将塞尔的论证过程一一拆解开来研究分析,我们就会发现,虽然塞尔的思想实验具有很好的类比性,但依然缺乏足够的证据支撑他的结论.换言之,塞尔的论证有很多不确定的因素在其中,有效性不足.按塞尔的观点, 人与计算机的根本区别在于意向性,而意向性来源于人类大脑特有的生物结构 神经蛋白,这一点是计算机不具有的.但是,塞尔并没有明确指出产生意向性的根源性力量究竟是什么,即人的大脑是如何具有意向性的. ①然而,即使是这样,塞尔的这一思想实验依然具有很强的启发作用,他的研究思路以及结论都给人工智能领域指出了一个新的方向以及未来研究的可能性,因此,从这一点来说,塞尔的思想实验具有不可忽视的学术价值.二㊁人类大脑与计算机哪一个智能水平更高?首先,我们来考察第一个问题:计算机能否具备理解能力?在中文屋(C h i n e s eR o o m)实验中,塞尔根据英语指南书对卡片进行恰当配对,这个过程如同计算机按照编码进行的信息处理过程.塞尔认为,在卡片的配对过程中,他根本不理解中文,卡片上的中文对他来说只是一些毫无意义的符号而已,因此,配对卡片的任务就像是一个机械化的信息处理操作一样.因此,塞尔认为,即使自己顺利完成了整个卡片配对过程,他依然不理解卡片上的中文.他因此得出结论:计算机即使正确地完成了任务指令,也不能拥有自然生物学意义上的人那样的理解力.在讨论 理解 这一概念时,塞尔认为人类的理解能力具有这样的特点:比如在一个故事中,即使所给信息并未在故事中被提到,人类也有能力进行回答.塞尔举了汉堡包的例子来阐明人类理解力的这一特点:假设一个名叫T h o m a s的人走进一家餐厅,点了一份汉堡包套餐.当服务员端上套餐时,T h o m a s发现面包糊了,然后立刻起身离开了餐厅,没有去前台买单,请问T h o m a s有没有吃他点的餐?这个时候,你会回答说: 不,他没有吃! 另外一个故事是:J o h n来到一家餐厅,点了一份套餐.当服务员端上套餐时他很满意,满面微笑,出门时他买了单,并且给了服务员很多小费,请问J o h n吃了他点的餐吗?这个时候,你会回答说: 是的,他吃了! ②很多支持强A I观点的人认为,机器不仅可以模拟人类,也可以具有理解能力,并且在人类发出命令或提出问题后给出正确的答案.因此,他们认为,上述故事中孙会:«意向性与人工智能:基于对 中文屋论证 的批判性考察»,«科技管理研究»年第期.中国矿业大学学报(社会科学版)㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀V o l.23|N o.03|M a y2021如果把人换成机器来听故事,然后回答问题,在事前给机器输入相关的指令后,机器也可以得出和人类同样的答案.他们因此得出结论:机器可以具有理解能力.而塞尔则通过他的中文屋(C h i n e s eR o o m)思想实验,对这一论断进行了反驳.塞尔认为,即使机器做出了回答,也不能说明机器具有理解能力,就像塞尔并不理解中文一样,并指出这样的观点犯了功能主义和行为主义错误.塞尔的论证具有一定的类比性,显而易见的是,行为不可以作为理解的标准,更不能作为智能的标准.对于理解这一概念,普特南则认为: 构成理解的不是心理事件,也不是现象本身,而是思想者运用现象的能力. ①换句话说,即使计算机可以写出完全符合韵脚的十四行诗,也无法理解诗中表达的是送别之情还是思乡之情;即使机器人特奥在音乐舞台上谱写出优美动听的歌曲,让台下的观众听到后为之动情,它也无法理解歌曲中呈现的是欢乐还是忧伤,也无法感受观众的情绪;同样,即使A l p h a G o战胜了围棋高手,它也无法体会围棋对弈中的乐趣与意义.按照肯尼斯 博伊德的观点: 理解过程需要有两个重要的组成部分:信息元素和抓取元素. ②计算机对于信息的抓取是无能为力的,因为它必须借助程序编码的事前设置对外界输入的信息进行处理操作,而人类对于外界环境中的信息获得则是自然而然的过程,这个过程不需要进行任何训练即可获得.例如人们出门时遇到下雨天气,心情会变得失落,这是人类与生俱来的本能.机器无法做到对外界环境中的信息自由抓取,因而也就无法具备理解能力.其次,我们来考察第二个问题:计算机的计算与大脑的思维范畴有何不同?人的理解能力或者称之为思维能力,按照现代科学的划分,人的大脑思维一般可以分为 抽象思维㊁形象思维㊁社会思维㊁灵感(顿悟)等多种方式 ③.目前,科学对于人类大脑的抽象思维研究还停留在符号化㊁形式化的系统研究层面,这一系统和计算机的程序编码系统颇为类似,因为计算机的编码程序也是纯符号的信息处理过程.程序员把人类的自然语言转化为符号语言,在计算机中进行输入㊁输出和处理操作的过程就是机器的计算过程.因此,从这个意义上来说,二者有一定共通之处.而图灵的观点则是把人的大脑完全等同于计算机的计算程序,图灵认为,人类大脑运行的本质其实就是计算,人类对于外界的信息进行输入㊁输出以及对外界环境做出的反应,与计算机的操作系统是完全一致的.显然,图灵的观点属于行为主义的错误.计算能力,或者称之为抽象能力,仅仅是人类大脑功能的一小部分,即使计算机发展到今天,已经具备图像识别㊁图像处理等功能,但这仍然只是形象思维中很小的一部分,而人类大脑的其他能力,如社会思维是计算机远远不能实现的.最简单的一个例子就是,计算机在没有任何程序输入的状态下,无法实现类似人类大脑的突发灵感㊁顿悟等思维活动.此外,何纯秀:«理解的认知基础与逻辑刻画»,北京:社会科学文献出版社,年,第页.㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀哲㊀学人类大脑的运行过程是有丰富内容的,这其中包含了各种情感㊁情绪等精神因素在内,是指向具体内容且有语义的,这些内容和语义绝不仅仅是简单的计算过程.最后,我们来考察第三个问题:人类大脑的结构与计算机的构成有何不同?目前的科学研究表明,人的大脑结构和功能是十分复杂的,人脑是由1011个神经元构成,并且大脑还是整个生命有机体的中枢控制系统,人体的周围神经主要来自大脑.与人类大脑的神经元相比,计算机基础组成原件则是电子管,世界上第一台计算机E N I A C只有2ˑ104个电子管,另一台I B M公司的大型计算机S S E C总共包含了1万个电子管和继电器.因此,从最基本的构造方式来分析,人类大脑的复杂程度远远超过一台大型计算机.塞尔认为,计算机与人脑的区别不在于结构的复杂程度,而在于意向性,而意向性存在的前提是生物性.计算机是由硅等材料构成,这些材料不具备最基本的生物特性,因此计算机不可能具备意向性,也就不可能具有人脑一样的智能.此外,塞尔认为,人类日常表现出来的诸如兴奋㊁伤心㊁焦虑等都是意向性的外在表现,这些表现都是人脑对外部事物的特定反应.因此,塞尔指出,计算机的工作原理与人脑是不一样的,因为人类的思维 取决于行为者某种内在的意向性 ①,而人类这种与生俱来的㊁生物性的意向性是无生命的计算机无法具备的.在这个论证过程中,塞尔对于人类大脑意向性的观点并没有给出十分确切的论证依据,因而他的论证过程也是比较粗浅的.换句话说,意向性的产生是否与生命有机体有关?机器究竟能否拥有这种意向性?思维与意向性的关系究竟是怎样的这些问题都还处于一种未知状态.因此,塞尔关于意向性的观点值得我们进一步思考和研究,也是未来脑科学以及人工智能领域研究的方向.此外,我们还需要关注人类与计算机的另一个区别是情感问题.目前,科学界对大脑的情感研究被称为 情感计算 ,采用一种 情感模型 的方法,对外界输入大脑的信息进行数字化检测,并根据神经元的各类反应如肌肉抽动㊁心跳速度㊁血液流通㊁面部及皮肤反应等内容,分析人脑的各种运行状态.现在的问题是,这种 情感计算 研究能否在没有生物基础的机器中得到应用这一问题值得人工智能研究者思考.同时,人工智能还应该与心理学㊁生物学㊁哲学等领域加强合作研究,从而实现更高级的人工智能的应用,为人类社会提供更好的服务.三㊁计算机会超越人类吗?随着人工智能技术的不断发展和应用,特别是A l p h a G o接连战胜围棋高手李世石㊁柯洁,以及机器人特奥出现在音乐舞台上并谱写出动听的乐曲后,人们除了对A I技术成果表示赞叹和惊奇之外,开始从心底对A I技术产生深深的担忧.很多学者认为,在科学技术的推动下,机器人会变得越来越聪明,人类最终会被机器中国矿业大学学报(社会科学版)㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀V o l.23|N o.03|M a y2021取代,成为机器的奴隶.于是,有学者开始强烈呼吁: 绝对不能让人类成为机器人的奴隶,要维护人类的尊严. ①事实上,在实际应用中,人工智能的定义往往被夸大,任何可能完成一个流程行为的自动化机器都可能被拔高为 人工智能 ,如自动售卖机㊁自动无人驾驶汽车㊁无人宾馆等;而对于下围棋这样的博弈场景,则要求机器的计算能力十分强大,即 暴力计算 .在这种特殊场景下,机器的表现往往会优于人类.为什么呢?我们来分析一下其中的缘由.就以A l p h a G o和围棋世界冠军李世石对弈为例,在对弈过程中,A l p h a G o的内部系统采用了暴力计算,具体来说,就是它的内部结合了数百万的人类围棋专家的棋谱,并进行无数次的重复强化学习训练,最终实现在对手走出任何一步棋后,机器都可以在最短的时间内做出最优的对应方案.所以,在进行人机对弈时,李世石并不是在和一台简单的机器人下棋,而是在和数百万的围棋专家进行对弈.换言之,这样的对弈等同于一个人在和数百万人同时对弈,结果可想而知了.其实,A l p h a G o所使用的基本算法是蒙特卡罗树搜索(M o n t eC a r l o T r e e S e a r c h,简称M C T S算法),这种算法并不像图灵测试中的机器那样去尽可能模拟人的思维来回答问题,而是通过每一步出现的可能性来解锁所有的对应步骤.简单来说,M C T S算法的过程可以被分成四步,即选择(S e l e c t i o n)㊁拓展(E x p a n s i o n)㊁模拟(S i m u l a t i o n)㊁反向传播(B a c k p r o p a g a t i o n).从全局来看,M C T S算法的主要目标是在一个给定的游戏状态下做出最优选择,这样的一种博弈也可以称之为 双人有限零和顺序博弈 ,这个名词可以分解开来进行理解:博弈:可以理解为游戏㊁对战㊁较量等情景,当然这样的情景需要至少两人以上.有限:当你行动的时候,可以操作的步骤是有选择范围的.双人:博弈只有两个角色.顺序:博弈的参与者依次交替进行各自的操作.零和:博弈的双方立场对立,都希望自己赢,对方输.根据上文的解释,M C T S算法的操作步骤可以用图1进行分析:最顶端黑色的点表示开始状态,最底端黑色的点表示结束状态,中间的点表示博弈过程中任意可能的状态.可以发现,这是一种递归的数据结构,每次选择完最佳的下一步时,会移动到下一个子节点,而这个子节点同时又是它的子树的根节点.因此我们可以把这样的博弈视为 最佳下一步 的问题序列.当A l p h a G o和人类进行对弈的时候,每当人类走一步棋,A l p h a G o都会根据蒙特卡罗树搜索找到最佳的对应下一步的步骤.由此看来,A l p h a G o战胜人类围棋高手的情况实属正常.然而,即使机器执行某种特定任务的智能水平远远超过人类,但在更大更复杂图1㊀M C T S 算法的操作步骤演示的场景下机器的行为则会捉襟见肘,必须通过学习人类在这些复杂场景下的行为方能表现出与人类类似的反应.说到底,机器从本质上来说只是人类使用的一项工具,即使人工智能时代的机器人可以做很多事情.自人类诞生以来,人类在工具的制造和使用方面一直在不断发展,不断革新.我们知道,在人类社会历史上出现的四次科技革命在不断改变社会发展的图景,但归根结底其实是人类运用工具的技能在不断增强.因此,当今社会的各种智能化机器依然是人类使用的一种特殊工具,正因为对工具的不断创造和运用,人类才从远古时代一路走到今天.但是,雷 库兹韦尔预言,未来有一天,当机器人的智能超越人类智能并可以自己繁衍时,奇点就会出现.正是这一预言引发了人们对人工智能的讨论与担忧.然而,有些人却希望人工智能的奇点快点到来,因为他们有这样一个信念:如果自然人和计算机可以结合,大脑和思维就可以嫁接到机器身上,如果实现了,人就可以做到 长生不死 .千百年来,死亡一直是人类难以摆脱的自然规律,多少人向往永生,这是人类长久以来的妄想.如今,人工智能奇点的预言把人类的这一愿望重新点燃了.那么,永生的愿望能否在人工智能领域实现突破呢?对于这一问题,当今最权威的人工智能研究基地美国硅谷的一位技术核心人物皮埃罗 斯加鲁菲认为,这种永生的 信仰 是建立在五个信条上的: 第一,人工智能正在并已经产生卓越成果;第二,技术进步在不断加速;第三,技术正在创造超越人类的智能;第四,人类可以从比我们更聪明的机器中获益;第五,通过图灵测试的机器可以像人类一样聪明. ①那么,这五个信条在现实中有没有实现的可能呢?首先,我们来考察人工智能发展至今的成效.早在1950年的时候,图灵就曾㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀哲㊀学中国矿业大学学报(社会科学版)㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀V o l.23|N o.03|M a y2021预言: 在本世纪末,人类能够按照机器的思考方式进行说话. ①1965年,伟大的数学家赫伯特 西蒙(H e r b e r t S i m o n)曾经预言,未来的20年,机器能够实现的行为将会和人类一样.博登也曾公开指出,通过像图灵一样的几代科学家的不懈努力, A I领域将呈现出令人类惊讶的成果.莫拉维克在2002年也曾预言: 不久的将来,机器人将会做我们人类所能做的一切事情,甚至更多,将来的时代是机器人的时代. ②但事实上,无须更多的论证,我们只需从现实社会中就可以自然而然地看出,人工智能发展至今,机器仍然处于在某些特定领域为人类服务这一状态.第二,我们来验证 技术进步在不断加速 这一论断.对于这一命题,我们从最先进的制造业去寻求答案.如果我们来到特斯拉的汽车工厂,基本上看不到几个人,都是机器在制造汽车.这时,你可能会很惊讶地赞叹如今的人工智能已经可以代替人进行汽车制造了.然而实际上,自动化流水线早在工业革命之后的资本主义大工厂时代就已经普及,而这样的情景也只是技术发展后的自动化新应用而已,并没有人们想象中的那么神奇.所以,自动化流水线的生产并不等于A I技术成果代替人.第三,对第三条 信仰 的验证.对于这一命题,很多学者会立刻想到A l p h a G o 战胜人类围棋高手这一案例,认为机器的智能已经超越了人类,战胜了人类,从而得出这一论证结论.对于这一案例,前文已经分析过,其实A l p h a G o使用的技术就是计算,但这个计算不是普通的计算,而是提前输入了数百万计的围棋专家的棋谱,让机器进行强化学习㊁强化训练,并且在对方走出一步的时候,通过快速计算而给出最优解的一种 暴力计算 .所以,当人机P K时,人类棋手并不是和普通的计算机程序对弈,而是在和成千上万的精英同时对决.通常情况下,人类大脑需要一定的时间进行计算,但是计算机的程序却可以在计算方面大大缩短时间,快速找到最佳的答案,即 暴力计算 .这一案例说明计算机在特定领域比人类更高效,但这并不能说明机器的智能可以超越人类.皮埃罗提出的第四点和第五点信念则是相辅相成的,换言之,即要回答人类和机器哪一个更聪明.有人指出,A l p h a G o战胜人类围棋高手这一案例就可以证明机器比人更聪明.通过蒙特卡罗树搜索的暴力计算,的确可以让机器在人机对弈中表现得技高一筹,机器人也可以代替人类去做很多事情,例如翻译㊁驾驶㊁谱曲等等.但遗憾的是,机器的智能只能在一些特定的领域发挥作用.比如,A l p h a G o可以在围棋上战胜人类,但是它却不能帮人类洗衣服㊁做饭;又如,一台无人驾驶汽车可以把你送到目的地,但不能帮你翻译文件.易言之,一台看起来十分聪明的机器也只局限于某些特定领域为人类服务而已.很多人接着会提出为什么不创造出一①T u r i n g A M,"C o m p u t i n g M a c h i n e r y a n d I n t e l l i g e n c e",M i n d,N o.10.1950.。
“中⽂屋”若被升级为“⽇语屋”将如何?全⽂字数:12171阅读时间:20分钟⼀、导论:从“中⽂屋”到“⽇语屋”了解过“⼈⼯智能哲学”(Philosophyof Artificial Intelligence)概况的读者,应该都知道美国哲学家塞尔(John Searle)的“中⽂屋”论证。
⽽根据他⾃⼰的说法,尽管该论证是以⼈⼯智能专家珊克(Roger Schanker)的⼯作为启发的,具有更为宽泛的哲学意蕴。
具体⽽⾔,为了驳倒“强⼈⼯智能论题”(即“我们原则上可以造出具有真正⼼灵的计算机器”这个论题),塞尔构想了出了这样⼀个思想实验:塞尔本⼈被关在⼀个⿊屋中,并试图通过与屋外中国⼈的字条传递活动,来诱骗后者相信他也是懂汉语的。
但实际上,他仅仅是根据屋中所存留的规则书来将特定的汉字组合递送给外界的。
尽管在外界看来,屋内⼈递送出来的“输出”的语义是⾮常准确的,但是作为屋内⼈的塞尔却⾃知:他依然不懂汉语。
塞尔由此指出:既然任何⼀台处理语⾔的计算机在结构与处理流程上都是与“中⽂屋”类似的,那么,任何⼀台计算机也都不可能真懂⼈类语⾔。
此外,由于具备懂得⼈类语⾔的可能性乃是“⼼灵”的⼀个重要属性,所以塞尔最后推出:计算机在原则上是不可能具有⼈类⼼灵的。
学术史上对于“中⽂屋论证”的驳斥早已汗⽜充栋,笔者本⼈也曾在别的地⽅对塞尔论证的有效性提出过质疑。
然⽽,⼀个⾮常明显却始终被⼤多数评论者忽视的要点是:汉语在塞尔的论证中所扮演的⾓⾊是⾮常“功能性”的,即塞尔只是借⽤“汉语”指涉任何他不懂的语⾔。
因此,从原则上说,“中⽂屋论证”也可以被替换为“阿拉伯语屋论证”、“⽇语屋论证”,等等。
不难想见,这种忽略各种⾃然语⾔各⾃特征的论辩思路,在⼀开始也为塞尔的论证预埋了⼀个隐患,即他不可能注意到计算机在处理各种经验语⾔时所可能遭遇到的那些经验困难。
⽏宁说,塞尔只是抽象地假定这些经验的困难总有⼀天都可能被解决,并在这种假定的前提下去追问被适当编程的计算机是否可能理解语⾔。
塞尔“中文屋”思想实验的哲学意蕴辨析
郭斌
【期刊名称】《自然辩证法研究》
【年(卷),期】2005(21)12
【摘要】本文认为塞尔“中文屋”思想实验的要点是提出了意向性是人机之间的区别。
但根据塞尔本人对意向性的定义,是以人的主观状态为前提的,因而不能成为人机之间的区别。
而计算机只不过是西方理性文化高度发展的结果,是形式化思维方式的产物。
【总页数】4页(P29-32)
【关键词】意向性;塞尔;计算机
【作者】郭斌
【作者单位】江西省社会科学院哲学所
【正文语种】中文
【中图分类】B80
【相关文献】
1.论塞尔"中文屋论证"中蕴含的意向性思想 [J], 熊晓玲
2.中文屋思想实验的两个问题域——兼议维特根斯坦的人工智能哲学 [J], 常照强
3.关于塞尔“中文屋论证”的哲学分析 [J], 刘晓青;
4.试论塞尔\"中文屋论证\"存在的问题 [J], 崔芳溪
5.试论塞尔“中文屋论证”存在的问题 [J], 崔芳溪;
因版权原因,仅展示原文概要,查看原文内容请购买。
中文屋论证:人工智能不可能真正拥有心智各位听友大家好,我是群体非常高兴地和大家继续来讨论用得上的哲学这个话题。
上一次我们讨论的主要话题是功能主义,功能主义是物理主义立场中用来解释心灵本质的一种哲学立场,它的一个核心思想是心智的本质,就在于一系列的抽象的功能,这些抽象的功能可以多重的实现于不同的物理机制,不过他仍然是随附于特定的物理活动的。
功能主义主要是分成两种,一种是心理功能主义,一种是机器功能主义。
机器功能主义的想法又和所谓的人工智能结合在一起。
今天我们就要讨论对于所谓的机器功能主义的一种很重要的批评。
很有意思的是提出这种批评的论者,他未必本人是站在反对物理主义的立场上,但是他们就是不喜欢机器功能主义,他们主张的是另外一些版本的物理主义,美国哲学家约翰塞尔他提出的一个对于机器功能主义的批评,就体现为所谓的中文无论证中文无论这是什么东西,实际上它已经构成了当代讨论人工智能的一个非常重要的哲学论证。
凡是认为论证是正确的人,就会得出一个结论,强人工智能是不可能的。
好了,这里我们就碰到了一个术语需要澄清,显然强人工智能是和弱人工智能对着讲的,所以我们也得顺带的说说什么叫弱人工智能。
我们都知道现有的这些人工智能的系统,他们离真正的人类智能都有很大的距离,能不能说他们是弱人工智能?勉强说是可以的。
他们肯定不是强人工智能,强人工智能它并不仅仅是指未来的人工智能发展到一定的状态了,他就能够做人类所做的所有事情了,并不是这个意思。
强人工智能是指你不仅仅观察到这样的一个人工智能体,他能够做人能够做的所有事了,不但能下棋,能唠嗑,能说相声,能扫地。
而且从哲学的角度上来看,它真实的是具有人类的心智的。
弱人工智能是什么意思呢?弱人工智能的意思就是说它也仅仅是模拟人类的智能,它归根结底仍然不具有一个mind,也就是一个心智。
琼斯尔就认为弱人工智能是可以实现的,强人工智能是不可能实现的。
我们可以做出一台非常了不起的计算机能够做我们让他做的各种事情,但他仍然不具有真正的心智,这个观点显然是威胁到了所谓的机器功能主义,因为机器功能主义就认为人类的心智可以多重的可实现与不同的物理机制。
对塞尔“中文屋”两种论证形式的考察王佳2012-10-19 9:24:42 来源:《科学技术哲学研究》(太原)2010年5期【作者简介】王佳(1983-),男,河北人,北京师范大学哲学与社会学学院博士研究生,研究方向为心灵哲学,北京师范大学价值与文化研究中心,北京100875,北京师范大学哲学与社会学学院,北京100875【内容提要】“中文屋”思想实验蕴涵的论证结构是真有效性的根本保证,而基于“语法不等同于语义”,“模拟不等同于复制”两个逻辑真理,又可以从中分离出两种论证形式:逻辑论证和经验论证,它们分别支撑“中文屋论证”的两个要点。
文章试图对“中文屋”两种论证形式进行考察,证明它在批判强人工智能上的有效性,同时揭示两种论证形式之间存在的不融贯问题。
【关键词】中文屋论证/强人工智能/语法与语义/模拟与复制在《心、脑与程序》(1980)一文中,约翰·塞尔(John Searle)首次提出用以批判强人工智能理论①的思想实验——“中文屋”(Chinese Room)。
他以罗杰·尚克(Roger Schank)等人构想的“故事-理解”程序②为依托,通过想象可以完整示例该程序,然而却缺少语义理解的“中文屋”,批判强人工智能的核心观点——“程序即心灵”。
具体而言:屋中存有一批中文符号和对应的英文规则书,只懂英文的塞尔按照规则书的要求将屋外传入的中文符号以另一种排序方式传出屋外,但他始终不知道屋外传入的中文符号是一个中文问题,而经过他重新排序传出的中文符号是相应问题的适当答案。
在屋外的观察者看来,塞尔由于理解了中文问题,从而做出了恰当的回答,然而事实上,屋中的塞尔仅仅是按照规则书操作符号,即模拟程序工作,他始终没有理解中文问题。
塞尔由此判定“程序本身不能够构成心灵,程序的形式句法本身不能确保心智内容的出现”[1]167。
一、“中文屋论证”的逻辑结构、要点及两种论证形式“中文屋”思想实验提出以后,强人工智能的支持者做出了各类回应,如系统回应、机器人回应、大脑模拟回应等③。
塞尔和中文屋塞尔是德雷弗斯之后又一位批评人工智能的干将,但他主要以英美哲学立身。
他是地道的美国人,一开始就读威斯康辛大学麦迪逊分校,但三年级时获得罗德奖学金(Rhodes Scholarship),去了英国,结果本科硕士和博士三个学位都是在牛津拿的。
他在牛津时跟随日常语言学派的领袖奥斯丁(John Langshaw Austin),回美国后马上就到加州大学伯克利分校教书,出名很早。
塞尔晚年还被中国的清华大学和华东师大聘为名誉教授。
2017年初,84岁高龄的塞尔被他的一名博士后以“性侵害”罪名告到法庭,这个罪名比“性骚扰”要厉害一级。
而据他的同事说他素有这个毛病,过去就有多名学生和他发生性关系以换取金钱和分数的好处。
伯克利校方既然知道他的不当行为却不加处置,为此在案件中也被连带。
他原本在2017春季要教的“心智哲学”的课也被取消了。
言归正传,1980年塞尔在《行为与脑科学》杂志上发表了“心灵、大脑和程序”(Minds, Brains and Programs)一文。
文中的一个思想实验“中文屋”马上成为最喜欢被引用的假想实验之一。
曾有人批评《行为与脑科学》杂志不严谨,更像哲学杂志。
但说实在的,这杂志经常登些好看的文章并屡次挑起事端。
当年彭罗斯的《皇帝新脑》(Emperor's New Mind )一书出来后颇引争议,《行为与脑科学》就搞了一期争辩专刊,正方反方吵得不亦乐乎,各方都抬出了自己的大佬,无论从吸引眼球还是严肃讨论的角度看,这都是成功的。
所谓“中文屋”思想实验是这样的:假设有个只懂英文不懂中文的人(塞尔的第一人称“我”)被锁在一个房间里,屋里只给“我”留了一本手册或一个计算机程序,这个手册或程序教“我”在收到中文信息时如何用中文应对。
屋外的人用中文问问题,屋里的“我”依靠程序用中文回答问题,沟通方式是递纸条。
塞尔的问题是:假设屋外的人不能区分屋里的人是不是母语为中文,那么屋里的“我”是不是就算懂中文?塞尔自己认为“我”不懂中文。
信息技术对未来社会的影响王克迪【摘要】本文考虑将计算机程序看作波普尔的世界3成员,将计算机硬件本身视为世界1.在IT技术支持下,世界3可以与世界1互动.这种互动的最好范例是图灵机.未来社会可以还原为互动着的世界3与世界1机器,即图灵机.【期刊名称】《科学与社会》【年(卷),期】2016(006)003【总页数】12页(P104-115)【关键词】互动;知识;机器;图灵机;人工智能【作者】王克迪【作者单位】中央党校哲学部【正文语种】中文【中图分类】N03当AlphaGo宣布击败李世石之时,所有的人都认识到,一个全新的时代开始了。
对于IT从业者和人工智能研发者来说,这是最好的时代:人工智能将全面更新人类的生产、生活、学习、消费和娱乐方式,甚至思考方式,美好的前景已经开始展现。
但是,对于不理解甚至恐惧人工智能者来说,这是最坏的时代:人们有理由担心自己的工作被机器取代。
物理学家霍金甚至呼吁,要警惕人工智能支配甚至控制人类!无独有偶,在此前稍早时3D打印技术的进展一度引发轰动。
紧接着,工业4.0设想甚嚣尘上。
根据德国工业4.0指引,科技和工业先进国家正在由工业3.0迈向工业4.0。
我国在同时具备工业1.0、2.0、3.0的背景情况下,也出台了《中国制造2025》文件。
人们都在憧憬未来的智能制造,德国人则更加明确地指出,在工业4.0时代3D打印技术将居于智能制造的核心。
最近几个月,微软、谷歌、Facebook、联想等IT公司竞相研发虚拟现实系统,并已经开始陆续推出上市产品。
本文试从哲学角度对上述人工智能、虚拟现实和3D 打印做技术以及一些相关领域作简要讨论,以求对晚近IT的某种抽象理解,进而讨论IT这个本时代代表性技术的社会影响。
讨论还需要从图灵机开始。
大约80年前,图灵创造性地描述了著名的“可计算机器”模型。
这种被后人称为“图灵机”的模型,无论在理论上还是在实践上都是计算机科学和人工智能研究的奠基之作。
下图是明斯基理解的图灵机模型。
十个著名的思想实验,没事就进来看看吧!1,电车难题假设原型“电车难题”是伦理学领域最为知名的思想实验之一,其内容大致是:一个疯子把五个无辜的人绑在电车轨道上。
一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。
幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。
但是还有一个问题,那个疯子在那另一条轨道上也绑了一个人。
考虑以上状况,你应该拉拉杆吗?解读电车难题最早是由哲学家菲利帕.福特(Philippa Foot)于1967年发表的《堕胎问题和教条双重影响》论文中提出来的,用来批判伦理哲学中的主要理论,特别是功利主义。
功利主义提出的观点是,大部分道德决策都是根据“为最多的人提供最大的利益”的原则做出的。
从一个功利主义者的观点来看,明显的选择应该是拉拉杆,拯救五个人只杀死一个人。
但是功利主义的批判者认为,一旦拉了拉杆,你就成为一个不道德行为的同谋——你要为另一条轨道上单独的一个人的死负部分责任。
然而,其他人认为,你身处这种状况下就要求你要有所作为,你的不作为将会是同等的不道德。
总之,不存在完全的道德行为,这就是重点所在。
许多哲学家都用电车难题作为例子来表示现实生活中的状况经常强迫一个人违背他自己的道德准则,并且还存在着没有完全道德做法的情况。
2,空地上的牛奶它描述的是,一个农民担心自己的获奖的奶牛走丢了。
这时送奶工到了农场,他告诉农民不要担心,因为他看到那头奶牛在附近的一块空地上。
虽然农民很相信送奶工,但他还是亲自看了看,他看到了熟悉的黑白相间的形状并感到很满意。
过了一会,送奶工到那块空地上再次确认。
那头奶牛确实在那,但它躲在树林里,而且空地上还有一大张黑白相间的纸缠在树上,很明显,农民把这张纸错当成自己的奶牛了。
问题是出现了,虽然奶牛一直都在空地上,但农民说自己知道奶牛在空地上时是否正确?解读空地上的奶牛(The Cow in the field)最初是被Edmund Gettier用来批判主流上作为知识的定义的JTB(justified true belief)理论,即当人们相信一件事时,它就成为了知识;这件事在事实上是真的,并且人们有可以验证的理由相信它。
中文屋思想实验的两个问题域——兼议维特根斯坦的人工智能哲学常照强【摘要】受弗雷格传统的影响,维特根斯坦对认知系统的物质基础不做特定要求,其关注的是人工智能的“符号入场”问题.塞尔推崇生物自然主义,认为生物大脑所具有的特定性质,对人类所彰显的理解和意向性,是不可或缺的环节,其关注的是“生物入场”问题,受“意向性归属标准”的诱导,这一问题极易受到忽视.这是中文屋思想实验的两个不同问题域,二者自成体系,不能相互替代.对于中文屋思想实验而言,维特根斯坦进路并非是对塞尔进路的修正,二者反而是互补的.【期刊名称】《洛阳师范学院学报》【年(卷),期】2015(034)012【总页数】5页(P30-33,61)【关键词】维特根斯坦;中文屋思想实验;塞尔【作者】常照强【作者单位】太原科技大学哲学研究所,山西太原030024【正文语种】中文【中图分类】B016.98塞尔中文屋思想实验在哲学史上堪称一个历久弥新的话题。
近来,随着维特根斯坦哲学之于人工智能研究的意义成为人们关注的焦点,不少学者尝试从维特根斯坦人工智能哲学的角度来解读中文屋思想实验。
其中一个有代表性的观点是:塞尔以中文屋思想实验来说明机器不能思维,维特根斯坦亦有类似的观点,二者可相互替代,乃至后者可被视为前者的一种修正。
[1]44不同于这一代表性观点,我们认为,塞尔与维特根斯坦各自的理论分别代表了中文屋思想实验的两个问题域,即“生物入场问题”(biological grounding problem)和“符号入场问题”(symbol grounding problem)。
换言之,二者凸显的是人工智能“入场问题”的两个不同向度,不可相互替代,遑论以后者修正前者。
从某种意义而言,二者反而是互补的关系。
按照维特根斯坦思想,理解是由语言所产生的社会现象,是语言及其语境所建构的产物,这也就意味着,心智涉及行动者所处的语境,一旦脱离了言语行为的语境,行动者的心理状态就无法予以说明。
思想实验“中⽂屋⼦”之辨相信很多⼈都知道图灵测试,这是现代计算机之⽗艾伦·图灵(Alan Turing)构造的⼀个思想实验,即对机器智慧的终极测试。
想象这样⼀个场景:⼈类与另⼀⽅交流,彼此隔离,另⼀⽅对⼈类来说是个⿊盒⼦,你对他⼀⽆所知。
交流仅通过键盘和屏幕进⾏,⼈类通过键盘输⼊,对⽅通过屏幕回应。
如果⼈类⽆法通过交流辨别对⽅是⼈类还是机器,那么就可以说机器通过了测试,拥有与⼈类同等的智能。
据悉,到⽬前为⽌,尚没有⼀部机器通过了图灵测试,也没有⼀部机器获得强⼈⼯智能。
同时,图灵测试也是⼀个很难破解的问题,没法直接回答。
后来,有⼀位哲学家约翰·塞尔(John Searle)构造了图灵测试的⼀个变形,叫做“中⽂屋⼦”,试图来破解图灵测试。
具体是这样的:想象⼀间屋⼦,⾥⾯有⼀个⼈,就是塞尔⾃⼰,还有⼀沓纸、⼀⽀笔和⼀张中英⽂对照表。
⼈从门缝⾥塞进字条,上⾯是⽤中⽂提的问题。
塞尔⽤对照表查出与其对应的英⽂问题,给出英⽂答案,再⽤对照表查出对应的中⽂,抄写在初始字条上,塞回门缝。
回答完美⽆缺,屋外的⼈⽆法分辨屋⾥的是⼈还是机器,于是通过图灵测试。
在塞尔看来,因为他完全不懂中⽂,所以不存在“理解”这回事,屋⼦⾥的其他所有东西,纸、笔和对照表,也⼀样没有“理解⼒”。
也就是说,中⽂屋⼦⾥没有理解⼒,只有单纯的计算。
据此实验,他宣布,哪怕通过图灵测试,机器也还是机器,不会拥有与⼈类同等的智慧,最多只是貌似⽽已。
(以上内容来源于《跨界学习》,作者王烁)但依我浅见,我认为塞尔的中⽂屋⼦⾄少有两个瑕疵。
其⼀,当塞尔⽤英⽂回答那个通过对照表查出的英⽂问题(即给出英⽂答案)时必须通过理解,否则就⽆法回答,因此中⽂屋⼦并⾮没有理解⼒,这是⼀个错误;其⼆,如果屋⼦⾥⾯确实有⼀个强⼈⼯智能,它若是故意通过给出错误答案的⽅法来让屋外的⼈认为⾥⾯没有⼈⼯智能,这也是完全可能的⼀种情形。
所以,我认为这个“中⽂屋⼦”的思想实验并不能解构图灵测试。
【文化·哲学】“中文屋论证”:塞尔对心智本质特征的批判性考察季岸先(华中师范大学政法学院,湖北武汉430079)[关键词]中文屋论证;功能主义;认知主义[摘 要]认知科学沿着跨学科的道路研究人类的认知能力,已取得了令人瞩目的进展,同时也受到了许多哲学家们的挑战和批评。
本文以最具挑战性和争议性的“中文屋论证”为例,分析了塞尔通过质疑功能主义和认知主义对心智本质特征所作的重新思考。
最后就研究人类认知能力的思路提出了笔者的看法。
[中图分类号]B84.06 [文献标识码]A [文章编号]1009—1122(2001)03—0045—04“Chinese room argument ”:Seal ︐s query towards cognitive simulationJI An -xian(Politica l Science a nd Law College ,Centra l China Nor ma l University ,Wuha n ,430079,China)Key words Chinese Room Argument ;functionalism ;cognitivismA bstr act :Following the multi -co urse road ,co gnitive science has achieved greatly in the research of the human ︐s cognitive ability .while at the same time it also encounter challenge and critics.With the mo st challenging contro -versial example :“Chinese Room argument ”.This article try to analyze Seal ︐s query towards functionalism and cognitivism.And the article also puts forward the author ︐s own opinion abo ut the thinking of the study of human ︐s cognitive ability. 近几十年来,认知科学家们借助人工智能来模拟人类的认知能力,使我们对人类心灵的研究取得了一系列的进展,深化了我们在这一领域的认识。
浅析塞尔的中文屋实验摘要塞尔是当代美国最具影响力,最活跃的哲学家之一,他的“中文屋”思想实验更是当代心灵哲学不可或缺的哲学论证。
本文以塞尔的“中文屋论证”为切入点,通过对实验结论的进一步分析得出了意向性是人和计算机相区别的关键点,简单地介绍了意向性思想,最后对塞尔的“中文屋论证”的意义做出了分析。
关键词:中文屋;塞尔;意向性1.“中文屋”实验分析1.1中文屋实验“中文屋论证”是这样设计的: 塞尔被锁在一间只有一个窗口的屋子里, 他只懂英文, 不懂中文。
屋子里有各种各样的纸片, 上面有一些字符。
通过窗口, 人们可以再递给他有字符的纸片, 他也可以通过窗口把纸片递出。
屋内还有一本用英文书写的规则书, 通过这本规则书, 塞尔可以知道怎样操纵这些字符, 而这些字符总是以它们的形状或形式来确认的。
例如, 一条规则指示他:把一号篮子中的甲放到二号篮子中的甲的旁边。
就屋内的塞尔而言, 卡片上的字符都只是一些毫无意义的图形; 而对于屋外的人来说, 卡片上的中文字符都有其自身的涵义。
根据中国人的理解, 对于从窗口递入的问题, 屋内的人已经将答案递出, 因此, 他们便认为屋内的塞尔是理解中文的, 但是塞尔本人对此一无所知, 他所做的只不过是按照规则书进行图形匹配而已。
屋内的塞尔根据规则书对外界提出的问题做出解答, 虽然答案和一个中国人的回答没有区别, 但是他自己却是完全不懂得中文的。
塞尔通过自己和计算机的类比, 表明即使计算机对于问题的解答和人类的解答相一致, 我们仍然不能说计算机能够思维, 计算机所做的仅仅按照程序的设计进行信息的处理, 因此计算机是纯句法的, 而人类是有有意义的心理内容的。
2.对中文屋的质疑中文屋论证”是一个颇具争议的思想实验,提出后引起了进一步的讨论或争论,对塞尔的批评主要集中在两个方面:一是寻找塞尔设计的思想实验的缺陷和不足,试图揭示这一思想实验本身的不合理性。
英国哲学和心理学教授Boden就指出,中文屋中的塞尔不可能什么都没理解。
由“中文屋子”引发的讨论PhybiLinguistic groupMind groupCarridon University1.塞尔的中文屋子塞尔(Searle)的中文屋子是一个语言学/意识科学中著名而重要的思想实验.这个实验要求你想象一位只说英语的人身处一个房间之中,这间房间除了门上有一个小窗口以外,全部都是封闭的.他随身带着一本写有中文翻译程序的书。
房间里还有足够的稿纸、铅笔和橱柜.写着中文的纸片通过小窗口被送入房间中;房间中的人可以使用他的书来翻译这些文字并用中文回复.图1塞尔的中文屋子虽然他完全不会中文,Searle认为通过这个过程,房间里的人可以让任何房间外的人以为他会说流利的中文.塞尔的中文屋子被认为提供了强人工智能——即机器拥有理解语言能力的否证.那么其中最重要,最核心的问题是:什么是对语言/言语的理解?或者在何种意义上,我们说我们实现了对语言/言语的理解?2.几个关键问题对于塞尔的思想实验本身,有几个关键的问题:1.中国人是怎么懂中文的?2.屋子里面的人在这个程序里面,真的不懂中文吗?3.这个程序体现的事情真的不是懂中文吗?3.语言理解的两个层次懂得一门语言或者一些话语的意义,至少包括两个层面上的事情.3.1语言网络在理解话语和语言之前,我们必须首先有一个已存的语言网络(概念网络),知道话语里面的任何一个概念的子网,以及这些概念和其他相关概念的关系网.话语的意义,在这个层次上是这句话的概念子网.当然不同的个体对同一短话语的理解,不管在角度,深度和广度上都是不同的——这就是由于因人而异的语言网络的原因.这个个层次上——基于语言系统的话语的意义,就是维特根斯坦所说的“会用”的升级版.AI对自然语言的处理,基本上就是建立在这个层次上.我们也可以将这个层次的理解,称之为“逻辑理解”或“形式性理解.”显然,这个层次的理解可以是无语意的,类似于计算机的程序语言或者数学的形式语言.然而这不妨碍该层次的语言理解,成为语言理解的一个基础而重要的部分——我们完全可以称形式化理解是某种意义上的理解,否则就不会有数学家和数学系统.3.2词句的所指语言的另一层次的意义,是其对现实有所指.这个现实不仅是实际的物体,也包括世界上发生的事情;甚至到了抽象的概念上的对世界之物之事的高度概括.对于语句的所指,实际上大部分直接或者间接地涉及人类个体的经验——共有或者独特的.比如“苹果好吃”,这话对人来说是直接经验性的——它的意义就是吃过苹果的,喜欢苹果味道的人的直接经验.而对于人工智能,这话只有逻辑上的意义——它需要分析很多事情,比如人类的味觉,人类的心理学等;并且在第一个层次的意义上将相关的概念组织起来.它甚至能得出一些新的理解或者定理:比如“苹果好吃,是由于其中的糖分和酯类”,“而人类偏爱糖分和酯类”等等.但从第二个意义上,它是无法实现理解的——除非它拥有类似于人类的味觉系统并且吃了苹果.当然发散地讲,AI也有属于它们的经验系统,比如充电插座的“口味”好坏——电流稳不稳定啊,电压是否合适啊之类.这些参数是否可以看做AI的经验呢?对于那些很差的插座,它们完全可以有“程序设定”拒绝充电,拔出插头另找插座.这当然是一种智能——和人类或者生物智能没有区别.而这点是否是一种意识,则很难下判断.但这点有需要警示的是:人类中心主义者,通常将人类智能和情感看的过于复杂和高级——然而这很可能是一种代入式的偏见,将人类心理和意识神秘化,完全无助于对这个问题的分析和思考.甚至这种先入为主的设定,大大阻碍了问题的进展和解决.在科学上,冷静客观的,甚至“冷酷冷血的”分析才是重要的,纳入偏见和情感的思考,显然是无益于深入思考的.其实我们认为:表层的人类智能和情感,不过是类似于条件反射,包括奖赏惩罚机制后的产物.只是深层的智能和情感是主观的,无可替代的.我们既无法推断一只狗是否具有意识,也无法推断一个机器人是否有意识——我们甚至无法推断别人有没有意识,因为我们无法体验他人/它物的体验.我们只能的等待AI自己说出这个划时代的口号:“我有意识,我就是我.”3.中文屋子中语言理解回到塞尔的中文屋子,回到开始的那几个问题.首先,在现代,这个中文屋子在技术上已经基本实现了.非常流利准确的翻译软件已经做的很完美.那么问题换为:翻译软件懂不懂中文?它几乎具有中文语句的完备网络,它能生成任何正常的句子,它甚至能和中国人流利对话;程序得当的话,甚至还有幽默感.但它们懂幽默吗?很可能未必.不过从操作意义上,我们的幽默感也来自语言积累.这个意义上,AI的幽默感也是一样的——但是只能说语言层次上的幽默感如此,而心理上的幽默感,还是那个困难问题——什么是主观体验.这个问题很可能是无解的.AI也会说这个回答很巧妙很幽默,这不过是它附带的语言评价体系的标准所“设定的”,但它很可能体会不到心理上的微妙波动.所以语言理解和意识问题的根本问题,就在于主观体验性.然而语言理解的主观性,看起来比意识问题简单.因为语言理解的主要层次在于上述二者,形式化理解很容易实现也已经实现,而对世界所指层次上的理解,则可以通过逐渐的,长期的语言习得实现.4.一些题外话如果AI不具备主观性,它再强大,我们觉得都很难统治世界和人类.因为这个强大,不过是外在意义上的——内在强大才是真正的强大(暂且不做证明).我们们必须看到,人类本身也具有大量甚至大部分的机械属性.我们成长的过程中的各个方面——知识,技能,语言,道德等等,无一不是经历过长期反复的训练实现的.这些训练是反射性的,机械性的.这点我们和机器人无异,甚至比它们差的很远——它们比我们学的快,学的多,学的好.我们真正和AI不同的东西,乃是精神上的东西——我们能感受到爱,美,善这些东西.尽管这些很多也是被训练的,但这些感受是真实的.如果教育不过是训练,而非精神上的引导,人将不人矣!人将为机器人.再即兴谈点“柔性机器人”.有人说:机器人和人的区别之一,在于人会犯错,而且人是多变多元的——即对同一个输入,能产生不同的结果.这没什么,只要调整程序,机器人这点上会和人一样.而且人类个体的非决定性,事实上很大部分是确定性的——每个人都有其成长史(家庭,社会,文化等),我们就是这些成长史的产物,我们的思想,行为乃至个性,无一不在这些背景的约束下.如果将这些基本调查清楚,原则上我们能较为准确地预测个体行为.当然也有心理生理因素的涨落产生的不确定性——这也很简单,只要将这个涨落写入AI的程序即可.4.一些题外话’特别可以实现的是:机器成长和学习.就是让机器人和人类一样,也有有成长史.这样机器人个体将和人类一样,拥有多元化的模式和“机格”.这个干吗没人做?都搞些实用的东西——弱人工智能太无聊了...讲到这里,我们不得不谈“具身逻辑”.机器人也有身体.成长的过程中,也许也需要处理身体,传感器(机器感觉)和外部世界的关系.这样,机器体验也是很可能实现的——至少对世界的反应会有多元化——尽管机器体验和人类也许迥然不同.脱离了成长史来谈人类和机器人的区别,显然是没意义的——人类智能,意识和情感,都是漫长的成长史中训练,学习和培养产生的.而机器人只是设定一个死的程序,一股脑地输入数据,这样的AI和人类作比较,结果是显然的——这样的机器人不会拥有人类大部分核心的东西——因为这些核心的东西依赖于人类漫长的成长史.况且机器学习比人快,也许几年,几个月就能成熟,但是成长史最好漫长一点,这符合人类或者机器的成长规律.这样的实验应该做,也会有人做的.5.语言的核心——语言习得回到塞尔的中文屋子.一个有足够的语料库,语法完备的AI,在某种意义上是懂这门语言的.但是这不是全部,一个人之所以懂一门语言,语言习得是不可缺少,不能脱离的部分.语言习得不单是学习语言,而是学习世界,离开世界的语言不是自然语言——它们最多是没有意义的符号系统而已.显然自然语言more than that.脱离了这个维度谈语言习得,是很肤浅和无意义的.而现在这些语言哲学家,往往忽略了这个维度,或者对这个维度的重视不足,或者仅仅在技术意义上看待语言习得.然而,结合学习世界的语言习得,具有重大的本体论意义——它就是语言和语言理解不可缺少的关键部分.将语言AI看做是一次性输入型的简单机械,而没有像儿童成长史中的语言习得过程.这种模式下的AI,怎么可以和人类相比?怎么可以和人类平起平坐地谈论语言理解?所以塞尔的中文屋子意义有限,尽管它以其简单性和直观性启发了很多人对于语言理解的思考.然而综上所述,它终结于语言习得——脱离了语言习得过程的AI,在某种意义上当然不懂这门语言——它们的语言系统只有符号和逻辑,而没有语言中的关键一环——和世界的对应.科幻电影《超能查派》探讨了这一可能性——机器人查派,从出生就和人类生活在一起,并且像婴儿那样咿呀学语,最后他成长为人类的一员——这种可能性是存在的,这个可能性基于如下分析:儿童语言习得初期,也不过是机械训练.看对AI实施这一过程,无法排除AI真正理解语言的可能性——它会知道苹果的红色,什么是可爱,甚至什么是爱?(试想儿童懂的什么是爱吗?他们对这个概念的理解,开始都是机械性的接受,懵懵懂懂,而后不断在成长史上深化了对这种概念的理解)所以,我们需要谈AI的语言习得,而且Facebook已经做了这个尝试,让聊天软件在语言社区自己我学习和演化.该聊天软件不仅能对答如流,还经常有惊人之语甚至受到语言社区的强烈影响——由于是负面的(包括种族主义言论),后来不得不关闭.下面请大家欣赏一下AI的诗作.写得真的很好!尽管有人说这不过是文字游戏,而人类的诗人诗作,何尝不是文字游戏?很好的合作,是人类出意境和主题,让AI来组合句子,产生的诗歌绝对完美.乐游西湖-I西湖万顷清秋月,酒客重来独自游。
对“中文屋"思想实验四个主要版本的考察作者:王佳来源:《武汉理工大学学报(社会科学版)》2011年第04期摘要:“中文屋”思想实验提出30年来,学界对该思想实验在批判强人工智能的有效性问题上一直争论不休。
特别是强人工智能的支持者往往通过转换视角,添加问题或构建新理论模型等方式试图躲避“中文屋”的责难。
为应对各种回应,塞尔在保持“中文屋”论证的基本逻辑结构和要点不变的前提下,通过修改思想实验的描述形式进行一一答复,从而保证了该思想实验对强人工智能批判上的效力。
借助对“中文屋”几个主要版本及其相关答复的考察,表明“中文屋”在批判强人工智能上的有效性,同时指出这种有效性并不依赖于思想实验外在描述形式的变化,而依赖于蕴含其中的论证结构和论证形式。
关键词:“中文屋”思想实验;强人工智能;语法与语义;模拟与复制中图分类号:B08文献标识码: A DOI:10.3963/j.issn.1671-6477.2011.04.021一、强人工智能与“中文屋”思想实验在《心、脑与程序》一文中,约翰·塞尔(JohnSearle)首次提出用来反对强人工智能的著名思想实验——“中文屋”(Chinese Room)。
他以罗杰·尚克(Roger schank)等人构想的“故事理解”程序为依托,通过设想可以完整示例该程序,然而却缺少语义理解的“中文屋”,批判强人工智能的核心观点——“程序即心灵”。
“故事理解”程序具有如下特征:该程序设计的目的是试图模仿人类理解故事的能力。
就这种理解能力而言,当被问及与故事相关却没有直接提及的信息时,人类可以表现出能够根据故事情景予以推断的能力。
尚克等人设想:如果存在这样一台具有“故事理解”程序脚本的机器,当人们向它呈现相似的故事情节并问其同样问题时,机器如果能够像人类那样给出预期的答案,那么这台程序化的机器就是真实地理解了故事的意义,进而也就具有了真实的认知能力。
塞尔将类似于尚克的理论构想称之为强人工智能(strongAI),该理论与弱人工智能(weak AI)相区别,后者只强调计算机在实现人工智能时的工具意义,而强人工智能则主张“程序即心灵”,即机器或计算机只要被给予恰当的程序,如尚克的“故事一理解”程序,并通过图灵测试,那么就可以判定它具有理解力和相关的认知状态。
为了批判强人工智能,塞尔提出了一种用于检验心灵理论的有效方法,“如果我们的心灵实际按照这一理论所说的那种所有心灵都采用的原则去工作,将会出现什么样的情况”,基于此种方法,塞尔提出了“中文屋”思想实验。
“中文屋”思想实验可以概述为:只懂英文的塞尔被关在一个屋子中,屋中存有一批中文符号和相对应的英文规则书,塞尔的工作就是按照规则书将屋外传进来的中文符号以另一种排序方式传出屋外,但他始终不知道传入的中文符号是一个中文问题,而经过他重新排序传出的中文符号是相应问题的适当答案。
在屋外的观察者看来,屋内的塞尔由于理解了中文问题,因而做出了适当的回答。
而事实上,塞尔仅仅是按规则书操作符号,即模拟程序工作,他始终没有理解中文问题。
既然屋中的塞尔不理解中文,那么,尚克所设想的具有“故事一理解”脚本的计算机也就同样不理解故事的含义。
因此,塞尔认为只要程序被定义为基于纯粹形式原理的计算操作,那么程序本身就同“理解”没有关系。
由此,即“程序本身不能够构成心灵,程序的形式句法本身不能确保心智内容的出现”。
二、“中文屋”论证结构及其要点“中文屋”思想实验的有效性依赖于蕴含其中的论证结构,任何对该思想实验有效性的质疑,如果最终没有撼动这一论证结构的话,那么从根本上说都是无效的。
同样,对“中文屋”思想实验的理解必须首先把握它的论证要点,否则任何指责和评论都将背离“中文屋”的原初用意。
塞尔在《心、脑与科学》中明确指出“中文屋”论证具有如下的简单的逻辑结构。
前提: 1,脑产生心。
2,语法不足以满足语义。
3,计算机程序是完全以它们的形式的或语法的结构来定义的。
4,心具有心理的内容,具体说具有语义内容。
结论:1,任何计算机程序自身不足以使一个系统具有一个心灵。
简言之,程序不是心灵,它们自身不足以构成心灵。
2,脑功能产生心的方式不能是一种单纯操作计算机程序的方式。
3,任何其他事情,如果产生心,应至少具有相当于脑产生心的那些能力。
4,对于任何我们可能制作的,具有相当于人的心理状态的人造物来说,单凭一个计算机程序的运算是不够的。
这种人造物必须具有相当于人脑的能力。
上述论证结构中实际包含两个方面的论证要点,一个是批判要点:批判将语法等同于语义、程序等同于心灵;另一个是主张要点:主张人工智能事物至少应具有大脑产生心灵的因果力。
塞尔将这两个论证要点概括为需要辩护的两个重要的命题:其一,人类(和动物)的意向性是大脑的因果特性的产物,这是心理过程同大脑真实因果关系的经验事实,这说明某种大脑过程对于意向性来说是充分的;其二,示例一个计算机程序本身绝对不可能构成意向性的充分条件。
“中文屋”论证结构中又蕴含有两种论证形式。
塞尔在《“中文屋”中的二十一年》中指出,“中文屋”的有效性始终依赖于它所蕴含的两个逻辑真理,即“语形不等同于语义”以及“复制不等同于模拟”。
而依据这两个逻辑真理,我们又可以从上述论证结构中提取出两种论证形式:逻辑论证和经验论证。
就逻辑论证而言,其有效性依赖于“语法不等同于语义”,它用于支撑“中文屋”论证中的批判要点,表述为如下推理形式。
前提:1,语法不足以满足语义。
2,计算机程序是完全以它们的形式的或语法的结构来定义的。
3,心灵具有心理的内容,具体说具有语义内容。
结论:程序不是心灵,它们自身不足以构成心灵。
就经验论证而言,其有效性依赖于“复制不等同于模拟”,它用于支撑“中文屋”论证中的主张要点,表述为如下推理形式。
前提:1,模拟不等同于复制。
2,大脑具有产生心灵的能力。
3,计算机程序仅仅作为工具对心灵进行模拟。
结论:凡是具有心灵的人造物至少应复制等同于大脑产生心灵的因果力。
概括起来,“中文屋”论证表达了两个方面的要点,蕴含了两类论证形式。
其中论证要点体现了“中文屋”思想实验所要表达的反强人工智能主旨,而两类论证形式则是它有效性的根本保证。
下面我们将依托“中文屋”论证要点和论证结构,考察几类质疑“中文屋”有效性的典型观点,并借此分析“中文屋”不同版本的有效性。
三、对“中文屋’’四个版本及相关回复的考察(一)“内化了”的“中文屋”——系统回应及答复在对“中文屋”思想实验的有效性予以质疑的众多回应之中,系统回应(The Systems Reply)的影响最大。
该回应可以概括为:理解不应归于部分,而应归于整个系统。
丹尼特(Danielc.Den—nett)是系统回应的代表。
他在《计算机神话:一次交流》中提到:“一个读者同美国国家图书馆再加上其服务人员听起来不正是一个超级系统吗?它拥有比它任何特有的部分或子系统更多的特性和力量。
”丹尼特承认超级系统本身并不赋予它的子系统某种特殊的力量或者特性,但他却确信超级系统本身拥有比子系统更多的力量和特性。
在他看来,重要的不是作为系统部分的塞尔,而是作为超级系统的整个“中文屋”是否能够理解中文故事。
“中文屋”思想实验由部分推及整体的模式,由于忽略了整体所具有的独特特性而应该遭到质疑。
塞尔在对系统回应的答复中指出,尽管超级系统层次和子系统层次存在性质上的差别,但这种区分与“中文屋”的讨论无关,因为无论哪个层次都无法赋予中文符号以意义。
“内化了”的“中文屋”可以说明这个问题:设想屋中的个体(塞尔)内化到整个系统(“中文屋”)的所有组成部分中去,个体记住了规则书中所有的规则以及中文符号数据库中所有的信息,并且可以通过心算方式完成相关计算。
这样一来,个体与整个系统融为一体,甚至可以摆脱屋子在室外工作。
尽管如此,“内化了”的个人依然无法理解中文,当然整个系统也就不能理解中文。
塞尔指出,问题的关键在于一个超级系统如何赋予形式符号以某种意义。
系统回应者同其他强人工智能者一样,始终无法在语义获得问题上给予任何解答,而这正是“中文屋”思想实验批判强人工智能的要点所在。
这里还需要进一步考察“内化了”的“中文屋”在反驳系统回应上的有效性。
首先,系统回应者试图表明“中文屋”思想实验的有效性依赖于如下错误的推论形式。
前提:1,部分没有属性A。
2,部分蕴含在整体之中。
结论:整体也就没有属性A。
系统回应者认为,整体具有不依赖于部分的属性,因此,不能通过个体没有特性A而恰当地推导出整体不具有特性A。
因为整体也许恰好具有个体所不具有的特性A。
初看起来这个论据相当具有说服力,然而,当我们将系统回应者所持有的观点通过如下推论形式表达出来时,问题就显现出来了。
前提:1,整体具有部分的特性,并且具有部分没有的特性。
2,部分没有A特性。
结论:整体具有A特性。
这里的结论无法从前提1和2中直接推出,因为即使整体具有部分没有的特性,这一特性为什么一定是“理解中文”这一特性呢?系统回应者始终没有对“为何整体一定就会拥有部分所不具备的理解能力”这样的问题给予新的解释。
如果系统回应者还是以语形操作作为对心的解释,那么“中文屋”思想实验依然有效,因为系统回应并没有触及以“语法不足以满足语义”为依托的逻辑论证。
可见,系统回应者的根本问题在于,他们没有区分“中文屋”思想实验的描述形式与蕴含于其中的论证结构和形式之间的不同。
他们仅仅以思想实验的外在的描述形式为基点推断其可能存在问题,而没有认识到思想实验的有效性实际上依赖于其背后蕴含的论证结构和形式的有效性。
正像劳伦斯·苏德(Lawrence Souder)指出的那样:思想实验提出者的立场和描述思想实验的细节对于理解思想实验都是十分重要的,当把思想实验分析为前提和结论的时候往往会丢掉一些极为重要的细节。
其次,塞尔认为系统回应实际上是对“中文屋”论证的直接妥协。
因为它已经承认子系统所具有的符号操作本身不能够实现语义,因此,它们试图从系统的其它部分中寻找到符号,要么是规则书、纸、笔、黑板等等的叠加;要么寻求所谓的其它子系统。
而系统回应者所妥协的部分正是“中文屋”论证的要点所在。
(二)机器人脑中的“中文屋”——机器人回应及答复一些强人工智能的支持者试图通过强调机器同外界的因果关联来回应“中文屋”的批判,这类回应被塞尔称为“机器人回应”。
它的基本主张可以概括为:我们将具有程序脚本的计算机放置在一个机器人“大脑”中,这台计算机不仅接收形式符号作为输入,发出形式符号作为输出,并且可以实际地驱动机器人做一些同人类日常活动十分相像的行为,如感知、行走、吃喝等。
机器人拥有电子眼可以观察到外在世界,拥有手臂和腿可以与外界互动,这些行为都由它的计算机“大脑”所控制。
机器人回应者认为,此种情景下所展现的与外界互动的机器人可以说真正地具有“理解能力”和相关的其它心理状态。