西尔勒提出了名为“中文屋子”的假想实验,模拟图灵测试,用以反驳强人工智能观点。主要说明某台计算机即使通过了图灵测试,能正确的回答问题,它对问题仍然没有任何理解,因此不具备真正的智能。
西尔勒假设:西尔勒博士(扮演计算机中的cpu)在一个封闭的房子里,有输入和输出缝隙与外部相通。输入的是中文问题,而他对中文一窍不通。房子内有一本英语的指令手册(相当于程序),从中可以找到相应的规则。他按照规则办事,把作为答案的中文符号写在纸(相当于存储器)上,并输出到屋子外面。这样,看起来他能处理输入的中文问题,并给出正确答案(如同一台计算机通过了图灵测试)。但是,他对那些问题毫无理解,不理解其中的任何一个词!
计算机程序与我们聊天,无非是用一系列复杂的计算过程,分析我们输入的文字,最终得出一个最佳的回复。如果我们给电脑讲了一个冷笑话,电脑程序将会对这则笑话进行断句分词,机械地在知识库中寻找相关的信息,得出“这是一个笑话”的结论,然后在屏幕上显示出一串“哈哈哈”,表示自己知道这是个笑话。
这算是智能吗?
这只是一种模拟智能vi而已,这并不是人工智能ai。
ai的产生并不是如同小说或者影视作品里面那么简单的。
事实上,ai才是一个最难实现的一个事情。
现在,让我们设想有一间屋子,屋子几乎是全封闭的,只有一个用来传递纸条的小窗口。屋子里面坐着一个完全不懂中文的“老外”,“老外”手中配备有铅笔、草稿纸、橡皮擦等各种工具,以及厚厚一叠汉语自动聊天器的程序源代码。现在,屋外的人在一张小纸条上用汉字写一段笑话,然后塞进屋子里。屋里的“老外”显然一个字都看不懂。但他可以用纸和笔替代计算机,在草稿纸上进行与程序内部一模一样的运算,模拟聊天程序的运行。经过几天甚至几个月的时间,“老外”终于完成了计算机本只需几秒便可计算完毕的任务,得出了“小纸条上写的是一则笑话”的结论,他应当以大笑声回应。于是,“老外”在纸条反面写上一个“哈哈哈”,把它从小窗口中递出。
这种说法显然是荒谬的。“老外”还是不懂这个笑话是什么意思,他只是一台人肉计算机罢了。
类似于人类的情感,计算机的判断,与人类本身还是有区别的。
无论是任何计算机,都不可能真正拥有“感情”。
他们的一切,都是冷冰冰的。
或许计算机会感到“愤怒”,但实际上,这是因为外界的环境要求他们做出“符合愤怒情绪的反应”而已。
当然,这或许也与微芯片的传输模式有关。
现有微芯片的数据传输模式是非常单一的——不是从左向右传就是从前向后传,逃不出一个二维平面。
即便是碳纳米管芯片,事实上却依然是一种和半导体没太大区别的玩意儿,唯一的不同在于碳纳米管芯片更加的稳定、省电。
只有真正的神经元,才能够如同生命一样进行思考。
但是,那是一种机械了吗?
那个时候,恐怕就已经脱离了机械的概念,进入了生物的领域了吧……
……
一直上不了,坑爹。
今天第二更,还有三更。rq!!!