但問題還不僅限于圖靈測試,按照這個實驗,一臺電腦和塞爾一樣,都是只能識別彎彎扭扭的“符號”,對這些漢字符號的意義一無所知。這也正是計算機程序的問題,不管它是硅基的還是塞爾基的。這等于是說有理解力的強AI根本不可能出現!
這個思想實驗看起來一目了然,完美符合直覺,而且很迎合了不少人的愿望——證明人類心智是獨一無二的天賜產物,人類造不出贗品來。不過話說在前頭,我(遵循丹尼爾·丹內特等人的觀點)認為它是錯的。
其實塞爾當初在伯克利講座上首次提出這個實驗的時候,就有聽眾反對說,鎖在屋子里的人可能不懂他在處理什么東西,但他只是整個系統的一部分啊,他還有規則書,有演算紙筆,有一堆漢字的數據庫,憑什么一定要他理解、而不能讓整個系統理解?
塞爾的回答是:
“這個想法認為雖然一個人不懂漢語,不知怎么的他和他的那一堆紙聯合起來就能懂漢語。如果一個人不是已經深陷意識形態之中,那他怎么會認為這想法可信,還真有點難以想象啊。”
也許吧,但是,真的只有“一堆紙”?
直覺泵的旋鈕
這種思想實驗——用丹內特的話說叫“直覺泵”——有個共同的問題。它的確給出了一個直覺的結論,但是這結論是來自一個完整的詳盡的思想實驗,而不像普通的邏輯推理那樣來自具體而明確的幾個前提。如果這個實驗的某個細節,某個你覺得無足輕重的細節,欺騙了你的直覺呢?
最有名的直覺泵大概是有軌電車問題(Trolley Problem),1967年由英國哲學家費麗帕·弗特提出。鐵軌上有五個小孩在玩,停用的岔軌上有一個小孩在玩,你要把車轉移到岔軌上壓死一個孩子救下五個嗎?這是一個非常典型的關于道德問題的直覺泵。但是千萬不要以為這實驗就能完整地代表你的道德立場——如果我換一個條件,那個岔軌沒有停用,也在正常 運行,只是這趟車正好不往那走呢?如果我再換一個條件,根本就沒有岔軌,那個小孩就在你身邊玩,你把他推下去就能讓車停下救另外五個小孩呢?如果那一個小孩是你的親人呢?如果根本沒有小孩、只有你自己決定是否要自己跳下去呢?
有軌電車問題已經成為了一個大領域,有無數的變體。
圖片來源:Workman Publishing
對待直覺泵,這正是丹內特的建議:研究它的細節,看看每個細節如果發生了改變會不會影響到最后產出的那個直覺。用他的話說,是“轉動直覺泵的旋鈕”。
回到中文屋子。塞爾說,他在手動模擬一個程序的運行——但是他沒有說他是在哪一個層級上模擬。如果外面的人輸入了一串中文,比如“你好啊”,屋子里的人在做什么?他是在做機器碼(將寄存器23945的內容加到寄存器93756上)?是在做源碼(定義常數p,令p=100)?是在做偽代碼(將句子拆分為名詞、動詞、代詞和修飾詞,判斷其是否為一個問題)?有沒有注釋可看?如果他在頂層,那么他會不會對自己在做什么有所理解?如果他只是底層的一個計算器,那他之上的繁復層級真的可以用“一堆紙”來輕描淡寫地概括嗎?
設想這樣一個問題:寫下一個英文大寫字母D,把它逆時針旋轉90度,然后把它放在一個英文大寫字母J的上面。請問這讓你想到了什么樣的天氣?
一個頂層的塞爾(或者干脆就是一個懂中文的塞爾)的腦海中會浮現出D躺在J上的這個形狀。一個底層的塞爾當然對此一無所知,但是他身為計算器所驅動 的那個中文屋子要怎么回答這個問題?如果這個中文屋真的通過了圖靈測試,它當然不會被這道題難倒——但是解這道題的唯一辦法,就是照著它的指示,把D躺 倒,放在J上,對比記憶庫,判斷出這個形狀最接近于雨傘,根據雨傘聯想到雨天。這是底層的塞爾所不知道但中文屋作為一個整體必須在它的“內存”中做的事 情。而這件事情和一個懂中文的塞爾解題時的所思所想又有何區別呢?
但是,如果簡單地用“一堆紙”這個人畜無害的詞,輕描淡寫地描述中文屋,你的直覺就被誤導了。如果一個中文屋真的完美通過了圖靈測試,真的和人無法 區分,它在和裁判對話時的“思維”狀態必須是和真人高度類似的。假如圖靈測試的裁判決定用蘇格拉底式方法(反詰法)教授對方量子物理學,那么一個底層的做算術的塞爾 當然不會因此學會量子物理——但是中文屋卻會(別忘了,它通過了圖靈測試——它能在智力行為上表現得和人無法區分)。這就像是給中文屋安裝了一個新程序, 能執行簡單的量子物理計算和模擬。在這種情況下,你還憑什么說,因為底層的人沒有理解,所以這間屋子也不能理解呢?
原文轉自:http://www.testwo.com/article/620