圖靈測試,測的到底是什么?

發表于:2016-03-23來源:軟件質量報道作者:Ent點擊數: 標簽:軟件測試基礎
這是一篇2014年6月10日發表在《科學人》的一篇文章,今天轉發給大家,也算是對昨天我的文章“如何測試人工智能軟件?”的補充閱讀。艾倫.圖靈是計算機先驅、人工智能之父,圖靈獎

  [這是一篇2014年6月10日發表在《科學人》的一篇文章,今天轉發給大家,也算是對昨天我的文章“如何測試人工智能軟件?”的補充閱讀。艾倫.圖靈是計算機先驅、人工智能之父,圖靈獎,被譽為計算機界的諾貝爾獎]

  2014年6月7日發生了一件事情:聊天程序“尤金·古斯特曼”(Eugene Goostman)在英國皇家學會舉行的2014圖靈測試大會上冒充一個13歲烏克蘭男孩而騙過了33%的評委,從而“通過”了圖靈測試

  尤金的在線對話頁面,不幸的是因為這一事件給服務器帶來的壓力,該網站已經幾天無法訪問了……

  但是,通過了測試又怎么樣呢?說明了什么問題呢?

  圖靈測試

  1950年,阿蘭·圖靈在那篇名垂青史的論文《計算機械與智力》的開篇說:“我建議大家考慮這個問題:‘機器能思考嗎?’”但是由于我們很難精確地定義思考,所以圖靈提出了他所謂的“模仿游戲”:

  一場正常的模仿游戲有ABC三人參與,A是男性,B是女性,兩人坐在房間里;C是房間外的裁判,他的任務是要判斷出這兩人誰是男性誰是女性。但是男方是帶著任務來的:他要欺騙裁判,讓裁判做出錯誤的判斷。

  那么,圖靈問:“如果一臺機器取代了這個游戲里的男方的地位,會發生什么?這臺機器騙過審問者的概率會比人類男女參加時更高嗎?這個問題取代了我們原本的問題:‘機器能否思考?’”而這,就是圖靈測試的本體。

  圖片來源:BBC

  ……等等,那現在這幫人在搞的圖靈測試又是什么啊。

  其實你可能已經注意到了圖靈的真正目的。不是說“思考”沒法定義嗎?沒關系,我們不去糾纏哲學,我們來制造一個可操作的標準。如果這臺機器“表現得”和一個思考的人類(人類是會思考的,對吧?)無法區分,那么我們就大可把它當做是在“思考”。

  當然,有些方面機器很難表現得和人類一樣,比如有血有肉——但是既然我們關注的是思考,那么就可以選擇一個有代表性的領域,圖靈選擇的就是“模仿游 戲”。在原論文中圖靈建議,要求也不必太高,假如能判對的裁判人數不到70%(我認為這個數字也只是他的隨口一說),那我們就可算是它成功了。

  而到了1952年,在一場BBC廣播中,圖靈談到了一個新的具體想法:讓計算機來冒充人。如果不足70%的人判對(也就是超過30%的裁判誤以為在和自己說話的是人而非計算機),那就算作成功了。

  可以看到,圖靈測試的核心其實不是“計算機能否和人對話”,而是“計算機能否在智力行為上表現得和人無法區分”。冒充異性和冒充人類都不過是特例而已。

  不過這個1952年版的圖靈測試在后世被發揚光大,成了今天我們所知的圖靈測試的唯一方法。這就帶來了一些問題。

  中文屋子

  圖靈測試自誕生以來產生了巨大的影響力,不光有支持,也少不得批評。其中最重要的批評之一,可能是1980年約翰·塞爾在《心智、大腦和程序》一文中提到的中文屋子思想實驗了。

  塞爾說,想象他鎖在一間屋子里,手動模擬一個巨大的AI程序,和外界進行中文的對話。這個程序據說是“懂中文”的——至少,能以中文通過圖靈測試。 屋子里除了一堆紙(塞爾的原話是“bits of paper”)上寫著運算的規則之外,別無他物。(好吧,為了人道起見也許應當添加基本的衛生設施……)

  圖片來源:rationallyspeaking.blogspot.com

  塞爾不懂中文,在屋子里擺弄符號顯然也無助于他習得中文,屋子里也沒有別的東西理解中文了。如果塞爾不“理解”中文,那么塞爾加上這堆紙也不能說是“理解”中文吧!雖然屋子的中文水平足以騙過中文使用者,但沒有任何實體真的“理解”發生了什么。

  換言之,所謂的圖靈測試也是沒有用的,就算通過了它也不能表明計算機在思考。

原文轉自:http://www.testwo.com/article/620

国产97人人超碰caoprom_尤物国产在线一区手机播放_精品国产一区二区三_色天使久久综合给合久久97