「人工智慧」(A.I.)這名詞正式出現在1956 年,美國達特茅斯學院 (Dartmouth College)召開的第一次人工智慧會議。人工智慧有別於心理學或電腦科學,其研究目標 在提高電腦的智能,讓電腦具有領悟、推理、判斷、直覺及自動校正的能力。也就是令 電腦能像人類般學習和思考,完成人類智慧才能解決的問題。
但是由於智慧本身並未有確實定義,對人工智慧也會有不同理解。1980 年,美國哲學家約翰.瑟爾(John Searle)便提出【強人工智慧】(Strong A.I.)和【弱人工智慧】(Weak A.I.) 的分類,兩種主張區別開來。
強A.I.:指人工思考智慧,大膽假設電腦能具有與人相同程度的思考能力;
弱A.I.:指人工模擬智慧,主張機器只能模擬人類具有思維的行為表現,而不是真的懂得思考。
學習中,曾就 Strong A.I.與Weak A.I.做過多次深淺不一且廣泛的討論,部分的討論甚至超出自然科學的範疇,涉及人文科學或哲學的領域,可視為一個本質性(essential) 的問題,再回顧一下過去的發展,發現也有多位學者曾就相同問題做過論證,因此引發將相關論證做一整理的動機。本文主要著重在關於Strong A.I.與Weak A.I. 相關議題和論述的了解,並釐清圖林測試及中文房驗證的測試目的及結論。
智慧與人工智慧
何謂「智慧」?「智慧」 (intelligence)根據韋氏字典的解釋為:「獲得並應用知識的能力」(The faculty of Acquiring and applying knowledge)。比較準確的說法是:智慧係在實際環境的互動下,衡量行為者其解決事情達成目標的程度,簡單的說智慧是解決實務問題的一種能力,其重點是智慧表現在實際環境中,其程度則取決於行為者與環境互動關係。
「人工智慧」,簡單而普遍的定義是:一部機器假如它表現的行為與人類表現的同樣有智慧,這種經由機器表現的智慧就叫做人工智慧。除此之外,人工智慧至少有下列三種不同的看法:
1. 電腦科學家:人工智慧最早開始於電腦的領域,因此就電腦科學家而言,其目標是把機器經由電腦軟體程式的方法,變聰明而能取代人類腦力的工作,就像工業革命機器取代人類勞力的工作一樣。
2. 認知科學家:經過電腦科學家多年的努力所創造最聰明的機器,其智慧還比不上地球最低等的生物。因此,有一批心理學家就提出要創造人工智慧前,應該先了解人的智慧是如何運作產生的,而形成所謂的認知科學,其目標就是先研究人類的心智模式,再把這個心智模式放到機器,就可以產生人工智慧,這個機器不一定是電腦,因為他們懷疑利用現代的電腦可以創造人工智慧。
3. 野心科學家:另外有一批科學家的野心更大,以「人工智慧」之父 Minsky 為代表。他們企圖創造一種智慧機器人,其智慧甚至超過人類,就像工業革命我們創造機器取代人力而更勝人力,其目標就是創造比人更聰明的新物種。有人質疑我們不可能經由我們自己的手創造比我們更聰明的機器,這已經超越科學進入人文與哲學辯證的問題了。
人工智慧的測試
要探討機器能否具備像人類一般的智慧,就必需先了解兩個關於人工智慧的測試方法:圖林測試和中文房實驗。圖林測試 (Turing Test):假如你無法辨認或誤判「機器」是人,則這部機器便通過了圖林測試,可視為具有智慧。
1951 年圖林(Alan Turing)提出有名的「圖林測試」來測試一部機器是否具智慧,也是判斷機器是否具有智慧最為人熟知的方法。圖林測試的方法有許多的版本,基本上其原理與方法是:假設有三個房間,有一個房間裡面坐著一個人,另一個房間有一部具有「人工智慧」的機器,而你坐在第三個房間,假設你能透過鍵盤、螢幕或甚至聲音與其他兩個房間溝通。你能隨意決定談話的時間、談話的內容並提出各種問題。但是記住另外一個房間的「人」會想盡辦法,讓你誤認他是一部「機器」;相反的來自另一個房間的「機器」想盡辦法,要你相信他是一個「人」,在經過適當的溝通與對話後,你必須決定剛剛談話的對象,那一個房間是人,那一個房間是機器。假如你無法辨認或誤判「機器」是人,則這部機器通過圖林測試而具有智慧。
圖林測試在 1951 年就被提出來後,到了1991 年才有一位熱衷於人工智慧的洛布納(Hugh Loebner)博士,提供十萬美元給通過圖林測試的機器設計者,舉辦叫洛布納獎的圖林測試比賽,才開始有機器實際來挑戰圖林測試。但是,直到目前為止,還沒有任何一部機器通過圖林測試。目前的機器離這個境界還很遙遠,因此,洛布納獎每年只頒發一千五百美元獎金獎勵最接近人工智慧的機器。
中文房驗證 (The Chinese Room):即使通過圖林測試也不一定就有智慧,因為:只有程式規則並不能產生智慧,只有語言的文法不能產生語言的意義一九八0年,美國加州柏克萊大學的哲學家Searle(John R. Searle)發表一篇「心靈、大腦與程序」(Minds, Brains, and Programs)的文章,首次提出了著名的「中文字房實驗」
(Chinese room experiment)。有趣的一點是,這個實驗雖然從來沒有付諸實踐,但它所引起的爭論,卻比不少真正進行過的實驗還要多。在這個實驗中,Searle 設想一間裝滿了中文字卡的房間,房中還有一本由英文寫成的手冊和一個只懂英文而完全不懂中文的人。現在假設房外有人不斷以字卡的形式把一些中文寫成的問題透過一道窄縫送入房,中文房中的人則按照輸入的字卡和手冊指示,把一些對應的字卡順序從窄縫擲回房外。重要的是,手冊中的指示從來沒有解釋任何一個中文字的意義,指示的形式永遠只是「如果收到某某編號的字卡,則交回某某編號的字卡」或是「若收到某一組字卡,則交回另一組字卡」等。
假設房外輸入的問題是一些有關唐詩的賞析或儒家哲學的討論,而由房中輸出的,則是相應這些問題的精闢答案,那麼房外的人必會認為房內的人不單通曉中文,而且對中國文化有深厚認識。可是房內的人不要說中國文化,就是連一個中文字也不認識!
Searle 要指出的是,中文字房有如電腦,房中的手冊則是電腦程序。我們今天自然無法想像可以寫出一套這樣複雜的程序,正如我們無法想像可以有一本這麼神奇的手冊以至令房中的人不致露出馬腳。但Searle 的論點是,即使我們有一天終於能夠寫出這樣一套電腦程序,那是否表示電自已經真正懂得思維呢?當然不是!正如中文字房裡的人始終不懂中文,電腦也只是按照程序工作,而沒有任可真正的理解。也就是說,電腦永遠只會有語法(syntax)而沒有語義(semantics)。Searle 更進一步強調。就是更多更精細的語法,也無法產生半丁點兒語義,而這正是機器和人類的分別所在。結論就是:只有程式規則並不能產生智慧,只有語言的文法不能產生語言的意義 (syntax doesn’t suffice for semantics)。
再回頭來看,很顯然的,這中文房實驗中的這一部機器是通過了人工智慧的圖林測試,但我們都知道這一間「中文房」表現的行為並沒有智慧存在。這個實驗的重點在於:置身「中文房」的人雖然通過測驗,但是他完全不知道自己在做什麼;同樣的,通過「圖林測試」的機器當然更不知道它在做什麼。因此另一個重要的結論,就是:通過圖林測試的機器,決不表示就有智慧或有意識。
Searle 的中文房實驗說明,如果機器僅僅是對數據進行轉換,而數據本身是對某些事情的一種編碼表現,那麼在不理解這一編碼和這實際事情之間的對應關係的前提下,機器不可能對其處理的數據有任何理解。基於這一論點,Searle 認為即使有機器通過了圖林測試,也不能以此說明機器就真的如同人類一樣地具有思維和意識。
Strong A.I. 與 Weak A.I.
關於A.I.的研究有所謂「強A.I.命題」和「弱A.I.命題」之分。前文所述的關於A.I.的爭論,針對的都是「強A.I.命題」。這一命題認為:人類終有一天能夠造出在認知和思維能力方面皆與人完全無異的機器。
「弱 A.I.命題」追求的,則是以機器來模擬人類部分的「智能」活動,包括數學演算、邏輯推理、下棋、自動導航、甚至包括醫學診斷、經濟分析以及與人作模擬式的簡短交談等等。今天最先進的工業機械人或「專家系統」,都只是弱A.I.範疇的產物。
Searle 對於強A.I.命題的非難,在八十年代後期,成為了A.I.爭論的焦點,這與電腦發展的歷史也許不無關係。日本宣布進行「第五代」電腦計畫至今已將近十年,但真正智能型電腦的來臨似乎仍未有期,事實證明,我們最初對A.I.發展的期望太樂觀了。
只是由於記憶容量與高速運算能力的發展,而過度樂觀或過度推測「人工智慧」時代的來臨,是人工智慧專家最容易犯的錯誤。就算一個微處理器能裝入超過一個人腦的神經元的數目,也並不保證電腦就將要有「智慧」。我們可以把整部大英百科全書放進電腦,並提供快速的存取,但是它還是沒有「智慧」。人類對外部世界的認知能力和對事物的學習能力,遠比我們最初想像的複雜。
圖林的論點是,如果我們無論透過如何刁鑽的問題也無法識別何者是人何者是電腦的話,那麼便不得不承認,房間中的電腦其有與人類一樣的思維能力。也就是說,它「懂」得思維。這便有如我們和別人相處時,總是通過不斷的交流和觀察,來判定對方是否擁有思維能力一樣。
圖林試驗為「思維」確立了一個操作性的定義。自此,「強AI」的擁護者有了一個明確的目標,那便是要製造出一副能夠通過「圖林試驗」的機器。顯然,Searle 的「中文字房實驗」其實是對三十年前這篇經典之作的抗議。Searle 認為,無論一副機器外表看來如何聰明,它仍只是一副機器,或只是一項程序,而不可能擁有真正的「理解」,更遑論真正的思想、感情和意志。簡言之,Searle 強迫「強AI 命題」的擁護者面對這個問題:姑且不論機器能否真的通過「圖林試驗」,你們是否真的認為機器能夠擁有思想、感情,亦即擁有自我意識呢?
大部分的「強 AI」擁護者對上述問題的答案其實是肯定的(否則他們也不會成為「強AI」擁護者),只是他們一向不願意宣揚這觀點。為甚麼呢?因為這牽涉到一個形而上學的問題,很容易給人扣上「不科學」的帽子。因為「自我意識」就其本質而言,本身就是一件無法確認的事情。我固然知道我自己存在,亦即我有自我意識。但假如一副電腦向我們宣稱:「我知道我自己存在!」我們有甚麼辦法去判定這一說話為真,而並非一些極其巧妙的程序所產生的結果呢?
誠然,一個個體是否擁有「自覺的心」(a self-conscious mind)可能是永遠無法確知的事情,但這正是整個問題的關鍵所在。如果迴避了這個問題,則所有關於AI 的爭論就失去了意義。事實上,既然我們承認其他人有自覺心靈(唯我論者除外),那麼自然也不應懼怕談論機器是否可以有自覺心靈。畢竟,這才是我們心底裡最關注的一點。
皇帝的新心靈
像時間起源一樣,「自我意識」可說是宇宙間一個深不可測的謎。千百年來,不少哲人智者都為解開這個謎而費盡思量。在哲學探求中,這便是著名的「心、物問題」以及「自由意志與決定論」這兩大課題,同時亦牽涉到本體論中「唯物」與「唯心」的古老爭論。究竟現代科學的進步,對上述這些問題帶來了甚麼新的啟示呢?這些啟示對「強AI」的追求又是好消息抑或壞消息呢?這些都是現任牛津大學Rouse Ball 數學講座教授Penrose(Roger Penrose)在他1989 年的新作「皇帝的新心靈」 (The Emperor's New Mind: Concerning Computers, Minds and the Laws of Physics)中企圖回答的問題。
厚達四百五十頁的「皇帝的新心靈」是 Penrose 第一本科普著作。在書的前半部,他花了大量篇幅探討這樣一個問題:對真理(即使只局限於邏輯和數學上)的追尋,固定否可以用程式化步驟(algorithmic procedures)體現?引伸下來,也就是問:人的思維是否可以還原為不同的程式(algorithms),而最終歸結為電腦程序的運作呢?與哲學家 Searle 一樣,數學家Penrose 對上述問題的答案至終也是否定的。但較諸「中文房實驗」的雄辯式非難,他對問題的分析深刻和全面得多了,其間涉及圖林機的休止問題、曼德布洛集(Mandelbrot set)與非遞歸(non-recursive)數學、希爾伯特的公理化綱領和哥德爾的不完備定理、可計算性和「複雜理論」的概念……其中最重要的,就是是否所有數學問題都可以「程式化」,即由一定和有限程序來決定。以著名的曼德布洛集和其他古典問題(例如二次不定方程 Diophantine equation 的整數解)為例,他說明這是不可能的。
思維和意識既無法還原為程式的運作,那是否表示它們超乎了科學研究的範疇呢?Penrose 的答案既是肯定也是否定的:之所以肯定,是他認為整個現代科學架構中欠缺了極關鍵的一環,以至我們無法了解自我意識的本質;之所以否定,是他認為這一「缺環」並非甚麼神祕不可知的事物,而最終可以被科學探究。
Penrose 進一步大膽假設,這「缺環」可能與現代物理學中的兩大困惑有密切關係,這便是量子力學中有關「波函數塌縮」(collapse of the wave function)這一核心觀念所導致的種種有悖常識的後果,以及重力場還未能完全量子化而與自然界的其他基本作用力統一起來這一問題。Penrose 希望可以通過廣義相對論影響和改造量子力學,特別是解決波函數塌縮所引致的困境,從而創造出一套涵蓋量子力學和廣義相對論的嶄新物理學。
這套新的物理學在目前自然仍是未知的領域,是一個夢想。但他認為,也許這正是打開自我意識之謎的鑰匙,也是判別人類思維與(無論如何複雜的)計算程式的分野的關鍵。這的確是十分新鮮和富散發性的一個觀點。它倘若成立,對強AI 的追尋究竟是好消息還是壞消息呢?
透過了一個寓言式的模子和後記,Penrose 清楚地表明,他這本書的結論是對強AI命題的否定。由於目前的人工智能研究之中,還未曾包括他所提出的「缺環」,因此研究的綱領,便好像「穿」在皇帝身上的「新衣」,是一種自欺欺人和永遠無法實現的夢想。這正是書名《皇帝的新心靈》的含義。
結語
當然,「強A.I.」是否可能的命題,各有支持及反對者。以目前的發展情勢來說,反對「強A.I.命題」的擁護者是較占便宜的,因為目前A.I.的發展現況,要能憾動他們的論點,都還有一大段距離。反倒是,支持「強A.I.命題」者,要提出有力的論點相較之下就顯得格外吃力,也常常就會被斥為,不科學或反科學。往往只有在哲學範疇的論證中,免強維持一點抗衡。
如,哲學家 Daniel C. Dennett 就在其著作 Consciousness Explained 中提出,人也不過是一台有靈魂的機器而已,為什麼我們認為人可以有智慧而普通機器就不能呢?他認為數據轉換機器是有可能有思維和意識的。
也有些哲學家認為如果弱 A.I.是可實現的,那麼強A.I.也是可實現的。比如英國哲學家Simon Blackburn 認為:一個人的看起來是「智慧」的行動,並不能真正說明這個人就真的是智慧的。我永遠不可能知道另一個人是否真的像我一樣是智慧的,還是說他僅僅是看起來是智慧的。基於這個論點,既然弱A.I.認為可以令機器看起來像是智慧的,那就不能完全否定這機器是真的有智慧的。Blackburn 認為這是一個主觀認定的問題。
到了九十年代,著名的通俗科學雜誌「科學的美國人」以卷首位置同時刊登了兩篇針鋒相對的文章,即Searle 的「大腦思維是電腦程序嗎?」(Is the Brain's Mind a Computer Program? )和「擁AI」的丘卓倫夫婦(Paul and Patricia Churchland)的「機器能思想嗎?」(Could a Machine Think?)。這兩篇文章大體上仍集中於上述「語法」「語義」之爭,它們可以說是對「Searle 論題」爭論的總結。
最後,有一點需要特別指出的是,弱 A.I.並非和強A.I.完全對立,也就是說,即使強A.I.是可能的,弱A.I.的嚐試和努力仍然是具有意義的。至少,有許多今日的電腦能做的事,像算術運算、加解密等,在百多年前都是被認為是很需要智慧的工作。
【延伸】
從馬文·閔斯基到 AlphaGo,人工智慧走過了怎樣的 70 年? (作者 雷鋒網 | 發布日期 2016 年 02 月 11 日)