人工智能有沒有機會統治人類?
作者:劉明河
近期,警惕人工智能的文章和報道越來越多,甚至有人宣稱“隨著計算機運算能力增強,強人工智能將在我們的有生之年出現,給人類文明帶來前所未有的沖擊”,這些看似有理有據的觀點深入人心,很多人甚至心生恐懼,擔憂起了自己的未來。
人工智能真的會對人類產生如此大的威脅嗎?
困難重重
對於人工智能這個過於龐大的概念,我們將它區分成弱人工智能(weak AI,或Narrow AI)和強人工智能(Strong AI或General AI)。
弱人工智能是處理特定問題的人工智能,AlphaGo就是壹個專門下圍棋的弱人工智能,iPhone裏的Siri是壹個專門語音識別的人工智能,Google的搜索框裏也藏著壹個專門提供搜索建議的人工智能——多虧了如今盛極壹時的“人工神經網絡”,我們已經愉快地發現,弱人工智能表現得非常出色,在某些時候真的比人類還要高效。
與之對應的,強人工智能模擬了完整的人類心智,我們通常會用能否通過“圖靈測試”看作強人工智能的判斷標準,但這樣的人工智能直到今天仍未實現。另外,我們還進壹步遐想了“超人工智能”這個概念,顧名思義,就是比人還睿智的人工智能,也就是科幻藝術和大眾媒體中最擔心的那種情形——但在人工智能的實踐上,我們恐怕要說這更接近盲目樂觀,追求的強人工智能的征途絕不像壹些未來展望者那樣,近在咫尺,迫在眉睫,數不清的艱難問題還等著我們攻克。
我們遭遇的第壹個問題就是計算機的運算能力。
細胞雖小,卻異常復雜,神經元尤其如此。在最微小的尺度上,壹個神經元有成千上萬個突觸與其它細胞連接,釋放或接受神經遞質,識別數百種獨立的活動,隨後發出高速傳導的神經興奮,在整個大腦內激起復雜而不確定的反饋,有些突觸還可以直接向腦脊液中釋放遞質和激素,在全身範圍內引發更大尺度的反應——時至今日,人類發現細胞已近400年,即便動用最強大的超級計算機,也只是靜態地構建出了壹個突觸的微觀結構,真要模擬它完整的活動還無能為力——而人腦大約有860億個神經元。
當然,神經科學與計算機科學的交叉處也的確有了些令人矚目的成果,比如為人稱道的,我們標記了隱桿秀麗線蟲(Caenorhabditis elegans)302個神經元的連接方式,大約在2014構建了壹個“開放蠕蟲”的項目,試圖用計算機模擬出壹個等效於實體的虛擬線蟲——但這個項目才剛剛起步,尚未收獲成果,而且這個研究對象也是出奇的簡單:它雌雄同體,全身固定有959個細胞,每個細胞的行為都專壹且固定,神經活動非常單調,我們因此得以詳細地觀察它,用現在的手段模擬它們。
但是如果因為這壹點星光就以為破曉來臨,以為秀麗線蟲的神經節與人類的大腦只是神經元的數目有所差異,只要計算速度夠快就能實現質的飛躍——那就未免太天真了。
我們還會遇到動力學參數的壁壘。
如我們提醒過的,以現在的技術,我們還不能模擬神經元的完整活動,讓它們在虛擬世界裏自主地運動起來。只是在這個項目中,我們既然已經知道了線蟲神經的連接方式,就能人為地給這些連接賦予動力學的參數,讓這些虛擬神經元活動起來,逼真地模擬壹條線蟲。就像做題雖然不會,但是拿著答案倒推,也能猜個八九不離十——所以我們稱這種做法是自底向上。
然而在目前階段,不但我們還是個相當差的學生,離開了答案就寸步難行;而且我們遇到的問題也是空前的難題,根本沒有現成的答案。
線蟲的神經與人類的大腦,就像口中呼氣和超級臺風,它們之間絕不只是數量的差異。當基本單元通過種種聯系形成復雜的系統,就會在更大的尺度上展現出新的結構。我們很早就對小尺度上的流體運動有了清晰的認識,但這並不代表我們可以從中推導出臺風的運動規律。
首先的,線蟲的個體差異極小,不同個體的細胞排列方式完全壹樣,所以作為壹種全身透明的實驗動物,我們很早就弄清楚了它們神經連接的方式。但人腦完全不是這樣,我們擁有數量巨大的神經元,個體差異很大,而且可塑性極強,這令每個人大腦內的神經元連接方式都不壹樣——換句話說,壹個具體的神經元怎樣連接不重要,重要的是數量巨大的神經元如何組織成壹個復雜的機體。
然而1個神經元、10個神經元、100個神經元、1000個神經元……每增加壹個數量級,神經元的活動都會湧現出新的運動規律,從最小層面上神經元處理興奮的方式,到不同遞質的通路的組合方式,到處理不同信息的細胞構成功能模塊,到大腦中不同功能區域的協作方式,都是我們必須面對的難題,雖然這些動力學的研究也正在熱火朝天的研究中,但這樣的研究不可能達到“指數上升”的速度,我們重建人腦的進程也就不能達到指數上升的速度。
所以先不論計算機科學能否壹馬平川地進步下去,即便計算機運算速度真的能指數上升,也無法在可以預見迅速地模擬出壹個人腦:在神經科學和腦科學臻於高度成熟之前,大腦永遠是壹個黑盒子,我們要想知道大腦在具體的智力活動中在不同層面各自發生了怎樣的事情,還困難重重。而且更加現實的情況是,隨著我們對人腦的認識逐漸擴大,我們會發現越來越多的新問題。
我們知道的越多,就越發現自己無知,然而糟糕的是,真正的難題還在前方虎視眈眈——我們需要新的計算機原理。
必須意識到,在能否實現“智力”這個巨大的問題上,計算機的運算速度並不是決定性的。以當今的動物界而論,非洲象、長肢領航鯨,它們的大腦都比人的更重,神經元的數量也更多,為何偏偏缺乏智力?在相同的解剖基礎上尚且如此,原理完全不同的電路元件,又該如何?
電路元件以金屬和半導體為元件,獲得了接近光速的信號傳遞速度,這比起神經元的沖動的確快多了,但也單調多了。電路元件的任何壹次反應都只能得到固定的結果,只能在和、或、且的基礎上展開壹階邏輯演算,今天,以及未來可以預見的壹切計算機程序,都是不同復雜程度的壹階邏輯演算。
“壹階邏輯”已經非常強大,給今天的人類帶來了整個21世紀的信息時代,但它只能從幾個初始數據開始,根據預存的指令步步推導,絕不越雷池壹步。這給計算機帶來了那種可貴的可靠性,但也令它失去了更可貴的抽象、推理、創造——我們必須能夠定義謂詞的二階和高階邏輯。
舉個例子,面對“a+b”這樣的命令,計算機只會按照加法的規則,把a和b加起來,但是對於具有二階邏輯的人,我們還會思考加法的意義,詢問“加法是怎樣壹種運算?”,接著,我們還會能在三階邏輯中思考“運算”的意義,詢問“怎樣規定壹類運算?”,進壹步的,我們又會在四階邏輯中思考“規定”的意義,詢問“數學上什麽樣的行為稱得上規定?”。
這樣的追問可以無窮地回溯下去,理論上,人類的思維可以實現“無窮高階邏輯”,我們已經在整個哲學史上持續不斷地展現了這種能力。對於普通人,我們也可以嘗試壹個計算機無論如何做不到的思維遊戲:隨便思考壹件事,然後思考“我正在思考這件事”,然後思考“我正在思考‘我正在思考這件事’”,然後思考‘我正在思考“我正在思考‘我正在思考這件事’”’……雖然很費腦子,但我們在理論上也可以無窮地遞歸下去。
是的,如今所有的計算機都是壹階邏輯,或許在某些實驗室裏還有二階邏輯的嘗試,但無論怎樣,高階邏輯問題不能規約成低階邏輯——我們絕不能用加法本身說明什麽是加法,這就好像在電視機上做電視機的廣告。
也就是說,我們即便動用了空前的計算能力,以不可思議的工作量找到了大腦中的每壹個參數,但只要計算機原理不變,就是在用低階邏輯模擬高階邏輯——這在數學上不可能,程序員們會發現某些關鍵的參數無法定義,那個辛苦模擬出來的大腦仍然是個弱人工智能。
這是壹個尖銳的問題,即便在另外壹些規劃中的道路上,用進化算法也好,用其它方式建模也好,它都會橫亙在我們的前途中。我們需要壹種革命性的計算機,能夠實現高階邏輯的演算,但是在所有已知的事物中,就只有大腦能做到這件事,這就帶來壹種新的困境:要模擬大腦需要新的計算機,要研究新的計算機就要深入了解大腦。這當然不是無法解決的問題,就好像制造新的機器需要新的材料,合成新的材料需要新的機器,我們在科技進步史上已經邂逅了無數次,沒有理由認為我們會敗給這壹次,但也要做好思想準備,因為這將是壹條漫長的路。
這樣或者那樣的問題會接踵而至,人工智能作為這時代最復雜的應用科學,沒有理由認為我們能以逸待勞地只憑計算機科學的進步就讓壹切問題迎刃而解,更何況退壹萬步,我們還有壹個更加現實的問題要面對。
倫理障礙
對與任何革命性的新技術,倫理都是最現實的問題,我們此前目睹了避孕措施對倫理的沖擊,就以為倫理在技術面前不堪壹擊,這就未免太低估了倫理的力量,像“知情權”這樣毫無意義的概念被煽動家利用起來蠱惑人心,都可以在食品安全領域掀起巨大的波瀾,那麽從今天開始數十年乃至上百年對人工智能的擔憂積累起來,無論合理還是不合理,都會形成強大的倫理氛圍,阻遏強人工智能的研究。
先不論“人工智能滅絕人類”這樣驚悚的事情,就以最現實的問題來說,公眾壹定會關心強人工智能是否具有情感,是不是有了心臟的鐵皮人,然而這卻是強人工智能的定義中不曾提及的問題。
與其它意識活動不同,人類豐富而細膩的感情是人類作為壹種社會動物,協調群體關系時的進化產物,並非智力的必需品。壹個強人工智能未必真的具備這些特質,但他壹定可以理解這種行為:想象成壹個人先天性地沒有任何感情,但以細致的觀察和精湛的模仿成為了壹個無可挑剔的表演家,在舞臺上無論是哭是笑,心中都絕無壹絲漣漪,猶如用肢體和表情肌完成了最復雜的體操——這大約就是電影《機械姬》中的情形。
長期以來,感情被認為是自由意誌最關鍵的特質,所以我們不得不想象在那樣的未來,分辨強人工智能是真的擁有感情還是在逢場作戲,抑或這兩種情況並沒有區別,都將會成為人工智能領域最重大的課題,也是人類面對自己時最深刻的拷問——無論哪壹種結局成真,都意味著壹個舊倫理的世界不復存在:我們要不要承認它是壹個人?進壹步的,“他”是否適用實體法,可以擁有最基本的人權?我們還能不能把“他”囚禁在實驗室裏?
我們接著就會設想,強人工智能如何利用自己的感情獲取人類的信任,爭取平等的對待,爭取公民權的運動。強人工智能的感情或許只是壹層偽裝,但人類心底那種與生俱來的同情和善良卻是毫無爭議的事實,在這樣的未來圖景之下,強人工智能的研究幾乎必然招致嚴格的限制,就像我們如今對待克隆技術時的做法:我們在上個世紀就掌握了克隆哺乳動物的技巧,但是在可以預見的未來裏,這個世界上都不會有克隆人降世。
或者更武斷地說,無論技術是否成熟,我們都不會允許壹個擁有完全心智的強人工智能輕易問世,我們可能會在全球最重要的實驗室裏有限額地研發幾個被嚴重削弱的強人工智能,成為認知科學和計算機科學的珍惜樣本,如果要想象強人工智能誕生在民用領域,就像《機械公敵》或者《西部世界》那樣,就未免不切實際了。
最後,我們要再次反省壹下預測未來這件事:壹個平靜的社會大概激不起人們什麽興趣,所以我們總是在變革的浪潮中“高瞻遠矚”,但是我們忘了,科學革命或許加快了人類探索和改變世界的速度,但人類的認知過程從來都不是壹帆風順。旁觀者贊美收獲時的成就,卻很少理會耕耘時的艱辛,盲目樂觀是他們永遠無法擺脫的缺陷。