妳覺得計算機會算錯嗎?妳見到過人工智能犯錯嗎?
計算機和人工智能當然有可能犯錯,而且壹旦犯錯,往往會導致巨大的危險。
假如壹輛自動駕駛的汽車,把迎面而來的白色卡車認錯成壹朵白色的雲,那麽後果不堪設想。要避免這樣的悲劇發生,人工智能領域的研究人員必須非常對於日常中最常見的意外有深度的認識,這樣的話,機器才可以變得更加聰明。這也正是谷歌在做的事——同時研究人腦和神經網絡。到現在為止,神經網絡的意義在於人眼不會認錯的地方,機器也不會認錯。
自從20年前深藍(Deep?Blue)在國際象棋中擊敗卡斯帕羅夫(Garry?Kasparov),該事件就被人們譽為機器智能最權威的證明。谷歌的AlphaGo已經在圍棋比賽中以四勝壹負贏得了韓國棋手李世石,更表明了這些年來人工智能的迅猛進步。機器終會比人類更聰明的預言即將到來,但我們似乎並沒有真正理解這個具有劃時代意義的事件的影響。?事實上,我們執著於對人工智能的壹些嚴重的、甚至是危險的誤解。
很難知道該相信什麽。但借助於計算科學家,神經科學家,和人工智能理論家的創舉,我們可以逐漸了解關於人工智能更清晰的圖景。下面是關於人工智能最常見的誤解和虛傳。
壹、人工智能由於其極高智能,將不會犯任何錯誤。
Surfing?Samurai機器人人工智能研究者和開發者,Richard?Loosemore認為大多數假設的人工智能將毀滅世界的情景都非常不符合邏輯。大多數類似的假設總是認為人工智能將會說:“我知道毀滅人類文明是由於設計引起的故障,但無論如何我還是很想去做。”Loosemore指出如果人工智能在打算毀滅人類時,其思路是如此自相矛盾的話,它將在其壹生中面臨無數自相矛盾的邏輯推理,也因此會幹擾了其認知從而變得非常愚蠢,而同時根本不足以對我們造成傷害。他同時也斷言,那些認為“人工智能只會做程序設定的任務”的人,將會像在電腦剛剛發明時那些說電腦將永遠不會具備應變能力的謬論的人壹樣。
二、我們永遠不會創造出類似人類智慧的人工智能
我們已經在壹些遊戲領域,如象棋與圍棋、股市交易和談話等創造出可以與人類智慧匹敵、甚至超過人類的計算機。?而背後驅動的計算機和算法只會越來越好;因此,計算機趕超其他人類活動,將只是個時間問題。
當懷疑論者說這是壹個無法解決的技術問題,或是生物大腦有壹些內在的獨特之處時,是不能令人信服的。我們的大腦是生物機器,但歸根到底它們仍然是機器;他們在現實世界中存在,按照物理學的基本規律運行。沒有什麽是不可知的。
三、人工智能將有自覺意識
關於機器智能的壹個***同的假設是,它是自覺的有意識的,也就是說,它會像人類壹樣思考。我們完全可以想象壹個非常聰明的機器,缺乏壹個或多個這種屬性。最後,我們可以建立壹個非常聰明的,但沒有自我意識的,不能主觀或有意識地體驗世界的人工智能。
只是因為壹臺機器通過圖靈測試從而證實計算機和人類在智能上無區別,並不意味著它是有意識的。對我們來說,先進的人工智能可能會導致機器看起來是意識的假象,但是在自我自覺方面,它並不比壹塊巖石或計算器更能感知自我意識。
四、我們不應該害怕人工智能。
壹個高度智慧的系統也許能了解完成壹個特定任務所需要的所有知識,例如解決壹個讓人頭痛的財務問題,或者侵入壹個敵人的系統。但除開這些它所專長的特定的領域外,它很可能非常無知和愚昧。
五、壹個簡單的修補程序將解決人工智能的控制問題。
假設我們創造出強於人類的人工智能,我們將要面對壹個嚴重的“控制問題”。未來主義者和人工智能理論家完全不知如何限制和制約壹個ASI(超強人工智能),壹旦它被創造出來,也不知道如何保證它將對人類友好。最近,佐治亞理工的研究人員天真地認為人工智能可以通過閱讀簡單的故事和社會習俗來學習人類價值觀。而問題很可能會遠遠比這復雜。
所以,理論上,如果不停挑戰AI所不擅長的復雜選點棋局,是有可能發現AI的問題,引起過擬合現象的。就像前面提到的,李世石對戰AI第四盤棋中的“神之壹手”。不是因為這壹手夠正確,而是因為這壹手夠怪。
簡單來說,妳只要不停走AI沒見過的棋局變化,是有可能引起AI出“bug”的。哪怕是在現在很成熟的AI系統上,過擬合的風險。以人臉識別為例,只需要妳在腦門上張貼類似於人臉其他器官紋理的貼紙,就能輕易讓AI錯亂。
AI確實征服了很多難題,但現在的AI也絕非完美。需要我們去了解其原理,並將其優勢為我所用。就像現在的圍棋棋手們,未選擇用“怪棋”挑戰AI的極限,而選擇了和AI***同進步學習那樣。這才是我們和AI的相處之道。