通用人工智慧離我們還有多遠? | 人人都是產品經理

編輯導語:在以前,人工智慧是一個科幻的話題,但在今天,人工智慧已經不再那麼遙遠。當下的一些場景中,我們都能尋覓到人工智慧的影子,但目前的人工智慧還存在著很多問題,它並不能真正代替人,所以離真正意義上的通用人工智慧還很遠。本文對人工智慧展開探討,尋覓通用人工智慧的未來。

人工智慧曾經是一個頗為科幻的話題。有人擔心人工智慧會取代人類,甚至會反人類。然而幾年下來,我們發現人工智慧並沒有我們想象的那樣智能。

  • 「問題」究竟出在哪兒?
  • 「什麼是人?」
  • 「什麼是智能?」

一、認識不到現實和理想的差距就會導致「泡沫」

嚴格來說,人工智慧的主流技術並不新,它經過對傳統技術的反覆迭代而來。

關於人工智慧的發展現狀,目前有「樂觀論」「悲觀論」「泡沫論」三種論調。

我經常會聽到各種各樣的誤解,第一個誤解就是認為人工智慧是個新東西,是這幾年冒出來的。事實上,人工智慧(artificial intelligence)這個詞正式變成公認的學科名詞是在1956年美國的達特茅斯會議上。顯然,這是距今已經挺久遠的事情了。

至於現在被談論很多的深度學習技能,前身就是人工神經網路(artificial neural network)。這個概念在上世紀60年代就被學界注意到了。

人工智慧的奠基人之一阿蘭·圖靈生前也搞過一些粗淺的人工神經網路研究。這樣算的話,這個技術至少可以追溯到上世紀40年代。

所以,嚴格來說,人工智慧的主流技術並不新,它經過對傳統技術的反覆迭代而來。

1. 樂觀論

這種論調描繪出了一個烏托邦般的場景:當你回到家中,所有的設備都能夠通過全新的網路技術和物聯網與你心有靈犀;汽車是不用駕駛的,你上了車以後,什麼事都不用干,就可以把你帶到目的地;沿途,你還可以和你的汽車交談,就好像它是你的人類司機那樣。

2. 悲觀論

悲觀論者更多是站在那些可能會丟掉工作的人的立場上,認為人工智慧實在太厲害,會取代很多人的工作。到時,如果社會暫時又無法提供更多的新崗位,這怎麼辦?

3. 泡沫論

我的觀點是泡沫論。「泡沫」不是指人工智慧的未來一片黯淡,而是說在短期內,這項技術的發展還無法支撐得起很多人的夢想。

理想很豐滿,技術目前還很「骨感」。如果你意識不到理想和現實之間的差距,就會導致泡沫。假如因為對人工智慧持有樂觀態度而到市場上去融資,就更需審慎考慮。

歷史上確實有成功案例,比如IBM360計算機項目。

它的成功使計算機從過去那種非常笨重、只有高級科研單位才能買得起的狀態,慢慢地變成辦公室可以用的計算機,為個人PC的出現打下了基礎。但失敗的案例也很多。如果關於人工智慧的融資計劃都把未來描述得很美好,把餅畫得特別大,最後也很可能會有問題。

我個人對人工智慧未來發展的基本判斷是——

人工智慧對我們生活的改變不是全局性的、顛覆性的,而是局部的改進

比如,在在線教育、養老陪護等領域,人工智慧能促進一些變化,帶來一些商機。但有些項目,比如自動駕駛,就很可能存在一些應予以審慎對待的泡沫。

我主張的「泡沫論」是建立在一些基本概念的界定上,比如「專用人工智慧」和「通用人工智慧」。

二、使用傳統方法解決問題的能力下降是危險的

李世石應該會泡麵、會開車,在和AlphaGo下完棋以後他還能夠接受媒體採訪、談談自己的感受。但是,AlphaGo肯定不會開車,更不能在和李世石下完棋以後和人類、和媒體交流自己的所思所想。

現在的人工智慧都是基於大數據的,它對小概率和偶然性事件缺乏應對機制。當它面對這個充滿變動的世界時,就不知道該如何應對了。

如何區別「專用人工智慧」和「通用人工智慧」?

專用人工智慧就是只能幹一件事或兩件事的人工智慧,通用人工智慧是指什麼事都能幹一些的人工智慧。

舉個例子來說,李世石是一位棋手,AlphaGo是一個圍棋程序。如果我們把李世石看成一個智能系統的話,他就是通用智能系統。

因為他除了下棋,還能做許多其他事情,比如他應該會泡麵、會開車,在和AlphaGo下完棋以後他還能夠接受媒體採訪、談談自己的感受。

但是,AlphaGo肯定不會開車,更不能在和李世石下完棋以後和人類、和媒體交流自己的所思所想。經過這樣的對比,我們能明顯看出專用人工智慧的局限。

我們人類的特點是,在一件事上可能是專家,其他事也能幹,只是幹得沒那麼好。但是,專用人工智慧就只能幹專門的事情,其他的事情基本無法兼顧。僅從這一點來講,專用人工智慧和能力全面的通用人工智慧之間的區別還是很大的。

我們現在看到的人工智慧都是專用的,它們的製作思路都是按照專用人工智慧的思路來做的,比如人臉識別和語音識別。

當前,人工智慧通過卷積神經網路技術的進步,已經獲得了一項重要能力,即可以同時通過人臉和聲音來識別他人。但對於人工智慧來說,基於神經網路的圖像識別系統和語音識別系統是兩回事。

現在很多人對人工智慧的想象,是建立在「通用人工智慧」之上的。

很多人喜歡看美劇,發現裡面出現的一些機器人已經特別厲害。有的機器人不僅擁有人類的特徵,還開始反抗人類。有人看了這樣的故事以後就會展開聯想:如果我們和這樣的機器人一起生活,會受到怎樣的威脅?

自然而然地,很多人對人工智慧的思考就建立在了這類科幻影視作品的基礎上。而科幻影視作品受眾廣、不需要具備太多科學素養就能看明白,很有傳播力和影響力。

我有一個觀點:軟科幻看多了,要看一些硬科幻。硬科幻距離今天的科學比較近,對科學知識的運用更嚴謹。相比軟科幻,硬科幻更適合起科普的作用,能夠增強普通人對現實世界的思考能力和把握能力。

現在的人工智慧都是基於大數據的,它對小概率和偶然性事件缺乏應對機制。當它面對這個充滿變動的世界(比如新型病毒、未知規模的洪水等)時,就不知道該如何應對了。

所以,我擔心的問題不是人工智慧有了人的意識以後會與人對抗,而是人類過多依賴人工智慧以後,頭腦反而會變簡單。

不要以為有了現代化的先進工具以後就可以放棄傳統。舉例來說。假設現在有兩支軍隊對峙,雙方都有能力使用最新的網路信息技術,但只要有一方攻破了對方的網路防線,另一方的信息基礎設施就淪陷了。到時,只能轉而採用最原始的辦法(比如信鴿、雞毛信等),來傳遞信息。

對人工智慧充滿合理想象本身並沒有錯,但如果我們將人工智慧的能力想象得過於強大,同時又疏於保持用傳統方法、傳統智慧解決問題的能力,這就可能會將人類置於某種尷尬的境地。

三、為什麼現在還發展不出通用人工智慧

通用人工智慧系統的特點就是通用,既然是通用,就要處理全局性的問題。什麼是全局性?就是擁有在不同的理論體系之間進行抉擇的能力。

深度學習基於的神經網路技術用強大的機器海量計算掩蓋了方法本身的「笨」。對於深度學習來說,如果有現成的數據會非常好辦,但如果沒有優質數據,靠它自己搜集數據就很成問題。

現在的「深度學習」技術,有望在短期內,達到通用人工智慧的程度嗎?

人們曾經想象能夠有一種機器,不需要任何外界輸入能量或者只需要一個初始能量,就可以不停地自動運動。在哲學家看來,這個設想經不起嚴格推敲,無法從根本上立得住。在我看來,通用人工智慧大概也只能停留在設想階段。

通用人工智慧系統的特點是通用,就是擁有在不同的理論體系之間進行抉擇的能力。不同的訴求之間往往存在衝突,而人類有能力在各種衝突之間想辦法,找到一個可以平衡各種矛盾的中庸點。

舉個大家比較好理解的例子。有一位家政員到僱主家裡做事。如果僱主是一位知識分子,家裡書特別多,他就可能會要求家政員盡量把書房打掃乾淨,但不能幹凈到書都找不到了。

家裡書多的人都知道,書的易取性和整潔性往往是相互矛盾的。書收起來,家裡固然更乾淨整潔了,但如果幾本書同時在看,堆起來以後再找、再取就很耗費時間。

這時,究竟是追求整潔還是易取?這裡面就有個平衡點。這個平衡點的抵達需要家政員和僱主之間長時間的磨合,卻很難通過程序來設置。

任何一個綜合系統都要具備處理各種複雜甚至突發情況的能力。其中有些情況甚至是非常極端、偶發的。比如,一輛自動駕駛汽車在道路上行駛。道路的左側有一個路人在行走,道路的右側有五個路人在行走,萬一出現車速太快來不及剎車的情況,到時該往哪邊拐?假設這個程序突然得到消息,左邊的路人是我們國家一位非常重要的專家,它該如何選擇?

很多人第一直覺會覺得專家更重要,但轉念一想,每個人類個體的生命都是平等的。遇到這樣的問題,人類會痛苦抉擇、反覆取捨。

換作是機器,問題就麻煩了。我們都知道,人工智慧是基於一系列規則設置的,規則背後就是各種邏輯原則。一旦情況過於特殊或複雜,機器內部基於不同邏輯規則設置的程序之間就會打架。

我再舉個例子。假設現在有一位外國小夥子到少林寺學武術,語言不通,怎麼辦?有個辦法,那就是師父做一個動作,小夥子跟著做;如果他做對了,師父就微笑,做錯了,師父就棒喝。通過這種方式,小夥子被棒喝以後,就知道自己做錯了。但具體到底哪一點做得不對,如果師父不明示、不詳解,他就需要猜、需要不斷試錯。這時語言的好處就很明顯。如果彼此能夠通曉對方的語言,師傅就能把包括武術規則在內的一整套內容都傳授給他,幫助他理解,然後再由學生自己轉化為行動。深度學習基於神經元網路的運作產生。神經元網路的運作,就類似於前面所說的那種比較笨的教學方法。

人類犯錯以後的反省是基於道理和規則的。但系統不是,它遇到障礙以後的應對辦法是調整各種參數,試錯以後發現不對就再猜。它是通過大量的猜,慢慢地把事情往對的方向引。它的優勢在於,可以在很短的時間裡完成人類不可能完成的巨量猜測。

深度學習基於的神經網路技術就是用強大的機器海量計算掩蓋了方法本身的「笨」。但問題是,對於深度學習來說,如果有現成的數據會非常好辦,如果沒有優質數據,靠它自己搜集數據就很成問題。

通用人工智慧如果要處理全局性問題,需要搜集的數據就更複雜了。

目前的深度學習機制,其根本問題就是缺乏跨領域學習的能力。這正是人工智慧無法通用化、全局化的根本所在。

在我們的日常生活中,不同的系統有不同的運作方式。國際象棋有國際象棋的下法,圍棋有圍棋的下法。人可以適應變化,要人工智慧去適應這一點卻非常難。

很多人會問,可不可以把各種專用的人工智慧整合為一套通用的人工智慧?

其中又有一個問題——協同。這就和企業運籌帷幄一樣,需要各個團隊、板塊的協同合作,需要有一個能力全面的人來領導,而人工智慧並不具備總體的調度、配置能力。

為了研究人工智慧和人類智能還差在哪兒,一些專家提出了所謂的「卡特爾—霍恩—卡羅爾」三層智力模型。他們把通用智能分解成很多部分,比如流體智力、晶體智力、量化推理、讀寫能力、短期記憶、長期記憶、視覺處理和聽覺處理等。

量化推理無非就是算術,讀寫能力就是你能不能看懂文章、讀懂要點。晶體智力就好比老師現在給你一道題目,告訴你解法以後,看你能不能把做題的思路遷移到新的題目上。流體智力要求更高,相當大程度上,它強調的是一個靈活調用各種智識能力的狀態。

至少在目前,人工智慧不是根據人類智識能力的發展方向來發展的。長此以往,它的「擬人性」就很成問題,它離真正意義上的通用人工智慧就還很遠。