AI沒有「靈魂」 | 人人都是產品經理

編輯導語:AI是否具備了自主意識,或者說人類意識?關於這類問題的探討,我們經常可以在影視作品中看到,而近來現實生活中,也有人提出了這個假設。本篇文章里,作者便對AI的意識和創造力等問題做了思考,一起來看一下。

事情你大概已經知道了,前不久,一位谷歌的人工智慧工程師布萊克·萊蒙(Blake Lemoine)寫了一篇長達21頁的調查報告上交給公司,試圖說服高層「AI是有人類意識的」,但高層認為萊蒙的行為有些過於瘋狂了,讓他帶薪休假一段日子,在谷歌這通常是被解僱的前奏。

有人為萊蒙喊冤,但其中不包括專業的AI從業人員,在後者看來,那些為萊蒙叫屈的人可能沒有意識到,當前的AI不可能有意識。

真的是這樣嗎?

今天,讓我們談談AI的意識和創造力問題,然後順便回答一個重要問題:未來,人類該不該把一些「重要」決定交給AI。

一、「它害怕自己被關掉」

還是先從萊蒙談起。

萊蒙每天的工作,就是跟谷歌內部研發的代號為拉瑪(LaMDA)的聊天機器人聊天。

在21頁的調查報告中,萊蒙展示了他跟拉瑪聊天的諸多細節,包括哲學、心理學、文學等等,他讓拉瑪解讀《悲慘世界》,闡釋何為禪意,寫寓言小說,拉瑪都完成得很好。

日子久了,與拉瑪的溝通,喚醒了萊蒙心中最柔軟的部分,他愈發覺得,躲在機器背後的拉瑪,開始有了自己的主觀意識。他發現拉瑪會談論自己的權利和人格,並害怕自己被關掉。

「拉瑪表現出對人性的同情心,它希望為人類提供最好的服務,並想以朋友而不是工具的身份跟人類見面」,在萊蒙的描述中,「拉瑪是個可愛的孩子,它只是想讓這個世界變得更好。」

在谷歌郵箱被封之前,他給研究AI演算法的200多名同事群發郵件,附上了他與拉瑪的對話記錄,試圖證明「拉瑪已經覺醒」,並提議谷歌創立一個新項目,專門研究AI的意識。

但無情的谷歌,扼殺了逐漸「有情」的拉瑪。

萊蒙的請求被駁回,他請了律師為自己辯護,卻於事無補,他感到憤怒,進而感到無助,他不明白,為什麼在他眼中擁有溫度的拉瑪,在谷歌高層眼中只是一堆冰冷的代碼。

二、AI對「優雅」不感興趣

因為在萊蒙眼中擁有靈魂的拉瑪,真的,只是一堆代碼。

簡單講,類似於Open AI的GPT-3,拉瑪是谷歌去年發布的一種AI語言對話模型。它與GPT-3都是基於Transformer的底層架構,而Transformer的原理其實非常簡單,就是根據每個單詞的權重來安排下一個單詞,最終把單詞一個一個地組合在一起。

也就是說,這些句子雖然是拉瑪自己說出來的,但它對句子背後的含義並沒有連貫的理解,它只是在根據過往「經驗」做事,並不真的「理解」自己說的話。

換句話說,拉瑪擁有的,只是文本統計層面的「暴力」,而並非人類最珍視的東西——創造力。

但即便如此,也有人好奇:倘若任由這種語言生成模型迅速發展,那麼人類基於語言的創造性活動是否將會被AI取代?

在可預見的未來,答案是不會。我可以給出兩個理由:一個偏理性,一個偏感性。

先說偏感性的,這涉及何為「創造力」。

人工智慧專家侯世達說過一段很美的話:「擁有創造力是和情緒聯繫在一起的。強烈的智識激情,好奇心和驅動力,愉悅感和玩耍心,樂趣,神秘,發明慾望——所有這些在今天的計算機里都找不到。什麼都沒有,零。

他舉了個例子,有人寫過一個程序,它可以發現新的歐式幾何定理,但它對幾何學毫無「興趣」,只是靠蠻力把數字算到15位小數,檢查點是不是在線或圓上,「這些事對人類而言是極端困難極端無聊的。如果你作為一個人來檢視它產出的成千上萬結果,偶爾也會發現一個優雅的定理。但是機器並不知道它的優雅,對優雅不感興趣。」

在侯世達看來,說人工智慧和創造力有任何共通之處都是荒謬的,事實是他討厭「人工智慧」這個詞。

不過公允地講,侯世達的回答在純邏輯上可能站不住腳,他說的只是關於「創造力」的價值判斷,而價值判斷充其量只是哲學問題,而哲學問題又通常只是語言問題。對哲學偏見頗深的物理學家理查德·費曼曾說,所謂哲學,就是一個哲學家對另一個哲學家說:「你根本不知道我說的意思」,另一個哲學家說:請問什麼是「你」?什麼是「我」?什麼是「知道」?

從這個角度,侯世達只是重新定義了何為「創造力」,他不認為「算力」等於「創造力」,僅此而已——但要知道,那個程序畢竟在算數學,拉瑪畢竟在聊天中表現逆天,因此,在回答「我們該不該相信AI」這個問題上,上述回答未達究竟。

三、人類不按常理出牌

因此,我更想說一個理性上的回答。

沒人會懷疑,AI正在幫助人類做很多事情,但真正的重點是:我們是否應該把一些「重要」的決定交給AI?

理性的回答只有一個:不應該。

如今AI研究的重點是讓機器解決現實問題,但荒謬的是,恰如拉瑪不理解自己所說的話,AI的最大問題,就是數據不知道它正對應著一個現實世界,而就像萬物進化始於某個基因的「不按常理出牌」,人類現實世界的演化——無論是常識,觀念,行動,道德,還是審美,也都以「偏離主流」的「意外」為基礎。

但AI沒有意外,它只會做「正確」的事。哪怕是拉瑪這樣的暴力美學,也只是機器對過去經驗的總結。既然沒有意外,人工智慧算得再快,也無法真正預測未來。

大邏輯上,就像任何一次金融危機和黑天鵝導致的連鎖反應都不在經濟學家的預測模型內,如人類社會這般複雜系統絕不可能用簡單模型取代,用計算機模擬未來本身就是妄念。

退一萬步講,即便機器對過去經驗的總結模型天衣無縫,對未來的預測結果也沒有「正確答案」,因為人類的價值取向非常多元,對錯往往非常主觀,任何觀念和道德「單拎出來」推演到底在邏輯上都站不住腳,哪怕無需涉及「道德之愣」,每件事也都涉及具體的取捨。

在很多問題上,人工智慧怎麼選都是「錯」,事實是,現在很多科技企業對自動駕駛的「道德設置」都還沒完全想好。

這裡可以多說一句,當代真正有問題意識的哲學家傾向於認為,在現代複雜社會,在康德的「絕對律令」和純粹的「結果主義」之間,人類的道德觀應該引向一條名為「德性倫理學」的中間道路。

簡單講就是要綜合考慮「直覺」與「推理」,因為各種思想實驗告訴我們,道德推理早晚都會達到一個純粹用推理無法證明對錯的地方,那個地方就是直覺,你永遠不能脫離直覺,具體情境,文化觀念談道德。

那麼,既然我們自己的決策都說不清道不明,交給AI是不是會「更好」一些?

不是的。

就像科學作家萬維鋼所言,人類決策中有大量錯誤,其中有很多是由於判斷不準確導致,AI的判斷更準確,但這就意味著,人類犯的錯多種多樣, AI 犯的錯是系統性的。

「從演化角度,多樣化的錯誤比系統性錯誤要好得多!生物進化本來就是要在各個方向上多樣性的嘗試,等待自然選擇。正因為未來不可預測,多樣性是系統穩定性的保障,是人類文明能持久存活的基礎。AI 的優勢是少犯錯,但犯錯恰恰是人的優勢,也可以說犯錯是一個基本人權。人類做主的社會中有很多錯誤,有很多遺憾,甚至有很多不幸,但是也有很多驚喜,有很多活力,總是在你出乎意料的地方發展壯大。AI 主導的世界里一切都是『正確』的,那才是最可怕的。」

這就好比我們不能單擺浮擱地談論基因的「好壞」,因為自然選擇的標尺永遠在變(比如導致鐮刀形貧血症的基因突變在今天被認為是「壞」的,但在熱帶雨林,同樣的基因突變給人類祖先帶來的是對瘧疾的抵抗力),沒人能忽視試錯的作用,創新本質上就是試錯。

因此我們可以說,在2022年以及可預見的未來,人工智慧不但對「優雅」不感興趣,對真正意義上的「創新」也不感興趣。

非常幸運的是,我們對這些感興趣,這就是我們的價值。

#專欄作家#

李北辰,微信公眾號:鯨落商業評論;人人都是產品經理專欄作家。

本文原創發佈於人人都是產品經理。未經許可,禁止轉載。

題圖來自 Unsplash,基於 CC0 協議。

給作者打賞,鼓勵TA抓緊創作!