真不是愚人節新聞:使用下意識時的你,與AI無異 | 人人都是產品經理

在昨天這個人人都有可能被愚弄的日子,不如我們來換換戲耍的對象,看看機器有沒有可能被愚弄欺騙呢?

在人工智慧五十年的研發過程中,我們一直在不斷嘗試著讓機器理解人對於世界的認知方式。不管是一直沒有實現較大突破的類腦計算,還是模仿人類感知外界機制的人工神經網路,本質上都是對人類行為方式的多種模仿。

當然我們也知道,這些模仿雖然在應用上取得突破,但本質上來看與人類的認知方式還是大相徑庭的。

就拿視覺來說,人類對於萬事萬物的認知來自於綜合的感知。以前一陣社交媒體上瘋傳的《神奇寶貝》大電影來說,人們見到3D版皮卡丘非常驚訝——皮卡丘竟然是有毛的?

其實這就體現了人類非常有趣的一點,建立在綜合知識基礎之上,人類的五感是相通的,因此可以從有限的信息里進行關聯挖掘,對陌生的事物建立起認知。

當我們簡單皮卡丘身上茸毛時,我們立刻聯想起了那種毛茸茸的手感,認為它像一隻大老鼠毫不可愛。

被隨意愚弄的機器思維相比之下機器視覺的認知方式就相對孤立,建立分類器后組織層層的神經網路,對圖片進行分層處理,分別去辨認圖片中是不是一架橋,是不是一隻猴子,是不是一棵大樹。最後得出的結論是,這張圖片97%的幾率是一架橋,2%的幾率是一隻猴子,1%的幾率是一棵大樹。

對於人類來說,我們可能把猴子看成猩猩,原因是我們自己腦海中的底層知識不足,在認知中分不清猩猩和猴子的概念。但絕不會把橋、猴子、大樹這些風馬牛不相及的東西混淆一談。

但對於機器視覺就不一樣了,在機器的「眼中」,一切圖像都是像素點的排列組合。對於我們來說,猴子和大樹的區別是哺乳動物和區別。可對於機器來說,猴子和大樹之間只有一個數字分割線而已。

這就導致了機器視覺可以被「針對性」的愚弄,讓圖像識別輸出完全錯誤的結果,這就是我們常說的對抗生成樣本。例如:將一張圖片的像素點進行輕微的移動,在人眼中兩張圖片沒有任何區別,可在機器識別邏輯下,卻可能讓機器把猴子認成大樹。

又比如我們曾經介紹過的「迷幻貼紙」——將某一種物體的分類特徵高度濃縮成一個很小圖案,「粘貼」在其他圖片上。圖像識別對於結果的輸出,是基於幾項結果比率的高低。在貼上貼紙之前,圖像識別可能明確的分析出圖片有98%幾率的是一隻猴子。但粘貼上高度濃縮特徵的貼紙之後,就能立刻改變圖像識別的結果。

讓人類理解機器思維,或許比想象中更容易

如此看來,雖然機器一直在嘗試模仿人類的思維方式,但最終結果還是我們與機器之間彼此無法理解。那麼如果換個角度,讓人類去學習機器的思維方式呢?

近期約翰霍普金斯大學就做了這樣一項實驗。

為了弄明白為什麼機器能看到人類「看不到」的變化,約翰霍普金斯大學推出了一系列實驗,讓人類志願者在圖片中找到「機器犯的錯誤」。

例如給志願者一張噪點圖或看似無意義的花紋,讓人類志願者從中識別辨認圖片更像哪一種物體,並將AI給出的結果混淆其中。又比如給人類幾個斑駁的數字圖案,讓人類志願者選擇AI可能將圖案誤認成了什麼錯誤的數字。

真不是愚人節新聞:使用下意識時的你,與AI無異

令人震驚的是,在大部分實驗中,人類志願者都憑藉著直覺很快辨認出了AI的思維模式。

以上圖為例,有81%的人類志願者都準確的發覺了機器會犯下的錯誤。在一共48個實驗1700位志願者中,有人們在75%的時間裡都選擇和機器一樣的答案,而只有2%的人從來沒有選擇過和機器一樣的答案。

這個驚人的實驗結果告訴我們,即使拋開人類基礎的認知邏輯,應用下意識的第一反應,也能夠和機器得出相同的結果。看來神經網路黑箱中對於人類經驗提煉的深度,或許遠超我們想象。

對抗對抗性圖像:當人類開始理解機器

這個實驗的意義,當然不是為了告訴大家其實我們都是機器人,而是教會了我們如何應對機器視覺可能犯下的錯誤。在機器視覺認知模式的固有弊端下,很可能會形成很多可供鑽空子的漏洞。例如當自動駕駛識別公路上的交通標誌時,一個小小貼紙就可能讓視覺系統產生錯覺,把交通標識識別成突然出現的行人來個急剎車。

為了解決這種可能出現的情況,通過理解機器思維並進行逆向拆解或許是個不錯的方法。

從實驗中我們可以看出,即使是毫無邏輯的圖案和紋理,人類也可以通過聯想能力對這些圖片進行更高級的認知和處理。實驗中人類和機器進入了同樣的情景,面對幾個分類選項做選擇題。而這種分類選擇或許就是讓機器陷入錯誤的關鍵。

真不是愚人節新聞:使用下意識時的你,與AI無異

另外一點則是,人類可以很清楚的識別出對抗性圖像。例如:故意斑駁讓人難以辨認數字圖案,以及特徵十分明顯的花哨貼紙。那麼說明這些對抗性的圖案也擁有自己的「對抗性特徵」。

雖然面對這種情況,最理想的方式是放棄卷積神經網路,應用認知計算真正讓人工智慧建立在一個更完整的世界觀上進行識別。但在認知計算獲得突破之前,我們或許可以尋找一些替代性的解決方案。

例如:我們可以在一些安防、自動駕駛等等關鍵場合之中,特意生成對抗性樣本讓人類進行標註,在汽車、行人這些常規分類中多出一個「對抗樣本」分類,讓卷積神經網路可以識別出來這些搗亂的圖案。

對於那種動幾個像素點就可以改變機器認知的情況,很有可能出現在數據流通途中的壓縮產生的失誤,我們可以尋找使得機器認知結果改變的壓縮規律,反向從源頭組織失誤的發生。

在愚人節這個日子裡,發現「人類與機器有著十分相近的思維模式」這一新聞,聽起來似乎像個笑話。但或許我們引以為傲的「人類意識」,根本並沒有那麼複雜,最終會與機器思維以一種出乎意料的方式相遇。

但在相遇之前,我們還是應該用人類思維與機器人思維之間的相似性,來解決現實生活中的問題。

 

作者:腦極體,微信公眾號:腦極體