人工不智能,AI產品經理要幫助用戶認清這一現實 | 人人都是產品經理

編輯導語:現在,人工智慧現在已成為技術發展的主流,並且正在影響著大家的生活,彷彿一夜之間,所有東西都開始和人工智慧沾起了邊。然而,人工智慧真的是完全智能的嗎?事實並非如此,人工智慧技術的主導者是人,有人參與,就必然有主觀意識的存在。假如我們不解決人的問題,那麼技術終究不能解決真正的社會問題。

我為什麼要寫?

在人工智慧教育領域已經兩年多了,隨著人工智慧項目落地逐漸增多,工作內容也逐漸加大。

就比如除了做產品,也要負責人工智慧教室的落地培訓。比較大的培訓就是萬州區的項目,兩次集中培訓包含了50多所中小學,近300名教師。

在給老師們講教育產品的之前,我一般都會講一下人工智慧的價值觀念。就像我們從小學習「八榮八恥」「弟子規」一樣,不只要學習知識,更要學習價值概念,樹立一種正確的人生觀和價值觀。

做AI產品經理也一樣,在和客戶溝通之前,讓他樹立正確的價值觀念,形成「批判性」的思維,幫助他認清「人工不智能」這一現實,不要再天馬行空的要解決方案了。

接下來,我們就用批判性的思維,來講一下人工智慧的價值觀念。

我的觀點是什麼?

相信你已經聽過太多有關人工智慧的話題,比如:人工智慧將會改變世界,人工智慧將會讓大多數人失業等等。其實,數據和演算法掌控一切的未來,離我們還非常的遙遠,我們都高估了人工智慧。

我向大家推薦一本書《人工不智能(2018-4出版)》,這本書的作者是布魯薩德,哈佛大學人工智慧專家。

他之所以寫這本書是,並不只是帶大家認清人工智慧發展的現狀,來告訴大家人工智慧並沒有想象中那麼好,而是因為人們過分依賴計算機演算法,反而帶來了一系列社會問題,所以他做的是帶大家樹立正確的人工智慧價值觀。

我是怎麼樣論證我的觀點的?

第一部分:高估人工智慧會產生什麼樣的社會問題?

第二部分:自動駕駛技術到底有多難?

第三部分:現階段人工智慧的社會化應用的根本矛盾是什麼?

一、高估人工智慧會產生什麼樣的社會問題

現在有一種情緒叫做「技術沙文主義」,認為一切社會問題都可以用技術解決,特別是可以用計算機技術解決。而作者認為,包括人工智慧在內的所謂的新技術,其實並沒有解決真正的社會問題。

他在書中舉了一個例子,美國教材分發的問題。

教材分發會出現什麼問題呢,因為美國和中國的教育體制是不一樣的。中國的教材是由國家統一出版的,價格還便宜。而美國的教材是由私人公司出版的,價格很高。比如一本中學生教材就要114.75美元。

政府的教育經費往往有限,有時候分到學生頭上的教材費可能只有30多美元,這樣一來就存在了很大的缺口。

而且自己買教材的辦法也不可行,因為沒有這個渠道,盜版的都沒有。

因為中小學教材都是由三大公司出版的,直接供貨到學校,同時考題也是這幾家公司出。換句話說就是你用這家公司的課本,然後用這些公司的考題,一條龍服務,一年幾十億美金的生意。

當然有些看似能用技術解決的問題,也解決不了。比如有時候費用到位了,書也買了,但是卻被放置在學校的倉庫里,沒有發到學生手上。

他就就找到了區教委,區教委說他們有個中央資料庫,有各個學校訂購教材的數據。

把這個數據拿過來,結果一看,很多學校訂購的教材和學生人數都對不上。

因為經費有限,人手不夠,有些校長需要親自管理教材,有的校長不願意使用資料庫系統,自己就弄了個表,很難和別人分享,最後就有一大堆問題。

數據技術再先進,最初的數據錄入也是由人來完成的。如果校長根本不願意錄入數據,老師根本不清楚自己班需要多少教材,再先進的技術又有什麼用呢?

教育本質是因人而異的、混亂的、動態的系統,而公共教育系統,是一個統一的、標準的、最好是不變的系統。

蓋茨曾經做過標準化大綱和教材,但是不同區的學生水平差異很大,用一個標準不合理,學校沒有自由度。所以就在發教材這件事上,計算機人工智慧就不能起到很好的作用。

因為計算機和人工智慧擅長解決的是工程問題,工程問題要求定義良好,而複雜的社會問題恰恰是不能定義良好的。

二、自動駕駛技術到底有多難

現階段的人工智慧,都有一個根本的弱點,就是高度的依賴數據,都是對過去經驗的總結,他們沒有辦法預測「沒見過」的事情。

它適合最常見的,最簡單的,不變的應用場景。一旦遭遇變化的場景,就面臨各種問題,比如「自動駕駛汽車」。

零級,代表完全沒有自動化,就是人開車。

  1. 一級,是指計算機在某些時候、某種程度上可以給提供一些輔助性的幫助。像自動判車、保持車道、停靠輔助系等等。
  2. 二級,是有的時候汽車以自己開,要求人一直盯著,特斯拉已經做到了這個級別。
  3. 三級,是說人可以不盯著就讓車自己開,但是如果車向你發信號,你要隨時接管駕駛。
  4. 四級,是指在某些環境和條件下,實現自動駕駛,人去睡覺都沒問題。
  5. 五級,是完全的自動駕駛,不論什麼天氣和路況人都不用管車。

至此,任何一家都沒超過二級,有些專家認為五級自動駕駛永遠都達不到,因為人工智慧處理不了意外。

比如說你看見一個殘疾人,坐著電動輪椅,在路中間追逐一隻鴨子,鴨子轉圈跑,她也繞著轉圈跑。

這種情況就能一下子準確預測這些人的行動路線嗎?自動駕駛都是靠激光打到各種東西再反射回來,可是如果在下雪或者下雨,激光機就可能打到雪花或者雨滴上反射,對周圍物體有較大的誤判。

另外自動駕駛還涉及到了一個道德的問題,假如你剎車失靈,前邊有一群小學生,還有一棵樹,你是選擇撞一群小學生還是選擇撞一棵樹?

我們說過人工智慧是依賴於數據積累的。Google一直都在積累數據,演算法都是現成的,真正值錢的是數據,誰掌握了數據,誰的自動駕駛技術才有市場。

人工智慧也有很大的局限:第一,不安全;第二,不道德;第三,他不能促進商業平等,它只會讓強大的公司變得更強大。

三、現階段人工智慧的社會化應用的根本矛盾是什麼

美國對罪犯開發了一個演算法,叫做COMPAS,專門判斷一個犯人再次犯罪的可能性大小。有一個評分標準,從1到10,分數越高,代表將來犯罪幾率越高。

打分的原理也是採用大數據,根據以往的經驗,考察若干個關鍵指標。演算法給了1分的人,犯罪幾率只有22%,打10分的人,犯罪率高達81%。

但是有人對這家公司提出了種族歧視的指控,我們都知道預測的都是概率,哪怕是打了5分以上的分數,犯人也不一定會再次犯罪,如果一個犯人明明沒有再犯罪卻打了高分,那麼就等於被冤枉了。

而同樣後來沒再犯罪的人,黑人被打高分的可能性是42%,而白人只有22%,就是說演算法還是歧視了黑人。

其實這個矛盾在生活中普遍存在,比如上海,基本不存在重男輕女的情況的大城市裡,女生的考試成績比普通男生好。

那如果這個規律,為了提高學校的總體成績,在高一入學的時候盡量多錄取女生,這不就是對男生的歧視嗎?

這就是一切基於經驗的決策的本質缺陷。人工智慧再厲害,只要是基於經驗的,只要是預測達不到100%準確率,就一定有人被冤枉。

醜小鴨定理說,一切分類都是主觀的,有分類就會有歧視,此事古難全。人工智慧為我們的決策提供了很大的方便,但社會還是這個社會,數學還是同樣的數學,人工智慧改變不了問題的本質。

四、總結

當然,我們談起技術進步,通常聽到的都是好消息。比如偏遠地區可以用無人機送貨,解決送貨難的問題。農村可以讓農民看電視學習技術,解決教育資源有限的問題等等。

技術給人們帶來一部分方便,但想要全面解決一個社會問題,那就有些難度了。就算是看似成功的實踐,背後也不知道有多少意想不到的情況。

所以,人工智慧技術的出現,確實經常讓事情更有效率,但寫程序的是人,錄入數據的是人,使用系統的是人,只要有人參與,就有主觀意識的存在。

所以不解決人的問題,技術終究不能解決真正的社會問題。