為什麼說誰掌握了人工智慧誰就掌握元宇宙? | 人人都是產品經理

編輯導語:元宇宙,主要能夠突出VR視頻和交互技術,它和AI碰撞在一起會是怎樣的呢?而本篇文章中作者結合多種實際案例來闡述元宇宙跟AI結合會碰撞出怎樣的火花,歡迎感興趣的小夥伴們一起閱讀分享~

今天想跟大家聊一下元宇宙跟 AI 結合會碰撞出怎樣的火花。

元宇宙,正如我們之前的視頻所說,就是以VR為媒介的下一代互聯網,突出VR視頻和交互技術成熟帶來的極致臨場感和沉浸感,無限模糊真實和虛擬,拉近人與人之間的距離。

它與AI人工智慧的結合可能大家一下就會想到一些科幻電影,比如當年還是沃卓斯基兄弟的沃卓斯基姐妹的傳世經典《黑客帝國》系列,再比如去年的那部《失控玩家》。

在黑客帝國裡面,AI統治了地球,人類的意識被禁錮在了虛擬世界當中,肉體則成為了培養倉當中的生物電池。各種功能的AI不但無所不能,而且還在虛擬世界里突變進化。

比如大反派特工史密斯,作為有思想的殺毒軟體,就在虛擬世界的數字信息海洋中,不斷學習進化,逆襲了母體,甚至進入了現實世界。

而在失控玩家當中,遊戲裡面的NPC Guy某一天突然產生了人類一般的自我意識,脫離了他被設定好的那個角色開始在虛擬世界翻雲覆雨,還跟現實當中的女主談起了戀愛。

也就是不管是在AI虛擬世界帶來人類末世這種黑暗結局,還是遊戲NPC產生人類最珍貴的美好情感這種光明結局當中,至少在兩個點上,電影的創作者們達成了共識:

  1. 一是虛擬世界會因為AI的存在變得豐富多彩,並且具備一定的脫離人類自我發展迭代的能力
  2. 二是AI在脫離現實世界的束縛之後會變得更加的強大,甚至反過來影響現實世界

所以類似這樣的未來是否會成為現實呢?

01

在深入探討之前,我覺得有必要先簡單地聊一下現在我們稱之為AI的那個東西他本質上是個啥,不然空對空說它能幹什麼不能幹什麼就有點尬了。對AI非常熟悉的朋友可以忽略這段。

大家印象比較深刻AI應該是2016年3月擊敗李世石的Alpha Go,它就像一個神話故事中的水晶球,只要把現在的棋譜告訴它,它內部不知道怎麼計算了一下,就能輸出必然贏得比賽的落子策略,把傑寶之類的人類高手都打哭了。

在Alpha Go之後,短短几年之間,AI擴展到了我們生活的方方面面。我們現在刷的視頻大概率是AI推送的,很多視頻裡面的配音都是AI配的,我們買的東西是AI推薦的,我們電腦顯卡手機GPU是AI加速的,張學友演唱會逮捕逃犯是靠AI識別的,連現在這段BGM都是AI譜曲的。

而正如晶元有它的基本單元,也就是可以輸出0和1的晶體管一樣,AI也有它的基本單元,叫做感知機。

02

1957年,康奈爾大學的心理學家兼工程師弗朗克·羅森布拉特受到神經細胞的啟發,提出了感知機的構想。

神經細胞的形狀呢非常的「支棱」,除了那一坨細胞主體之外,它的外壁有很多樹杈狀的短突起,叫做樹突,還有一根長長的「尾巴」叫做軸突。

樹突的作用是接收外部輸入的各種刺激,形成生物電,這些生物電經過整合后,一旦超過某個閾值,就會經由軸突傳導,並在末端分泌神經遞質,將信息傳遞給下一個細胞,否則就不向下傳遞信息。

所以神經元細胞的輸出只有兩種狀態,用數學表示就是「0」或者「1」,然後人腦有超過一百億個神經元組成一個神經網路,前面的神經元輸出作為後面的神經元輸入進一步處理,不斷反覆,最終實現人類的智能。

參照了輸入,處理,分類,輸出四個步驟,感知機就模擬出了類似的結構。

每個輸入信號乘上對應的權重,對應著樹突的刺激輸入,累加這個函數符號模擬了神經細胞整合生物電的過程,激活函數則判斷累加值是否達到閾值,比閾值大,就輸出1,否則輸出0。

類似於看到一隻貓,我知道它是貓,這對我來說是廢話,問題是我不知道我是怎麼判斷的。那我猜想,肯定是眼睛看到貓的一瞬間,採集了大量的信息點,比如它的大小,它的花色,它的臉型,它的尾巴長度等等等等,然後我的大腦經過一瞬間綜合考慮,覺得它是個貓。

那隻要這些信息點,都是具體的可以衡量的類似大小,色號這類可數據化的參數,就可以轉化為計算機的輸入信號,而這個調權重加總的過程就可以類比為我腦子裡那一瞬間的綜合考慮,最終作出一個它是不是貓的分類判斷,輸出一個0或者1的數。

說白了感知機就是對於人類神經細胞的一個模仿。

那具體是怎麼操作的呢?

03

比如,我們看到一個人的照片,要判斷一下它是不是我,那你足夠細的話,完全可以找出一萬個我這個人的特徵。但為了便於討論,讓我們姑且通過臉方的程度、頭大的程度兩個指標用數字錶示,讓感知機去判斷。

比如設定完全圓臉是0,臉方得跟我的世界裡面人物一樣是1;比如完全沒有頭是0,頭跟大頭兒子一樣大是1。

分別把這兩個輸入當成平面坐標系的兩個軸,找一些人的照片,記錄他們是誰以及臉型、頭的大小這些量化指標,放到坐標系裡面。

那很顯然,我們可以劃一條線,把我跟類似周冬雨這樣的人大概率地區分出來,因為我都頭比較大臉也比較方,像周冬雨這樣的女明星恰恰相反。

對於計算機而言,這條線就是ax+by+c=0。

如果加權求和出來的結果大於零就在線上方,就是我,如果小於零,就是周冬雨。

當然,現實當中我們不可能只用兩個參數來判斷這個人是誰,要做出更精確的判斷還需要很多維度的輸入,比如體型、五官、化妝等等。

引入化妝這個維度,坐標軸就變成三個,成為了一個三維空間坐標,那根一分為二的線也變成了一個平面。

繼續引入第四個、五個輸入的話就有點無法想象了,只能通過數學的形式來表現,叫做超平面,不過沒有關係,這對電腦不是問題,它還是可以通過公式計算,把一個多維空間一分為二。

乍看起來有點弱智,但這個感知機的精髓就在於它不用我去告訴它該把線畫在哪裡,它可以通過所謂的「學習」來自己找到準確的畫線位置,這就是它跟以往的所有機器或者工具不同的地方。

還是之前那個是我還是周冬雨的問題,在沒有樣本點輸入的情況下,我可以先在平面上隨便畫一條線,然後規定這條線上方是我,下方是周冬雨。

但輸入了實際的數據后發現直線上方居然出現了周冬雨的照片,比如她某些角度看起來臉比較方,那不行。於是我們就可以把這條線往上抬一點。再看一下所有點的分佈,再進行判斷,如果還不行再挪一下,再判斷,以此類推,直到所有照片都能正確分類,感知機逐漸就精確了。

從計算機的操作來看,挪動直線這個動作就是調整輸入權重abc的過程。

比如在這台感知機中,我們就可以計算分類錯誤的點到直線距離的和的函數,這個函數是跟權重參數也就是那個a、b或者c相關,叫做「損失函數」,越大說明錯得越離譜。

就比如損失函數隨著臉型對應的權重參數a的變化是這樣的。

那有一種挪動的方法就是,假設現在權重在大寫的A這個位置,我們每次就移動A點的導數乘以一個事先規定的值,這個值叫做步長,然後重複這個過程,直到所有照片都能夠被正確分類,我就是我,周冬雨就是周冬雨。

因為是參考結果往前推導「輸入的權重」,所以這個方法也叫做「反向傳播」。

但是上世紀五六十年代,由於硬體算力的限制和網路結構的過於複雜,當時這種自我學習理論還無法實現,真正反向傳播演算法的提出還要等很久。

現在回過頭來看,感知機毫無疑問是二十世紀乃至於人類歷史上最偉大的發明之一,因為它終結了機器只能機械執行人類具體指令的時代,開啟了機器會自己想辦法完成主人任務的時代。

但是感知機的理論在當時卻遭到了另一個人工智慧大佬馬文·明斯基的強烈反對,明斯基還特意寫了一本叫做《感知機》的書來抨擊羅森布拉特,認為他的研究沒有什麼價值。

當然明斯基有羨慕嫉妒恨的嫌疑,但他的攻擊也算是有理有據:

他認為感知機的原理過於簡單,無法解決一些問題,比如「異或邏輯」。

04

異或邏輯問題說起來很麻煩,但實際上就是,這個世界上並不是只有我和周冬雨這兩種人啊,還有馬雲呢,馬雲臉比我還方但頭沒有我大,還有雷佳音呢,甚至於,還有姚明呢,姚明是真的很大而且很方啊。

很顯然如果讓感知機去畫一條線,是沒有辦法把我跟這些個臉型和頭的大小各異的人都分出來的。

現實是複雜的,是沒法簡單地一分為二的,明斯基指出了最關鍵的地方,這一波嘲諷效果拔群,導致以感知機為起點的人工智慧研究停滯了大約30年。

上世紀7、80年代,隨著信息技術的發展,大家逐漸發現,雖然單個感知機能力有限,但我再加兩個感知機,等於多畫兩條線,不就行了嗎?

只要感知機層數夠多,無論多複雜的分類問題,不斷用反向傳播演算法進行訓練,就能得到最優解。

並且,我們需要注意到,解決了分類問題並不意味我們只能做分類,其實基於分類可以解決很多很多問題。

比如判斷和分類,邏輯上就是一回事兒。

智能攝像頭判斷門口來的那個人是不是公司的同事,判斷一個路過的人是不是某個新冠患者,就是分成是和不是兩類唄。

在規則明確的情況下,對於接下來發生的事情進行預測,其實本質上也是分類,下棋的話分為這樣下下去是會輸還是會贏唄,掃地的話分成有沒有掃過、會不會撞牆唄。

有了預測了之後,就可以進行決策了,掃地,下棋,推薦,甚至指揮調度,都可以了,簡直無所不能啊。

所以,人工智慧在上世紀80、90年代開始進入「多層感知機」時代,當時的人工智慧在理論上已經非常強大,可以解決大量的問題。

但它還是受到兩個關鍵因素的制約:

  1. 一個是系統的算力,也就是動輒幾千萬參數的反向傳播演算法需要巨量的算力;
  2. 另外一個是數據,也就是需要大量打好數據標籤的類似我的照片周冬雨照片這樣的東西作為人工智慧學習的資料。

搞定了這兩項關鍵資源人工智慧才能真正上路!

05

從1965直到2016年以前,晶元算力都在隨著摩爾定律呈幾何倍數增長,而最近20年互聯網產業蓬勃發展也帶來了數據量的爆炸式增長,人工智慧的發展有了肥沃的土壤。

另外,科學家也開發了一系列的方法去處理這兩個問題。

深度神經網路,卷積神經網路,蒙特卡洛樹等等都是試圖用更小的算力處理更複雜的問題。

比如深度神經網路,就是把我們能提取到的信息點,根據不同的維度,分成更多的層。

比如要分辨一個人,從單個五官,眼睛鼻子嘴各有各的特色,五官又組成了一張臉,臉、身體、四肢又組成了一個人,我們把這些特徵分成不同的層不要混在一起計算,會提升系統的效率。

就比如為了把我跟姚明區別出來,如果把何種參數混在同一層計算有可能你會發現我跟姚明還挺像,但只要把代表體型的那些參數單獨拎出來,那就一點也不像了。

再比如所謂卷積神經網路。卷積計算是一種可以從矩陣中提取某些特徵值的運算,我當年上大學的時候對這玩意兒印象很深刻因為它手算起來特別麻煩,到底是哪個人發明了這種東西那麼無聊,後來發現它還真挺有用。

就比如我們按照片去分辨兩個人,那首先我們比較的是兩個人吧?你人工智慧分析半天在比較後面的背景那算力就完全打了水漂了。

同理我們智能停車場識別車牌號得先找到車牌在哪裡吧?智能商場識別顧客得先找到人在哪裡吧?這是一項我們人類天生就有的能力,找重點的能力。

那如何讓計算機也擁有找重點的能力呢?我們就可以引入一個所謂卷積核,一般是個3*3、5*5、7*7像素的矩陣,用它從頭到尾掃描圖像,把圖像和卷積核對應像素點的數值相乘再求和輸出,就能得到一張提取了某種特徵的更小的圖像。然後再基於這些特徵,去判斷哪些部分是重點,哪些部分是邊角料。

在2012年的ImageNet大規模視覺識別挑戰賽上,一個叫做AlexNet的深度卷積神經網路在對1000種物體進行分類的比賽中獲得了第一名的成績,錯誤率僅為15.3%,比第二名低了大約11%之多,基於卷積神經網路的機器學習演算法一戰成名。

這是人工智慧發展歷史上的里程碑事件,卷積神經網路是一種通用的提升算力利用效率的技術,它現在基本上是人工智慧的標配了。

而所謂蒙特卡洛樹搜索,也是一種判斷哪裡是重點哪裡是邊角料的方法,當年跟李世石對弈的那個alpha go的演算法就是基於蒙特卡洛樹,而李世石第四局下出所謂神之一手,其實就是下到邊角料上了,邊角料是神經網路的數據盲區,於是它就亂了套了。

另一方面,人工智慧目前最大的發展瓶頸還是來自於數據,目前相關產業的發展速度基本上就等同於獲取大數據的難易程度,比如智能推薦內容,智能推薦商品這些容易獲取數據的項目現在就特別的成功,像自動駕駛這種就會比較慢一點。

06

有一些方法可以人工的去創造數據來餵養神經網路。

就比如所謂強化學習,就是脫離人類數據樣本,基於環境和規則自己生成數據往下算。下國際象棋就是它有明確的規則,最終的目標就是吃了對面的王,基於這一點去預測接下來最合適的策略,再通過得到的結果和預測值進行比較,優化自身參數,於是就不用輸入太多人類的棋譜了。

在國際象棋中,人類頂尖高手可以預測接下來10步的行動。1997年,當時的IBM研發了一個用來下國際象棋的AI,叫做「深藍」,

深藍可以預測12步,每一步都遍歷了可能發生的所有情況,相當於用強大的算力進行了12步的暴力窮舉,擊敗了當時等級分排名世界第一的加里·卡斯帕羅夫。

當然這個暴力窮舉的方法在目前的算力下,對特別複雜的問題比如圍棋、星際爭霸會相對無力一點。

然後還有多智能體,就是搞兩個或者以上的AI,讓它們自己打自己,捲起來。

結合強化學習和多智能體學習,有時候我們會發現,其實很多人類的經驗並不靠譜,還不如讓AI自己去算然後自己打自己,就比如Alpha Zero的圍棋棋力就完爆學習了人類棋譜的Alpha Go。

還有一個特別有意思的方法叫做GAN,所謂對抗生成網路。如果說之前的AI主要乾的事兒是判斷和決策,在2014年被發展出來的GAN網路則賦予AI比較強的創作能力。

剛才我們不是說可以做一個AI判別網路,去對一類東西進行判斷分類嗎,還可以搞個多智能體,讓幾個AI自己卷自己比誰判斷的准對吧。那我們可不可以換一個思路,讓判別網路去卷一個所謂的生成網路呢?

就比如這樣,我做一個畫圖的生成網路,先給生成網路輸入一些隨機參數,生成網路就會生成一些初始圖片,有點類似於玩遊戲通過數據捏臉的過程,只不過一開始生成網路還很懵懂,生成的東西都是四不像。

然後把我們已有的美女照片和生成的四不像照片都做好標記,用這兩類帶標記的圖像去訓練判別網路的參數,讓它自己學習怎麼畫線,能把美女的圖片和亂畫的圖片分出來。

接下來,生成網路可以根據判別網路給出的結果差距來學習提升,它畫出來的美女就越來越像那麼回事兒了。

於是判別網路的判斷準確率會下跌,逼得它去提升判別能力,它又逼著生成網路生成更逼真的照片去騙判別網路,不斷循環,捲起來。

到最後判別網路分不出來了,它判斷成功概率會穩定在50%,這時候我們說生成網路已經做到了「以假亂真」。

生成網路就像是熱血動漫吊車尾的男主角,判別網路就像是自帶外掛的天才男二,隨著劇情的發展,男主最終能和男二五五開了。

我們甚至還能通過調節生成網路的輸入參數,來對贗品畫作的細節或者風格進行修改。

比如把畫面中的普通馬變成斑馬;或者把我的照片變成抽象派油畫風格甚至梵高莫奈的風格,以及我們喜聞樂見的ai換臉。也就是我們既可以生成劉亦菲的各種角度各種表情,也可以把條件放寬一點,生成劉亦菲這種風格的美女。

而且這個創作能力並不僅限於畫圖哦,寫文章,寫詩,寫劇本,作曲,做動畫都是可以的。

07

到了這一步之後,我們再來看下AI它的能力是怎麼回事,它既可以做判斷,做決策,也可以做創作,那這些正是元宇宙所需要的呀!

之前我們在第一期節目當中說過,在傳統的PC互聯網和移動互聯網當中,其實我們的世界是被降維打擊過的。

無論是生活中去商店裡購物,去跟人聊天吹水,去劇院看戲去茶館聽書,所有這些3D場景都被壓縮成了一張2D網頁或者App頁面,以適應這塊屏幕,壞處是沒有代入感臨場感,好處是實現起來比較簡單。

而在元宇宙裡面,他們將會實現三維展開,對應的工作量也會提升一個維度。

就拿我們最常用的三類app為例,社交:也就是微信,soul;電商:某寶,某東,某多多;以及短視頻;

在元宇宙裡面的社交,咱倆在虛擬世界裡面,面對面聊天,這相對於在一個對話框裡面打字那種社交,是顛覆性的。因為說白了包括我在內,很多比較內向的人,是根本沒法跟一個不熟的人微信打字的,你不知道ta的背景ta的愛好,都不知道開什麼話題啊。

但是只要見了面坐在一起那還是可以尬聊的,尬著尬著就發現,誒好像大家都對最近曼城踢利物浦的巔峰對決很敢興趣,或者大家都對新出的蝙蝠俠很感興趣,這就聊起來了呀,甚至可以開個電影邊看邊聊。

但前提是,我得有一個我的形象吧?而且得是一個放在元宇宙場景裡面並不違和的比較精細的,就好像老黃髮布會那樣的虛擬形象吧?你也得有一個你的形象吧?

如果是正式場合商務會談的話,我可能就得用一個跟我現實中的形象比較接近的頂多稍微美顏一下的形象,在家裡就沒必要那麼正式了,喜歡什麼形象都可以,比如可以是蝙蝠俠,在一些別的場景下,比如一起去打仗,那我就可以是一個巨型機器人。所以每個人需要好幾個不同的形象吧。

那像這樣的比較精細的人物模型都是畫圖師用Zbrush Blender扣幾個月才能扣出來的,而且很貴,便宜的也要幾萬,那些精緻的虛擬網紅比如柳夜熙那是花上百萬打造出來的,就連好一點的遊戲捏臉師傅都要大幾千。假如十年之後全球有20億人登陸元宇宙,平均每人要有十個形象。

那這兩百億的形象怎麼做啊?

再說元宇宙裡面的電商,那真的是一家店,它不是一個頁面哦,而且比如我要用我的虛擬人在元宇宙裡面試一雙鞋,大致試一試肯定是沒有意義的,因為我得靠這個決定要不要買啊。

像現在得物的那個AR試鞋功能那樣是沒有用的,那是什麼玩意兒,我本來看著一雙鞋覺得挺好的,用那個一試就不想買了。

所以不是隨便試一試那麼簡單,我這個虛擬人的腳的尺碼、腳的受力結構得是跟現實中的我的腳一樣的,同理鞋也要一樣,這樣才能試出合不合腳好不好看。

那這麼多深度的數字孿生人和商品,誰來做啊?

再比如說短視頻。現在的移動互聯網時代,我們這種短視頻用戶主要優點就是勤奮好學,學穿搭、學瑜伽、學化妝、特別是喜歡學跳舞。我想人性的這個需求應該不會隨著平台的變遷而發生太大的變化。

那元宇宙裡面怎麼學跳舞呢?其實就是你坐那兒然後那個dancer在你邊上跳唄,然後你可以語音交互「換一個」,然後就換了。

這不僅是人要換哦,跳舞那個場景是不是也要換啊,什麼場景裡面的擺設,場景里的貓貓狗狗也要換啊。我們每天刷那麼多短視頻,那麼多場景,那麼多擺設,那麼多貓貓狗狗怎麼做啊?

只能靠AI,元宇宙裡面的這些高級基礎設施只能靠AI才能完成啊。

08

然後就是,當我們在元宇宙裡面有了非常精細的3D形象之後,當像商店,咖啡廳,遊樂場這些場景都實現了三維展開之後,那這些地方的服務人員、NPC他們得像人才行吧?如果人的形象非常真實場景也無比自然,你湊上去跟一個美女打招呼結果她頭上突然彈出一個對話框,這就太齣戲了。

所以在元宇宙裡面我們需要非常像人的AI來提供各種服務。

而這些都正在發生。

比如這個「此物不存在」網頁當中,這些貓,這些房間,這些人像,你打開這個網頁就好像在看一些人的自拍照,唯一的區別是這些人是AI生成的,他們並不存在於我們的世界。

當2D的人物、場景和物件的生成可以被完美實現的時候,其實3D也就不遠了,比如這個PIFuHD演算法 ,可以直接從2D圖片生成真人的3D模型,並自動補全背面的信息。

但這還不夠,到這一步你得到的小姐姐也只是個雕塑而已,得讓她動起來呀。於是,就有了I2L-MeshNet,可以從2D圖像生成人物動作相關的骨骼和3D建模,導入動作參數,於是小姐姐就真正來到了你的身邊。

這還不是終點,因為我們的元宇宙虛擬小姐姐還得多才多藝,更要會互動才行,也就是要實現類似失控玩家裡面的效果。

有幾個朋友在做一個項目叫做RCT-AI,是一個北京的團隊,他們在做一個事情就是用AI去自動生成遊戲裡面的人物腳本,比如這個「搶銀行」的Demo。AI會學習自行判斷的如何配合玩家,有時會很慫,有時則會跟劫匪硬剛到底。

配合玩家?如果換一個場景,訓練一個女僕或管家型的AI是不是變得可行了呢?

實際上,在服務型AI方面,OpenAI公司的GPT-3,現在不僅可以和人聊天,甚至還能按照人的要求寫代碼。

也就是若干年以後當我們在元宇宙裡面創作的時候,我們大概率扮演的是一個導演或者宏觀設計師的角色,那些具體的工作將由AI完成。

而今天的動畫遊戲作品中,與一個紙片人小姐姐、小哥哥交往,你還需要腦補,但當你明白今天AI的發展程度,就會發現,你所幻想的一切獨一無二的美好,正在通過一行行代碼,走近現實。

這就是為什麼AI毫無疑問是支撐元宇宙的基礎設施之一,如果沒有AI去輔助人類製造各種數字產品以及擔當NPC,元宇宙的應用場景,元宇宙的豐富程度勢必受到嚴重的限制。3D區不能沒有蒂法,也不能只有蒂法。

而且我認為更有意思的是,元宇宙也會成為AI起飛的重要推力。

09

剛才我們有講到,AI是需要大量數據去餵養的,現在AI產業發展遇到的最大障礙就是,容易獲得大數據領域實在是太有限了,那些不容易獲得大數據的領域即便有巨大的需求也會發展緩慢,比如自動駕駛汽車。

我們固然可以用計算機模擬去訓練自動駕駛演算法,但這裡面缺乏一個關鍵的因素,那就是人。就算我們可以完美的模擬路況和車況,路上別的司機行人的各種奇葩舉動怎麼模擬啊?

而元宇宙不僅能提供更大的數據量,更關鍵的是它是有大量人類生活在其中的3D虛擬世界。在這樣的一個世界AI的應用場景會被大大拓寬,然後現實世界當中的AI產品就可以用元宇宙版本先跑到80分,再去現實中進一步發展。

就比如大家知道我們在3D電影和遊戲當中用到的人物表情是個很難做的東西,要做到鮮活真實,就得做真人表情採集,就得找演員用專業設備專業團隊,否則就會很假。

而到了元宇宙裡面,我們天然就有用虛擬人去呈現自己的表情去嬉笑怒罵的需求啊,在之前的節目中我們說過,facebook的下一代VR一體機設備Project Cambria有內置的表情感測器,於是乎facebook將獲取所用用戶表情的大數據。

在這裡我可以下一個判斷,在Project Cambria發售一年之內,AI虛擬人表情假這個問題將會被徹底的解決。

再比如剛才說的自動駕駛,在元宇宙裡面我們可以舉辦公路拉力賽,把場地設定在北京城,然後觀眾可以走到賽道上,可以往賽道上扔東西,甚至可以把自己家的車開上賽道,這個場景下訓練出的自動駕駛AI應對突髮狀況的能力絕對炸裂。

我之前跟一個做自動駕駛的朋友提過一個廣告營銷的策劃,就是你別像馬斯克那樣整天推特上說自己的AI出事故概率是人類的五分之一十分之一,這沒用,大家不會信的。

你乾脆拍一條廣告,在一個漆黑的雨夜,主角的豪華轎車緩緩駛入一大片陰森的城區,這時候暗中埋伏的幾輛車突然亮起車燈,敵人要開車撞死他進入一段追車戲。

但是撞了半天發現主角的控車技術太靈活,根本就撞不到,只能眼睜睜看著他突圍而出。最後主角的車行駛到陽光燦爛的開闊公路上,鏡頭拉近發現駕駛座上竟然沒有人。這時候屏幕中間出現他們公司的logo。

如果自動駕駛AI能做到這樣,那用戶自然會明白,我們安心玩手機就可以了,開車不是我們該管的事兒。

再比如其實很多人都很想要那種非常接近人類能幫我們干各種活的通用型AI機器人,就好像銀翼殺手裡面的高司令那樣,但是在現實當中這種機器人不僅受到智能水平限制,還受到硬體水平的限制,說白了就是它的身體也實現得不好,波士頓動力花了30年才讓機器人能像人一樣走路。

在元宇宙裡面就沒有這個限制了,機器人只需要一個模型和一些代碼就能行動自如,到時候再把訓練好的AI導出來裝在現實中的機械軀體上,人與機器的界限就徹底模糊了。

元宇宙作為下一代互聯網,人類信息技術手段的集大成者,傳播與生成的數據勢必呈指數級增長,AI也將受益於這樣的數據海洋,進化速度遠非今天可比。

我經常聽到一種說法,就是人工智慧它只能做一些機械式的操作,而人的想象力創造力是人工智慧無法取代的。

聽完我剛才的分析大家也能看出來,這個說法是完全錯誤的。

10

事實上無論是掃地擰螺絲這種機械式的勞動,還是下棋打遊戲這種競技運動,亦或是畫畫譜曲這種創造性工作,充分發展之後的人工智慧幹什麼都會比人類幹得好,而且是多快好省,全方位的優勢。

如果說我們做事情的套路是先形成慾望,然後在我們所掌握的能力或者資源範圍當中去尋找滿足這種慾望的方法,最終形成決策,向前推進。

人工智慧缺少的不是任何的能力或者方法,它缺的是左邊這塊,慾望。

也就是說AI無法成為最終的決策者,它提供的只是達成目的的執行力,或者說他只是個工具人,這才是人與AI的根本區別所在。AI做的任何事情背後都必然有人的推動,哪一天AI真的殺了人,你最終肯定能找到一個幕後的始作俑者。

AI會帶來生產力的碾壓,在AI近乎無限複製的生產力面前,我們現在的那些自動控制技術,什麼996007壓榨工人的操作,都會變成毛毛雨。

AI會帶來戰鬥力的碾壓,在遮天蔽日的智能無人機蜂群面前,再強大的人類飛行員都會成為小可愛。

AI會使得人類變得更加自由,因為它會放大每一個人的能力。同時它也會使怎個社會的價值創造向頭部集中,就是當高端玩家的決策能力被AI無限放大的時候,當你們單位聯歡會都能找張藝謀來導演的時候,低端玩家就找不到活兒幹了。

這也是很多人在提全民基本所得背後根本性的原因,因為對於絕大多數人我們目前理解的那種勞動價值將會不復存在。

人工智慧的發展提速無法阻擋,必然會對社會造成衝擊,而真正重要的是誰能控制人工智慧產業。

就像當年的工業革命,我們現在活著的幾乎每一個人都因為工業革命而過得更好了,但在它展開的過程當中,有些人借著風口扶搖直上,另一些人則成了發展的墊腳石,甚至有些民族直接沒了,作為學習過中國近代史的中國人,我相信大家都明白這是什麼意思。

這就是為什麼AI產業是我們必須要盡全力掌握和領先的領域,而這確實也是我們的國策。在十四五規劃當中出現最多次的專業術語,就是人工智慧,如果我沒記錯的話,出現了18次。

而在那之後會發生什麼,就看我們是否能夠砥礪前行不忘初心了。

 

作者:酷玩實驗室

來源:https://mp.weixin.qq.com/s/MFtaz5efzfCZreDuXuiu3w