當年輕人開始談論AI倫理 | 人人都是產品經理

編輯導讀:AI人工智慧在如今應用得越來越廣泛,但是它引起的爭議也越來越多。在電影中我們常常會看到這樣的劇情,人類過度依賴人工智慧最後被其反殺,成為了它們的「奴隸」。儘管人工智慧要發展到這樣的程度還要很長的時間,但是演算法和人性的對抗已經愈演愈烈。本文作者對此提出了一些看法,與你分享。

賽博朋克的電影里,常常可以看到這樣的構想:

社會已經被財閥集團所控制,人工智慧充當了統治的工具,所有人的行為都要遵循機器的邏輯、服從演算法的規則。然後生活在社會最底層的主角,找到了其中的漏洞並嘗試走出被操控的宿命。

可能在大多數的認知里,類似的反烏托邦世界離我們還很遙遠。但當人工智慧技術從象牙塔走進現實生活,與AI倫理有關的議題逐漸成為學術界爭論的焦點,甚至有一些年輕人也開始思考演算法的倫理和風險。

比如在B站上小有名氣的視頻博主「在下小蘇」製作的一期內容里,對DeepFake、人機戀愛等話題進行了討論 ,諸如DeepFake等黑科技被用來惡搞甚至是作惡的時候,我們對人工智慧應該秉持什麼樣的態度?一旦「技術中立」被越來越多人抨擊,我們應該如何處理新時代的人機關係?

或許AI倫理的概念還有些宏觀,卻是與每一個人息息相關的事。

01 無處不在的演算法歧視

人工智慧離我們並不遙遠。

當你打開資訊應用時,演算法會根據你的喜好自動推薦新聞;當你去電商平台購物的時候,演算法會結合你的習慣推薦對應的商品;當你去求職應聘的時候,首先處理簡歷並進行篩選的可能也是演算法;當你去醫院看病就醫的時候,醫生可能會利用某個演算法模型來判斷患病的可能性……

演算法正在以前所未有的速度滲透到我們的生活中。在支持者眼中,演算法可以在一些決策中減少人為干預,進而提升決策 的效率和準確性。可從批判的角度出發,演算法是否帶有人為的偏見,人們的命運是否會被演算法左右?

遺憾的是,演算法歧視現象往往是演算法落地應用的衍生品。

亞馬遜曾在2014年開發了一套「演算法篩選系統」,目的是在招聘的時候幫助HR篩選簡歷,開發團隊打造了500個演算法模型 ,同時教演算法識別50000個曾經在簡歷中出現的術語,然後對應聘者的不同能力分配權重。

最後開發團隊卻發現,演算法對男性應聘者有著明顯的偏好,如果識別出簡歷中有女子足球俱樂部、女子學校等經歷時,就會對簡歷給出相對比較低的分數。這個演算法模型最終被路透社曝光,亞馬遜也適時停止了演算法的使用,令人深思的卻是:為何「沒有價值觀」的演算法開始有了偏見?

無獨有偶,2018年IG奪冠的喜訊讓互聯網沸騰的時候,戰隊老闆王思聰隨即在微博上進行抽獎,結果卻出人意料:獲獎名單中有112名女性獲獎者和1名男性獲獎者,女性獲獎者比率是男性的112倍,而參與用戶的男女比率是1:1.2。

於是不少網友質疑抽獎演算法的公平性,甚至有網友主動測試抽獎演算法,將獲獎人數的設置大於參與人數,仍然有大量用戶無法獲獎。原因是這些用戶被演算法判定為「機器人」,意味著在任何抽獎活動中都沒有中獎的機會。

在演算法的黑匣子面前,我們看到的大多只有結果,卻無法理解決策的過程。與之相似的案例可能比比皆是,不過是鮮有人關注罷了。

最直接的教訓就是互聯網,矽谷自由的法度誕生了互聯網,以至於一些原罪被人們選擇性忽略,最終在20多年後出現了一輪輪對互聯網的批判。正如紐約時報在《減少互聯網是唯一的答案》一文中,將互聯網歸結為帶有集權主義意識形態的技術,互聯網企業被形容為一群驅使著技術的「邪惡魔王」。

對互聯網的批判大概率不會讓人們減少互聯網的使用,卻給出了一個思路:為何互聯網會從萬眾仰慕的行業淪為過街老鼠,倘若演算法的應用和演算法歧視現象不被制約,又將在未來某一天掀起多大的波瀾?

02 根源在於人性的偏見

當然,演算法的「偏見」並不缺少合理的解釋。

一種說法是將機器學習結果的偏見歸咎於數據集偏見,而非演算法偏見的「技術中立」。比較知名的支持者就有被稱作「卷積神經網路之父」的楊立昆,比較常見的論證是:如果某人持菜刀砍了人,難道是菜刀廠商甚至「菜刀本刀」的錯?

另一種解釋是數據量太小,當演算法學習的數據量越大時,演算法的錯誤會越少,而且結果會越趨向於精準。即使可以開發出一套篩選系統,將不帶偏見的數據輸入給演算法,也無法達到絕對的公平。畢竟「主流」永遠擁有更多的數據,演算法最終會偏向於大多數,對「非主流」產生所謂的歧視現象。

兩種說法其實講了一個相同的道理:計算機領域有個著名的縮寫是GIGO,即Garbage in, Garbage Out。翻譯成中文的意思是,如果輸入的是垃圾數據,那麼輸出的也將是垃圾的結果。演算法就像是現實世界的鏡子,可以折射出社會中人們意識到或者無意識的偏見,如果整個社會對某個話題有偏見,演算法輸出結果自然是有歧視的。

德國哲學家雅斯貝爾斯曾在《原子彈與人類的未來》寫道:「技術本身既非善,亦非惡,但它既可以用於善,也可以用於惡。它本身不包含任何觀念:既不包含完美的觀念,也不包含毀滅的邪惡觀念;它們都有別的源頭——在人類自身之中。」

也就是說,演算法歧視的根源其實在於人性的偏見,「演算法中立」之流的觀點本質上是對人性偏見的掩飾,也恰恰是人工智慧讓人恐懼的地方 。

任何一項技術的出現,都有「工具性」和「目的性」兩個維度,選擇權其實留給了人類自身。然而人性往往經不起考驗,無法想象當「工具」交到人們手中又缺少節制的時候,將會做出多大的惡。

就像「小蘇」在視頻中提到的DeepFake演算法,2017年亮相時就引起了巨大的轟動,一位名為Deepfakes的用戶將神奇女俠扮演者蓋爾·加朵的臉換到了一部成人電影女主角身上,以假亂真的效果引發了巨大的爭議。

由於DeepFake演算法的出現,原本只有專業電影製作機構才能完成的任務,普通人經過一段時間的學習也能掌握,就像是一頭衝出籠子的野獸:加彭總統Ali Bongo利用DeepFake合成的新年致辭,意外引發了軍方的兵變;有人用DeepFake合成馬來西亞經濟部長與男性在一起的視頻,給政府造成了不小的煩惱;在世界上無數隱蔽的角落裡,有人利用DeepFake進行欺詐勒索……

在這個「演算法無處不在」的世界里,我們該如何自處?

03 把野獸關進鐵籠子里

作為新時代的「火種」,我們可能無法拒絕人工智慧。

因為人工智慧的應用,質檢線上的工人無須再盯著強光下的產品用眼睛尋找瑕疵;因為人工智慧的應用,基層的醫生也可以根據病人的檢查結果做出準確的病情判斷;因為人工智慧的應用,一群不會輸入法的老年人也能用語音走進互聯網世界……

不過一切美好的前提在於,先將野獸關進鐵籠子里。

或許可以借用《人民日報》在評論「快播案」時的觀點:技術不但必然負荷價值,而且還有倫理上「應當」負荷的「良善」價值:維持法律與習俗的穩定,遠離破壞和顛覆。一旦違逆了這條原則,任何技術都將被打上可恥的烙印。

言外之意,技術不應該是獨立於現實的烏托邦,科技的崛起離不開必要的監管,在法律法規上劃清技術應用的邊界,為技術中立套上倫理的枷鎖,可以說是人工智慧技術行穩致遠的前提所在。

同時越來越多的學者也在討論代碼與法律之間的關係,擔憂演算法會不會動搖現有人類社會法律的基本框架,並提出了「演算法規制」的概念,一種以演算法決策為手段的規制治理體系,可以理解為利於演算法治理的工具。

而除了這些防禦性的機制,或許還存在另外一種可能:對演算法開發者進行適當的「AI倫理」教育,確定一些演算法的「基本準則」,就像「機器人永不能傷害人類」的鐵律一樣,從源頭杜絕演算法的濫用。

以「在下小蘇」為代表的視頻博主不失為一個切入口。儘管「在下小蘇」的AI倫理節目不排除和曠視合作的嫌疑,可如果一家人工智慧企業願意走進年輕人聚焦的互動場域,以年輕人熟悉的語境和表達方式,向外界傳遞AI倫理的概念和自身的AI倫理實踐,何嘗不是一種行之有效的啟蒙方式 。

目前包括中國社科院、清華大學、復旦大學、上海交大等在內的科研機構與高校,均已經開始進行AI倫理的相關研究。世界人工智慧大會、北京智源大會等行業頂級峰會,也將AI倫理作為討論的議題。在人工智慧普及過程中扮演了領頭羊作用的企業們,同樣應該肩負普及AI倫理觀念的義務,為年輕人上好AI第一課。

早在一百多年前的時候,美國最高法院大法官路易斯·布蘭代斯就曾發表言論稱:「陽光是最好的殺毒劑。」同樣的道理也適用於人工智慧教育,在教會年輕人用人工智慧改變世界的同時,還要讓他們明白善惡、底線和邊界。

沿用前面提到的那個例子,菜刀在設計它的時候就已經標註了它的用途,人工智慧也是如此,應該將其控制在可理解的天花板下,而非放任在失控的黑箱中,AI倫理就是其中的天花板。

04 寫在最後

無可否認的是,伴隨著人工智慧的大規模產業化應用,一些無先例可循的人機矛盾逐漸浮出了水面,以至於找到一種可預期的、可被約束的、行為向善的人工智慧治理機制,成了人工智慧時代的首要命題。

或許無須太過沮喪 ,從鑽木取火的原始時代到計算機時代,人類一直走在學習科技、利用科技、掌控科技的路上,期間雖然走了一些彎路,終究做出了一次次善的選擇,找到了正確的馭火之術。而學習AI倫理的「AI第一課」,恰恰就是規避AI走向惡的一面,理性駕馭AI的正確開始。

當Z世代的年輕人都在討論AI倫理的時候,構建出一套完美的人工智慧治理規則,已經不再遙不可及。

#專欄作家#

Alter,微信公眾號:Alter聊IT(ID:spnews),人人都是產品經理專欄作家,互聯網觀察者。專註於移動互聯網、智能硬體、電子商務等科技領域。獨立的自媒體人,走在創業的路上。

本文原創發佈於人人都是產品經理,未經許可,禁止轉載

題圖來自Unsplash,基於CC0協議

給作者打賞,鼓勵TA抓緊創作!