人工智慧可以開闢性別平等的時代嗎? | 人人都是產品經理

越來越多的人已經意識到:技術對於創造一個沒有偏見的世界,是非常有潛力的。

試想一個性別平等的社會:女人不是生孩子、養孩子的工具,男人不是傳統思想上的統治者。人們在這個平等的社會中,扮演的角色是和他們的智慧和興趣一致的,而不是由性別、根深蒂固的狹隘觀點驅使的。

人工智慧可以開闢性別平等的時代嗎?

這樣的社會目前還不存在。幾年前,Malala Yousafzai這位巴基斯坦的、以爭取女性教育而聞名的女子,還因為想要爭取自己的教育而幾乎失去了生命!她的故事並不特殊,女性為了進入主流的聲音,已經奮鬥了數百年了。

是的,對待性別平等這個問題,部分國家已經比較先進和發達了。但是,即使在最先進的環境中,深刻的偏差還是存在的。那麼,有沒有什麼方法能重新設計一些由結果驅動的社會規範,而不是由固有的人類偏見驅使的社會規範呢?

人工智慧也許就能打破數千年來的、根深蒂固的社會偏見。現在的技術,可以創造一種使用深度學習和數據驅動的技術,來糾正刻板印象的機制嗎?

深度學習的軟體,試圖模仿人腦的大腦活動,在大腦皮層發生思考。這個軟體學習識別聲音、圖像和其他數據。Ray Kurzweil通過軟體技術,寫了一本名為《如何創造心靈》的書。深度學習的目的是在機器層面重建人類智慧,然而,這種學習的結果取決於軟體的訓練程度,有偏見的訓練會導致偏倚的結果。

繼續說我們的這個實驗,讓我們來看看一個簡單的工作場所中的例子:在會議室,出現了一些性別歧視的言論。

人工智慧可以開闢性別平等的時代嗎?

我們想要的結果是:有人舉起手來,並阻止這樣的言論。在這個簡單的例子中,期望的結果在很大程度上取決於兩個主要的假設:

  1. 會議室中至少有一位女性 ;
  2. 公司的文化氛圍是能讓她自由地表達她的觀點。

如果這種情況是由人工智慧技術的機器人處理,那麼機器人必須對基本假設進行訓練。不良的訓練會導致不佳的結果。當機器人接收到性別歧視的輸入時,它需要了解上下文,運用透視圖,然後進行相應的操作。如果機器人沒有被編入女性的觀點,那麼它就沒法達到我們預期的結果。

技術公司的環境中,人工智慧演算法經過培訓和測試,因為女性任職人數不足,缺乏對這種偏見的認識。計算機專業畢業的女性只有大約16%,再加上那些根深蒂固的文化和工作態度,對偏見的認識就更加不足了。

幸運的是,與人類的偏見不同,人工智慧的偏差,能通過重新編程機器人的軟體來更正。為了排除偏見,這些行為應該根據「平等、公平」的原則來分類。就看我們如何訓練和測試我們的數據演算法、增加實現這種願景的可能性了。未來,我們的演算法,能在性別和文化的框架中,處理數據、糾正機器人的行為、模仿理想的人類語言和觀念!

也許在不久的將來,人工智慧會成為我們生活中無處不在的東西,深入保健、行為經濟學、政治等多種多樣的領域。為了達到這樣的未來,我們也需要各界人士的幫助,不止是程序員,還有從事醫療保健、人類學、經濟學、金融等方面的專業人士。

越來越多的人已經意識到:技術對於創造一個沒有偏見的世界,是非常有潛力的。正如Malala倡導「女孩應該接受平等的教育」一樣,將會有更多的倡導者會為之奮鬥,建造一個性別平等的社會。