37 views

AI奪權,「備胎轉正」的戲碼,在媒體行業再次上演。AI將在取代人類編輯的戰鬥中取得最後的勝利嗎?本文從AI演算法推薦的上位和爭議中,來探究下AI演算法與人工編輯推薦可能的勝負結果。

5月底,微軟宣布將解僱50名從事新聞報道篩選和策劃的編輯,取代他們的正是已經與這些人類編輯們共同工作了一段時間的AI編輯。

搶了人類編輯飯碗的AI演算法,會完勝嗎?

受此影響,英國新聞協會負責在MSN網站及微軟Edge瀏覽器上維護其新聞主頁的約27名編輯,被告知將在6月底被解僱。

儘管微軟特別聲明,此次裁員和新冠疫情大流行導致的新聞媒體的廣告收入下滑,沒有直接相關,但通過AI技術來削減新聞團隊的人力成本則已經是一個不爭的事實了。

對於這些無奈「中槍」的新聞編輯來說,曾經為他們提供各種新聞、篩選建議的AI演算法推薦,竟然是這樣一個「暗中磨刀」的心機AI。

在報道中,一位即將被辭退的編輯人員強調,完全用AI替代人工是有風險的,因為只有人工編輯才能確保網站不會向用戶顯示暴力或不適當的內容。這對於AI來說,這確實會是一個問題,因為它更擅長推薦那些符合人性的內容,但卻無法識別一些潛在的社會倫理風險。

當然,微軟自從1995年推出MSN新聞業務以來已有25年的時間。現在在全球至少有800多名編輯仍然在從事著新聞的篩選和推薦工作。未來微軟的新聞團隊仍然還會以人工編輯和AI編輯共同協作的方式,只是AI取代人工編輯的趨勢可能在明顯加速。

站在普通吃瓜群眾的角度,我們也正被各種新聞資訊、視頻平台的演算法推薦所支配,最顯著的體會就是我們花費越來越多的時間在那些讓我們「欲罷不能」的內容上面。

難道說,AI將在取代人類編輯的戰鬥中取得最後的勝利嗎?我們從AI演算法推薦的上位和爭議中,來探究下AI演算法與人工編輯推薦可能的勝負結果。

信息分發:從「人找信息」進入「信息找人」

「太陽底下無新事」。演算法推薦,儘管只是近幾年隨著移動互聯網內容應用的爆發才興起,但其實質上仍然只是人類進行信息分發的一種新形式,而我們對信息分發的需求自古就有了。

赫拉利在《人類簡史》中提出一種智人種之所以戰勝其他物種的新「假說」,那就是我們特別擅於「八卦」和「聊天」。「八卦」有助於讓整個社群建立情感紐帶,團結起來共進退,「聊天」有助於經驗的傳授,外出的告訴村裡人哪裡有危險,老獵人教會小獵人如何抓獵物。這就是最天然的信息的社交分發,極大提升了人類之間的協作效率和文明的延續。

此後我們經歷了口耳相傳的史詩,結繩記事、甲骨篆刻的符號記錄,以及再後面的文章典籍。現代文明的興盛得益於印刷術的不斷升級,而到了近兩百年左右,新聞報紙、圖書出版、廣播電視等全新的信息分發媒介誕生,構成了當代社會的信息分發的基本版圖。

互聯網的出現又突破了信息分發的時空界限,讓信息可以實現永遠在線、全球同步的傳遞。不過傳統互聯網的信息傳遞仍然延續了物理世界的範式。比如,互聯網早期興起的門戶網站和搜索引擎,就是借鑒了圖書館的目錄分類和和百科全書的條目索引。

新聞資訊等信息的分發依賴權威化、中心化組織的採集和報道,用戶的信息知識的獲取依賴主動地瀏覽和篩查。

隨著信息的爆炸式增長和人們信息消費的碎片化趨勢增長,「人找信息」的方式遭遇了全新挑戰。演算法推薦和相應的內容分發的平台的出現,開啟了通過人類通過機器演算法推薦的方式進行「信息找人」的全新模式。

1995年,尼古拉·尼葛洛龐帝在《數字化生存》當中帶有預言般的「我的日報」的想法,現在成為了現實。信息分發正在朝著滿足受眾用戶個性化的需求的方向發展。

幾乎就在同時,美國明尼蘇達大學的團隊開發出了第一個自動化推薦系統GroupLens,成為協同過濾推薦演算法的最早提出者。此後,演算法推薦系統在亞馬遜的電商平台、Netflix的視頻流媒體服務當中也很早便投入了使用。

2016年,可以算是新聞演算法推薦崛起的元年。這一年,YouTube將深度神經網路應用到內容推薦系統中。這一年,我國新聞資訊信息分發市場上,演算法推送的內容第一次超過50%。

也正是這一年,率先應用信息演算法推薦的今日頭條,終於從四大門戶和BAT支持的媒體平台中突圍,實現了6000萬的日活。

但此後演算法推薦本身一直爭議不斷。在2017年9月,人民網特意用三篇社評的篇幅批評了今日頭條這類新聞應用的「演算法推薦」。社評里自然首先肯定了演算法推薦順應時代潮流,滿足人們個性化、多元化的信息獲取需求,但又專門指出了以下的問題:

演算法推薦會縱容低劣內容的泛濫。一些推薦演算法只會迎合大眾的獵奇心理,最後只會反覆推送那些低質量內容,最終「劣幣驅逐良幣」,使得傳統媒體的優質、全面的資訊信息無法觸達大眾用戶。

推薦演算法中所謂的「個性化」推薦,只會機械式地推薦一些關聯性強,但內容單一的信息,甚至會過濾掉那些不熟悉、不認同的信息,造成「信息繭房」。

搶了人類編輯飯碗的AI演算法,會完勝嗎?

演算法推薦的信息抓取不僅可能涉及到大量的版權問題,甚至還可能走向「創新的反面」。就是智能推薦將走向媚俗化和庸俗化,充斥大量缺乏獨立思考、深度觀察的膚淺內容,反過來破壞社會的創新發展。

人民網的批評,同樣也代表了眾多傳統媒體和眾多精英人士的觀點,而且這些現象確實也符合我們大多數人的直觀印象。但是在附和之前,我們仍然需要進一步了解下演算法推薦的基本方法和發展,搞清楚人們為什麼會如此容易被演算法「馴服」。演算法推薦又該如何突破自己的局限而持續進化?

演算法推薦:人性的,太人性

信息分發的本質,就是有效地聯接人和信息。而演算法推薦的本質就是運用機器演算法實現大規模的自動化信息分發,讓信息自動找到人。

因此,演算法推薦需要解決三個問題:了解信息,了解人,了解人何時何地需要這些信息。不過,歸根到底,演算法推薦的核心還是了解人,即了解人的使用習慣、興趣愛好,再通過演算法預測用戶可能感興趣的信息和話題進行加權推薦。

新聞信息的主要推薦演算法都是來自於一些數學演算法。在各大新聞資訊聚合類應用上主要使用以下這些演算法:

(1)內容推薦

這是資訊類推薦最常用到的演算法。演算法系統通過對文本內容進行標籤設定,一旦用戶對相關內容進行過點擊、瀏覽、點贊、評論、分享等操作,系統就會對用戶打上相應的興趣標籤。這樣就可以將更多相關標籤的文本進行用戶標籤的匹配。比如,一個看過「德甲」內容的用戶,就會得到更多關於「德甲」的信息推送。

內容推薦,如果先期無法獲取到用戶的興趣標籤特徵,就會容易遭遇冷啟動問題。因此,內容推薦之外還需要其他推薦方式。

(2)協同過濾推薦

這是推薦系統中應用最早和最為成功的技術之一,採用了我們常識理解的「人以類聚,物以群分」的思路,即找到用戶的好友或者與其相似特徵的其他用戶那裡,將他們感興趣的內容來推薦給該用戶。

搶了人類編輯飯碗的AI演算法,會完勝嗎?

協同過濾推薦採取了經驗共享的方式,避免了內容推薦中存在著內容分析不準確、過度單一等問題,可以為用戶發現潛在的興趣偏好的內容。

(3)熱門推薦

熱門推薦來自於傳統媒體的思維方式,主要是基於當前熱點新聞事件和話題進行的內容推薦。區別於傳統媒體由新聞編輯進行的人工篩選,新聞聚合平台的自動演算法推薦更在於通過數據統計的方式將一段時間內點擊量、關注度最高的新聞推送給用戶。

此外,還有像一系列基於規則、效用、知識以及各類組合的推薦演算法來實現對於用戶的個性化推薦。

也就是說,對於那些使用了演算法推薦的內容平台,相當於有了一手「秘密武器」來對付處在信息焦慮和信息饑渴的移動互聯網用戶。即使你是一個新手用戶,平台對你了解甚少,它也會很快通過讓你定製興趣標籤、嘗試不同類型的內容推送,AB測試等方式來實現所謂「冷啟動」,找到你的真正愛好。

但是,最根本上來說,像今日頭條這樣的內容平台存在著一個最基本的「原罪」就是,平台存在的目的是為了攫取儘可能多的用戶時間和注意力,而不是為了讓用戶獲得基本的資訊信息之後就轉身走人。

新聞聯播還有個準時準點的結束,而這些內容平台卻可以隨時刷新、無限供應,獲得流量才是其運營的本質。所以,平台的推薦演算法就會儘可能討好用戶,利用用戶的人性弱點來進行信息的餵養。

這也正是內容平台經常為人們所詬病的問題:標題黨橫行、洗稿文章泛濫,色情低俗這類深諳人性弱點的內容層出不窮。一旦因為好奇瀏覽相關內容,演算法就會全力推薦更多相關信息。這

也是所謂「信息繭房」的根本原因,演算法縱容了人性,人性又反過來固化了認知,導致一個用戶就在自己熟悉的信息圈裡打轉。這也是很多人對內容平台深惡痛絕,但看起來又欲罷不能的深層原因。

但是需要指出的是,演算法推薦本身不必為內容平台的這些問題背鍋,道理就如同「人用刀殺人,而罪責在人而不在刀」一樣簡單。其實,通過演算法推薦本身的演化,是可以消解這種用戶的信息「偏食」行為和「信息繭房」問題的。

演算法推薦的自救:人機協作是正途

無論對於演算法推薦的批評有多麼嚴重,但是演算法推薦的流行和普及已經是一個不爭的事實。演算法推薦的真正進步之處就在於改變了信息分發的方式,即從一種中心化的「責編把關」的分發方式變成基於用戶個性化的機器智能推薦的「演算法把關」的分發方式。

這種分發方式帶來的是信息分發效率的極大提升,當然同時也帶來了傳統權威、專業媒體的分發「演算法」的失效和分發內容權重的下降。

但是從目前來看,傳統權威媒體已經不再抱有一開始的否定和打壓態度,而是以積極的姿態擁抱新媒體平台,參與到這場演算法推薦的流量爭奪當中,並且正在憑藉其官方身份和專業內容,在新媒體時代重新獲得用戶認可。

對於演算法推薦帶來的「劣幣驅逐良幣」的問題,這之前確實是演算法推薦的弱項,最早的一些機器學習演算法和推薦演算法是無法識別文章內容是否涉嫌標題黨、假新聞、洗稿、低俗、黃暴等內容。這些低劣內容其實對於平台而言,也是一直在努力清除的隱患。

搶了人類編輯飯碗的AI演算法,會完勝嗎?

畢竟平台的發展不能僅靠這些內容來支撐,反而會帶來眾多的版權、投訴和負面輿情。現在的平台都已經加大對內容安全機制的建設,其中包括高風險內容的識別模型技術的廣泛應用以及大規模人工審查核驗。去年,就連同樣執著於演算法推薦的Facebook也因為假新聞泛濫而開始使用人工編輯來對內容進行審查。

對於「信息繭房」而言,正如近日北師大教授喻國明在一篇《演算法推薦必然導致「信息繭房」效應嗎》的論文中指出的,演算法推薦不是「信息繭房」形成的必要條件,演算法推薦在「信息繭房」生成后並不起增效作用,甚至還起到了一定的消解作用。

簡單來說,「信息繭房」的存在並不是因為演算法推薦的出現而出現的,傳統社會的單一信息、嚴格的媒介控制以及個人的信息「偏食」傾向都是造成「信息繭房」的原因。

反而,在演算法推薦時代,個體用戶還有著來自傳統媒體渠道、社交媒體渠道等多重信息來源,更加不容易製造這種「信息繭房」的生成機制。同時,隨著演算法推薦技術的不斷迭代,用戶的潛在信息需求也在不斷的挖掘和豐富。

最終,在演算法推薦和人工編輯推薦的取捨較量中,我們其實更應該推崇一種帶有「人文理性」和「技術理性」的可信演算法推薦系統。

顯然,演算法仍然更容易給用戶提供一種「沉浸式」的信息閱讀體驗,而演算法和人的互動關係,本質上是「演算法背後設計者的價值邏輯或意識形態與用戶的互動」。這就要求在演算法設計者意識到「信息繭房」可能帶來的危害之後,主動尋求一種更加優化的解決方案,來建立可信的演算法推薦的系統。

最主要的是在演算法推薦之外,堅持人機協同,即重視人工編輯在演算法推薦基礎之上發揮應用的作用,包括提供新聞專業主義的理念,設置更多的公共議題;提供更具權重的正反觀點信息;提供更多隨機視角的信息等等。

回到微軟新聞部門的裁員問題,之前是模式是AI演算法來輔助人類新聞編輯,而未來更可能是人類新聞編輯來輔助AI演算法,來優化內容推薦的質量。顯然,AI演算法推薦不可能完全取代人類編輯的工作。平台也不會放心將自身的信譽和內容的全部選擇權都交給AI演算法。

一項技術的發明和應用在人類的發展歷史上從來只起到一種助燃劑或催化劑的作用。

對於AI的演算法推薦來說,它既不會毀掉傳統媒體的生存根基,也不會徹底將人類變成鼠目寸光、各自為營的傻瓜。

其實,如果我們認真觀察,當你發現身邊的老人開始整天盯著手機,關注自己城市發生的各種事情,關心政府出台的各種政策,關心自媒體里各種奇葩狗血的故事,未嘗不是對他們生活和精神的一種解放,至少更加開闊了眼界,不用再盯著家裡的雞毛蒜皮。

而對於那些因為AI而事業的媒體人,更加不必悲觀嘆氣。夜深人靜的時候,筆耕不輟地開始你的創作,這些內容平台可能會應許你更加光明的前景。

 

作者:腦極體,微信公眾號:腦極體

Go Top