酷播亮新聞
最棒的知識補給站

反思 Youtube 算法:個性化內容推薦能毀掉你的人格

編者按:《衛報》近日發表了一篇長文,披露了Youtube的算法是怎樣歪曲事實的。

洛根·保羅(Logan Paul),一個Youtube上的大V,在日本以自殺聞名的森林中偶然發現了一個掛在書上的死人。 一開始剛剛22歲的他顯然被嚇到了,然後他竟然被這一情形逗樂了。 “伙計,他的手是紫色的,”他說,然後轉向他的朋友們咯咯地笑。 “你從來沒有站到過一個死人旁邊吧?”

保羅將這個場景拍了下來,傳到了YouTube上。 他的YouTube頻道有1600萬名青少年用戶訂閱,24小時後,他在激烈的發對聲中將視頻刪除。 在這段時間內,視頻獲得了600萬的點擊量,並且在 YouTube 上令人垂涎的熱門視頻排行榜上佔據了一席之地。

第二天,我在YouTube上看了這個視頻的“複製”版。 然後我點擊視頻播放器右側展示的推薦視頻縮略圖。 這種默認情況下自動播放的方式,是為了引誘我們在Google的視頻廣播平台上花更多的時間。 我很好奇他們會把我引向何方。

答案是一系列關於男人嘲笑洛根·保羅青少年粉絲的視頻,接著是閉路電視監控系統(CCTV)裡孩子們偷東西的鏡頭,幾段是視​​頻之後,是孩子們用奇怪的自製的小玩意兒 拔掉牙齒的視頻。

我清除了我的歷史記錄,並刪除了我的cookie,打開了一個私人瀏覽器,以確保YouTube不會針對我進行個性化推薦。 然後,它們的算法就帶我走上了它的意誌之旅。 最後的一個視頻是兩個男孩,大約五六歲, 互相拳打腳踢。

“我要把它傳到YouTube上,”一個十幾歲的女孩說,聲音聽起來像是她的姐姐。 “轉過身去,狠狠地揍那個小男孩。”他們扭打了幾分鐘,直到一個人把對方的牙齒打掉了。

人工智能算法驅動下的推薦系統

世界上有15億的YouTube用戶,遠遠超過了擁有電視的家庭數量。 他們觀看的視頻是由算法塑造的,這個算法掃描並排列了數十億的視頻,來確定用戶“接下來”的20個視頻片段,這些視頻都與之前的視頻有關聯,從統計數據上來看 ,也極有可能是為了讓人著迷。

Youtube公司的內部人士告訴我,該算法是YouTube增長的最重要的引擎。 關於這個算法如何運作的公開解釋並不多,一篇學術論文概述稱,這個算法背後的深層神經網絡,分析了大量關於視頻的數據和觀看者的數據——YouTube的工程師將其描述為“現存 規模最大和最複雜的工業推薦系統”之一。

推薦算法似乎並沒有為民主的真實、平衡或健康而優化。

——前谷歌工程師紀堯姆·查斯洛特(Guillaume Chaslot)

最近,它成為了最具爭議性的話題之一。 這個算法被發現是在宣揚有關拉斯維加斯大規模槍擊案的陰謀論,並通過推薦來激勵發展一種亞文化,這種亞文化以兒童為目標,內容令人不安。 例如, 英國兒童角色帕帕豬吃掉父親或喝漂白劑的視頻。

充滿猥褻和暴力的視頻也已經被算法分發到了專門針對兒童的應用程序YouTube Kids上。  一位 YouTube 創作者被禁止從他那些奇怪的視頻中獲得廣告收入——這些視頻描述了他的孩子接受流感疫苗、去除耳垢和為死去的寵物哭泣。 他告訴記者,這一切都是在迎合谷歌的算法。 “這是讓我們突破粉絲圈,並獲得大量觀看的方式,”他說。 “我們學會了怎麼利用算法,並儘一切努力來取悅算法。”

谷歌對這些爭議做出了“打地鼠”式的回應:擴大人類版主的隊伍,刪除記者所發現的那些令人不快的YouTube視頻,並將創建這些視頻的頻道降級。 但這些舉措都沒有削弱人們的擔心,即人工智能給YouTube帶來了巨大的負面影響。

關於Facebook和Twitter對政治的影響,已經有了很多報導。 但最近幾個月,學者們推測,YouTube的算法可能在2016年總統大選期間助長了虛假信息。 “YouTube是2016年最被忽視的故事,”廣受尊敬的社會學家和技術評論家澤奈普·圖費克奇(Zeynep Tufekci)去年10月在Twitter上寫道。 “它的搜索和推薦算法是錯誤信息傳播的引擎。”

如果YouTube的推薦算法真的進化到能夠分發更多的令人不安的內容,那麼這是怎麼發生的呢? 它對我們的政治有什麼影響?

“就像現實一樣,但是歪曲了”

要回答這些問題並不容易。 像所有大型科技公司一樣,YouTube不允許我們看到影響我們生活的算法。 它們是秘密的公式,專有軟件,有專門的工程師被委託來處理這個算法。 擁有人工智能博士學位的36歲法國程序員紀堯姆·查斯洛特就是其中之一。

在谷歌工作的三年時間裡,他和一個YouTube工程師團隊一起工作了幾個月,他們正在研究推薦系統。 這段經歷讓他得出結論,YouTube研究出的算法的優先級是有危險的。

“YouTube上的東西看起來就像現實,但這裡面的現實被扭曲了,讓你花更多的時間在網上。”當我們在加州的伯克利見面時,他告訴我。 “推薦算法似乎並沒有為民主的真實、平衡或健康而優化。”

查斯洛特解釋說,算法永遠不會保持不變。 它不斷地改變它給不同信號的權重:例如,用戶的觀看模式,或者在有人點擊之前視頻被觀看的時間長度。

與他一起工作的工程師負責不斷嘗試新的公式,通過延長人們觀看視頻的時間來增加廣告收入。 “觀看視頻的時間是優先考慮的事,”他回憶道。 “其他的一切都被認為是一種干擾。”

2013年,谷歌解雇了查斯洛特,表面上因為效率問題。 他堅持認為,自己之所以被解僱,是因為在公司內部與志同道合的工程師合作,提出可以讓人們看到的內容多樣化的變革。

他尤其擔心的是,過分關注向人們分發他們不可抗拒的視頻,會扭曲現實,並創造出過濾泡沫,因為算法只是向人們展示能夠強化他們現有世界觀的內容。 他說,他提出的修復方案沒有被採納。 “YouTube可以通過多種方式改變算法,以抑制虛假新聞,提高人們看到的視頻質量和多樣性,”他表示。 “我試著從內部改變YouTube,但沒有任何作用。”

YouTube告訴我,公司的推薦系統已經發生了變化,現在已經再像之前那樣過多關注觀看時間了。 該公司表示,在2016年,該公司開始考慮用戶的“滿意度”,例如,通過調查,或者觀察一段視頻收到多少“贊”,以“確保人們對他們觀看的內容感到滿意”。 YouTube補充說,在2017年還實施了一些額外的措施,以改善搜索和推薦內容中出現的新聞內容,並阻止推廣含有“煽動性的宗教或至上主義”內容的視頻。

但該公司並沒有說2006年收購 YouTube 的谷歌為什麼要等上10年才做出這些改變。 查斯洛特認為,這種改變主要是表面上的,並沒有從根本上改變算法中演化出來的一些令人不安的偏見。 在2016年夏天,他建立了一個計算機程序來進行調查。

查斯洛特寫這個程序的初衷是為YouTube不透明的推薦引擎,提供世界上第一個窗口。 這個程序模擬了一個用戶的行為,他從一段視頻開始,然後按照一系列推薦視頻進行操作,來追踪數據,就像我看完洛根·保羅視頻後所做的那樣。

它通過一個單詞搜索找到視頻,首先選擇一個“種子”視頻,並記錄下YouTube在“下一個”欄目中推薦的幾層視頻。 它沒有瀏覽歷史記錄,確保被檢測到的視頻是YouTube的一般性推薦,而不是個性化的推薦。 它重複了上千次這個過程,積累了大量關於YouTube推薦的數據,從而建立了算法的偏好圖。

在過去的18個月裡,查斯洛特利用這個程序探索了YouTube在法國、英國和德國的選舉、全球變暖和大規模槍擊事件中分發的視頻的偏見,並在他的網站 Algotransparency.org 上發表了他的研究成果。 每項研究都發現了一些不同的東西,但研究表明YouTube的推薦系統放大了那些引起分裂、轟動和陰謀的視頻。

當他的程序通過搜索“誰是米歇爾·奧巴馬(Michelle Obama)”的問題找到了一個種子視頻後。 “下一個”欄目中的推薦視頻中,大多數都說她“是個男人”。 關於教皇的視頻中,有超過80%的視頻將這位天主教領袖描述為“邪惡的”或“反基督者”。 上傳到 YouTube 上的視頻數以百萬計, 以滿足算法對聲稱地球是平的內容的興趣。 “在YouTube上,小說超越了現實,”查斯洛特說。

他認為,最令人震驚的例子之一是他在2016年總統大選前發現的。 正如他在唐納德·特朗普(Donald Trump)當選後發表的一篇簡短、基本上不被注意的博文中所指出的,在總統競選期間,YouTube 推薦算法的影響並不是中性的:它分發 的視頻主要對特朗普有利,對希拉里·克林頓(Hillary Clinton)不利。

“這很奇怪,”他向我解釋道。 “無論你從哪裡開始,無論搜索特朗普還是搜索克林頓,推薦算法都更有可能將你推向支持特朗普的方向。”

因為在三個搖擺州獲得了8萬張選票,特拉普贏得了大選。 在美國有超過1.5億 YouTube 用戶。 在查斯洛特的Youtube推薦選舉視頻數據庫中,這些視頻在2016年11月的投票前,總共被觀看了超過30億次。

哪怕在視頻中出現一點小小的偏見也是有意義的。 “塑造我們所看到內容的算法會產生很大的影響,尤其是對那些還沒有做出決定的人,”牛津大學數字倫理實驗室的教授盧西亞諾·弗洛里迪(Luciano Floridi)說 ,他專門研究人工智能的倫理問題。 “溫柔、含蓄、安靜的推動,會讓我們逐漸走向我們原本可能無法做出的選擇。”

促進陰謀論

查斯洛特向我提供了一個數據庫,裡面有在總統大選前的三個月裡,更多經Youtube 推薦的視頻。 它包含了超過8000個視頻——所有這些視頻都是在他的程序中發現的,在經過了對“特朗普”和“克林頓”的搜索次數相等的情況下。

這不是一套完整的視頻,也可能不是一個完美的代表性樣本。 不過,查斯洛特表示,這是一個此前從未見過的數據集,顯示了YouTube向那些對候選者內容感興趣的人推薦的內容——換句話說,就是該算法的偏好。

Tow Center for Digital Journalism研究主管喬納森·奧爾布萊特(Jonathan Albright)對查斯洛特使用的代碼進行了審核。 他表示,這是一款相對簡單的軟件,方法論有比較可靠。 “這項研究抓住了YouTube政治生態系統的明顯方向,”他說。 “以前從未有人這樣做過。”

我和調查記者、數據庫分析專家艾琳·麥考密克(Erin McCormick)花了幾個星期的時間來對這些珍貴的視頻資料進行了觀察、整理和分類。 從一開始,我們就被系統推薦的許多極端的和陰謀論的內容震驚了,而且幾乎所有的視頻都是針對克林頓的。

YouTube推薦的一些視頻是我們期待看到的:總統辯論、電視新聞剪輯等等。 也有兩位候選人演講的視頻——儘管我們發現,這個數據庫中對特朗普演講推薦的 比克林頓多得多的演講。

但最引人注目的是,查斯洛特的程序在其他的視頻的旁邊也發現了大量的反克林頓視頻。

有幾十個視頻片段顯示,克林頓患有精神疾病,說她患有梅毒或帕金森氏症,指控她與小野洋子(Yoko Ono)有過秘密性關係。 許多人甚至更加黑暗,他們編造了維基解密披露的內容,編造毫無根據的指控,指控克林頓參與謀殺,或者把她與邪教組織和戀童癖聯繫在一起。

查斯洛特的數據顯示,有一段視頻被YouTube的算法大力推廣了。 這是一部奇怪的1小時電影,宣稱特朗普的崛起在以賽亞45中就被預言。

數據庫中有太多的視頻了,所以我們把重點放在了分發次數做多的1000個視頻上。 我們逐一篩選了這些內容,以確定這些內容是否有利於特朗普或克林頓。 超過三分之一的視頻要么與選舉無關,要么包含了大體中立或不偏不倚的內容。 在剩下的643個視頻中,有551個支持特朗普,只有92個支持克林頓。

我們看過的視頻樣本表明,查斯洛特的結論是正確的:YouTube的推薦視頻對特朗普更加有利。 YouTube可能從來沒有想過將它的算法程序設計成讓其中的一個總統候選人受益。 但至少從這些證據來看,確實發生了這樣的事情。

Youtube的回應

“我們非常尊重衛報作為新聞媒體和機構的地位,”在我轉發了我們的調查結果後,一位YouTube的發言人給我發了電子郵件。 “然而,我們強烈反對使用這種方法論、數據,以及他們的研究得出的結論。”

這位發言人補充道:“我們的搜索和推薦系統反映了人們搜索的內容、可用的視頻數量以及人們在YouTube上觀看的視頻。這並不是對某一特定候選人的偏見,而是反映了 觀眾的興趣。”

這是一個奇怪的回應。 YouTube似乎是在說,它的算法是對使用它的人的慾望的中立反映——如果我們不喜歡它所做的事情,我們也有責任。 YouTube怎們能將其解讀成“觀眾的興趣”——而不是“人們選擇觀看的視頻”是否會受到該公司分發的影響?

如果有選擇,我們可能會本能地點擊一段在日本森林中死去男子的視頻,或者是一段假新聞,聲稱比爾克林頓強奸了一名13歲的男孩。 但那時的衝動真的反映了我們想要得到的內容嗎?

幾個月前,社會學家圖費克奇對YouTube可能對選舉產生的影響發出了警告。 他告訴我,YouTube的推薦系統很可能已經發現,令人不安和充滿仇恨的內容正在吸引人們的關注。 “這有點像學校裡的自助販賣餐廳,發現孩子們已經有蛀牙了,而且還喜歡高脂肪和高鹽的食物。”她說:“所以餐廳依舊提供這樣的食物,當年輕人面前的薯片 或糖果被吃掉的時候,就自動裝上。”

然而,一旦這種情況恢復正常, 那麼在某種程度上更加前衛或怪誕的東西就會變得更加新奇和有趣。 圖費克奇說,“因此,食物中糖、脂肪和鹽的含量越來越高——這是人類天生渴望的東西——而YouTube推薦的視頻和自動播放的視頻變得越來越怪誕或 充滿仇恨。”

但是,這些怪誕的視頻是怎麼讓一個候選人受益的呢? 這取決於候選人。 如果特朗普的精選不是那麼怪誕的話,就沒有什麼意義了。 圖費克奇指出,有研究表明,“錯誤信息”在大選前很大程度上是反克林頓的。 她說,“虛假新聞提供者”發現,與支持克林頓的視頻相比,假的反克林頓材料在支持特朗普上的表現要好得多。

她補充道:“擺在我們面前的問題是,促使人們進入充滿了錯誤和謊言的兔子洞的道德規範,僅僅因為它能增加人們在網站上花費的時間——而且確實有效。”

圖費克奇是我與我們共同研究的幾位學者之一。 研究了選舉期間的虛假信息是如何傳播的牛津互聯網研究所教授菲利普·霍華德(Philip Howard)也是其中一位。 他質疑是否有進一步的因素在起作用。 “這是一項重要的研究,因為它似乎是第一次系統地研究YouTube是如何被操縱的,”他說,並提出了一種可能性,即該算法和Twitter和Facebook上的算法可能是 相似的。

在對眾議院情報委員會的證詞中,谷歌的法律總顧問肯特·沃克(Kent Walker)淡化了莫斯科的宣傳工作滲透到YouTube的程度。 他在去年12月向委員會表示,公司的內部調查只發現了18個YouTube頻道和1100個疑似與俄羅斯虛假信息活動有關的視頻,而且這些視頻的瀏覽量也相對較小。 他補充道:“我們認為,他們的活動受到限制,是因為我們在2016年大選前製定了各種保障措施,使得在谷歌的產品中,不會出現那種病毒式傳播。”

Twitter、Facebook和谷歌的總顧問準備在眾議院情報委員會就俄羅斯利用社交媒體影響選舉的聽證會作證。

沃克沒有提到YouTube採取了什麼做法。 然而,就在前不久公開的信件中,情報委員會的資深民主黨參議員馬克·沃納(Mark Warner)後來寫信給該公司,稱該算法“特別容易受到外國勢力的影響”。 這位參議員要求了解該公司的具體做法,以防止YouTube的推薦系統遭到“惡意入侵”。 沃克在他的書面回復中沒有提供任何細節,但他表示,YouTube擁有“一個複雜的垃圾郵件和安全漏洞檢測系統,以識別異常行為和惡性入侵”。

特里斯坦·哈里斯曾是谷歌的內部人士(Tristan Harris),後來成為一名科技告密者。 他喜歡將Facebook描述為聯邦調查人員無法進入的“2016年大選中活生生的犯罪現場”。 Youtube 的情況也是如此。 在查斯洛特提供的在大選過程中被推薦的視頻數據庫中,現在已經從YouTube上消失了有大約一半——其中很多都是由創作者們刪除的。 查斯洛特一直認為這很可疑。 這些視頻的標題是基本上都有“必須觀看!!希拉里·克林頓試圖禁止這段視頻”,但在這視頻消失之前,已經被人觀看了數百萬次。 “為什麼有人要刪除一個被觀看了數百萬次的視頻呢?”他問道。

我找到了一份題為“這段視頻會讓唐納德·特朗普當選”的視頻的拷貝,它引發了病毒式的傳播,在從YouTube上消失之前,它已經被觀看了超過1000萬次。 內容是一段溫和的蒙太奇式的特朗普的歷史片段剪輯, 伴隨著柔和的鋼琴音樂。 但當我慢鏡頭播放這段視頻時, 我發現裡面有麥莉·賽勒斯(Miley Cyrus)舔鏡子的奇怪畫面突然閃過。 這似乎是一種非專業的、怪異的嘗試,試圖插入一種潛意識的、性化的圖像。 但這也突顯出,我們對任何可能想要利用YouTube來影響公眾輿論的人的監管是多麼的少。

我與商業分析公司Graphika的首席執行官約翰·凱利(John Kelly)分享了這8000個Youtube推薦視頻的數據庫。 該公司一直在追踪政治信息造謠活動。 他將這些視頻與自己在大選期間簡歷的數據庫進行了比對,得出結論稱其中很多視頻似乎是由Twitter的馬甲和由支持特朗普的數字顧問(來自俄羅斯的“主動性提供幫助”) 控制的機器人所推動的。

“我沒有證據證明誰登錄了這些賬戶,”他說。 “但從我們之前看到的這些賬戶的歷史來看,以及它們在Twitter和互聯方面的特點,它們是由某個人來控制的——他的工作就是讓特朗普當選。”

查斯洛特以及和我交談過的一些學者認為,社交媒體活動意義重大。 YouTube的算法可能已經發展出了它的偏見,但它是否也會被利用進一步推動這些視頻的傳播呢? “如果一個視頻的數據開始飆升,毫無疑問,YouTube的算法將會開始進一步分發它,”奧爾布萊特說。

YouTube並未否認社交媒體宣傳可能會影響推薦系統,但它淡化了這種可能性,並強調其推薦系統“不會根據Twitter或Facebook的流量來進行調整”。 “衛報似乎試圖將研究、數據和他們的結論硬塞進一個關於科技在去年選舉中所扮演角色的共同敘述中,”發言人補充說。 “然而,我們系統的工作原理卻根本不支持這個前提。”

前不久,美國參議院就俄羅斯可能干預 YouTube 的推薦算法與穀歌的通信公開後,YouTube向我發送了一份新的聲明。 它強調了在2017年做出的改變,以阻止推薦系統推廣某些類型的有問題的內容。 “我們很欣賞衛報的工作,讓人們注意到這個具有挑戰性的問題,”聲明中補充說。 “我們知道,還有更多事情要做,我們期待著在未來幾個月發布更多的聲明。”

內容創建者

反思 Youtube 算法:個性化內容推薦能毀掉你的人格

Next News Network一段視頻中的截圖,對比爾·克林頓(Bill Clinton)的指控。

由於圖片和主持人看上去都很華麗,Next News Network看起來像是Youtube上一個可靠的新聞頻道。 但這都是表面現象,幕後的操作卻讓人感到可疑。 它從極右派的出版物、假新聞網站和俄羅斯媒體上獲取新聞,來做成視頻。

該頻道由主持人加里·弗蘭奇(Gary Franchi)運營,他曾是“聲稱美國政府正在為其公民設立集中營”陰謀的主要支持者。

儘管弗蘭奇堅稱他不是一個假新聞創建者,但是Next News Network曾經報導了關於比爾·克林頓強姦一名青少年的捏造指控。 (他告訴我,他更喜歡把自己的頻道看作是“對保守新聞和觀點的評論”。)

在選舉前的幾個月裡,Next News Network變成了一個反克林頓新聞和輿論的工廠,每天製作幾十個視頻,並吸引到了大量的觀眾。

查斯洛特的研究表明,弗蘭奇的成功很大程度上要歸功於YouTube的算法,該算法不斷地分發他的視頻,使其在“接下來”欄目中播放。 YouTube對查斯洛特的研究進行了猛烈的抨擊。

我聯繫了弗蘭奇,看看誰是對的。 他給我發了一些數據截圖,這些數據是給Youtube內容創建者看的,包括他們的觀眾是如何找到他們的視頻片段的數據。 比爾·克林頓強姦視頻的最大流量來源是YouTube的推薦。 該視頻在大選前的一個月裡被觀看了240萬次。

弗蘭奇給我發送的所有視頻數據中,除了一個視頻之外,其他都有同樣的情況。 弗蘭奇分享的數據顯示,在大選前的一個月裡,73%的視頻流量都來自於YouTube的推薦。 外部流量僅佔3%。

弗蘭奇是一個靠自己的Youtube頻道謀生的職業人士,但我採訪過的反克林頓視頻的許多其他創建者都是業餘的偵探或兼職陰謀論者。 通常情況下,他們的視頻可能會收到數百次的點擊,所以當他們的反克林頓視頻開始接收到數百萬的瀏覽量時,他們會感到震驚,就好像他們被一股無形的力量所 推動了。 在每一種情況下,最大的流量來源——無形的力量——來自Youtube推薦。 來自南加州的神秘調查員威廉·拉姆塞(William Ramsey)上傳了一個名為“無可辯駁的證據:希拉里克林頓患有癲癇症!”的視頻,在YouTube給他發郵件說這違反了 規則之後,推薦算法研究在分發這個視頻。 拉姆塞的數據顯示,在大選日前, 美國用戶觀看視頻的次數為240萬次。 “對於像我這樣的無名小卒來說,這已經很多了,”他說。 “足以左右選舉,對吧?”

來自南卡羅來納的陰謀論者丹尼爾·亞歷山大·坎農(Daniel Alexander Cannon)告訴我:“我發布的所有關於克林頓夫婦的視頻, YouTube 都會把它推到屋頂上。”他的最佳視頻是一段名 為“’希拉里和比爾·克林頓’你必須看的10張照片”的視頻,其實就是他本人根據這些照片對克林頓夫婦健康狀況的揣測(似乎篡改過)。 坎農表示, YouTube上的瀏覽次數為370萬次, 其中290萬次是來自算法推薦。

查斯洛特不僅讓人們注意到隱藏在幕後的一系列反克林頓的陰謀視頻。 他的研究也做了一些更重要的事情:揭示我們的生活是如何被人工智能所調節的。

在不到一代人的時間之前,選民們對政客的看法主要是由成千上萬的報紙編輯、記者和電視台高管塑造的。 如今,大型技術平台背後隱藏的代碼已經成為新的王者。

 

原文鏈接: https://www.theguardian.com/technology/2018/feb/02/how-youtubes-algorithm-distorts-truth

譯者:chiming,由36氪編譯組出品。 編輯:郝鵬程

譯文地址:http://36kr.com/p/5118920.html

本文由 @郝鵬程 授權發佈於人人都是產品經理,未經作者許可,禁止轉載。

題圖來自StockSnap.io,基於 CC0 協議

如有侵權請來信告知:酷播亮新聞 » 反思 Youtube 算法:個性化內容推薦能毀掉你的人格