首頁歷史 > 正文

Twitter最新發現演算法推薦存在政治偏見,放大右翼內容

2021-11-05由 南方都市報 發表于 歷史

當地時間10月21日, Twitter公佈一項研究成果,稱Twitter推薦演算法可能存在政治偏見。研究發現,Twitter主頁時間線的推薦演算法無意中放大了右翼團體內容的傳播,但造成這一結果的原因目前尚不清楚。

Twitter最新發現演算法推薦存在政治偏見,放大右翼內容

今年4月,Twitter表示將啟動一系列研究,研究該平臺演算法的公平性。早前,Twitter的影象剪裁演算法被發現會更多地裁掉黑人和女性,被指存在演算法偏見,偏好白人男性。隨後,Twitter的研究證實,其影象剪裁演算法的確存在上述問題。

Twitter研究人員Rumman Chowdhury和Luca Belli透露,該系列研究還調查了時間線推薦演算法是否會放大政治內容,調查物件為加拿大、法國、德國、日本、西班牙、英國和美國七個國家的民選官員在2020年4月1日到8月15日間釋出的數百萬條推文,以及上億條使用者在同一時期內轉發政治新聞文章連結的推文。

調查結果顯示,演算法推薦的時間線內容中,來自民選官員的政治推文確實被演算法放大了傳播,而無論該政黨是否主政。調查的7個國家中有6個國家(除德國外),政治右翼當選官員釋出的推文在演算法上被放大的程度超過政治左翼;右翼媒體比左翼媒體的影響力更大。

雖然這一發現並不意味著演算法會放大極端意識形態,但也一定程度上反映出演算法的確存在政治偏見。研究人員分析,這有可能是不同立場政黨對社交媒體採取不同策略的結果,但其實“目前還不清楚為什麼會發生這種情況。”

研究人員說,某些政治內容被演算法放大,要分析這一現象背後的原因,難點在於這一結果不只是演算法推薦的產物,也是人和平臺互動的產物,演算法和人之間存在複雜的相互作用。接下來,他們將採用隱私計算技術,在不洩露使用者隱私的前提下,將資料分享給第三方,共同尋找演算法政治偏見背後的原因。

編譯/綜合:南都記者馬嘉璐

頂部