逃離社群暴民時代?世界如何對抗「假新聞」仇恨軍團
由於2018年11月期中選舉即將來臨,美國政府非常在意網路公司如何保護社交網路免受操縱,陸續邀集各方商討方案。9月初,美國網路業兩大巨頭——Facebook的營運長桑德伯格(Sheryl Sandberg)與Twitter的執行長多爾西(Jack Dorsey)——出席了美國參議院的聽證會。他們向國會保證,正在努力移除外力透過網路在美國散佈的假新聞。
9月底,Facebook和Twitter、再加上Alphabet(即Google母公司),三巨頭一起向歐盟執委會承諾,他們將與其他科技和廣告公司合作,共同打擊假新聞在歐洲傳播,同樣也是旨在防止假新聞影響歐盟區的各種政治選舉。因為歐盟早於數月前,就呼籲網路平台與社交媒體提出減少網路錯誤資訊的計劃,否則將祭出監管措施。
在大洋兩端的國家都遇到了相似問題,逼得網路巨頭不得不設法應對。到底假新聞是如何形成的?又有甚麼方法可以阻止其危害呢?
2013年世界經濟論壇(WEF)的全球風險報告裡,首次提到所謂的「數位野火」(digital wildfire),指的是網路上遍布的大規模錯誤資訊——從恐怖主義蔓延到全球治理的失敗,假新聞都在其中扮演要角。有心人士濫用自由開放的網路,在現實世界造成嚴重破壞,因此WEF認為,這已上升到全球性風險,對各國形成嚴峻挑戰。
那麼假新聞有多少?看看以下兩組數字便可略知一二。根據史丹佛大學研究,2016年在Tiwtter上,假新聞每月約超過2,000萬則,目前下降至400到600萬;在Facebook上,2016年假新聞每月約有2億左右,目前仍有7,000萬。這意謂著社交媒體上的假新聞甚至可能超過真新聞,足以污染整體資訊生態系統,使其傳播的訊息極不可靠。
再看今年,Facebook至今已刪除了600多個散佈假新聞的頁面、群組和帳戶,這些帳戶主要來自伊朗,多集中於以巴關係、英國脫歐和美朝衝突等爭議問題;Tiwtter也沒閒著,今年以來刪除200多個被視為由伊朗操縱的帳戶,6月更暫停7,000多萬個帳戶,包含數十個主要由俄國操縱、偽裝成美國新聞媒體的帳戶。
如此不難理解假新聞的影響力。事實上,在網路剛問世時,許多人都把這種只需點擊,即可隨時隨地輕鬆獲取資訊的方式,視為革命性的民主技術。論者認為網路可以使有知識的公民更容易參與公共事務,像是選舉和議題辯論等。然而時至今日,不少人卻擔心演算法和社交媒體,正在降低人們看到的網路資訊品質,虛假資訊將會削弱數位時代的民主制度。
以Facebook為例,當人們察覺到假新聞影響2016美國大選之後,開始將砲火轉向社交網路。但最初Facebook卻辯稱它是一家科技公司,而非媒體公司。換言之,該公司認為其主要動機是獲利,而不是為新聞把關;CEO佐克伯(Mark Zuckerberg)也公開表示,在Facebook上的所有內容超過99%是真實,假新聞影響選舉極不可能。
這些言論現在看來自然是無稽之談,在劍橋分析洩密案後,Facebook的態度大為轉變,力求挽回用戶信心,也向世界喊話維護資訊安全。不過,就在10月初又爆發駭客入侵,據稱洩露了4,000萬以上的用戶資訊。這些資訊是否會被用以影響選舉等情事在所難言,突顯網路正是民主社會相當脆弱的一環。
今日人們的生活大多離不開各種社交網路,越來越多的PO文、對話涉及公共領域和政治議程。Facebook的朋友圈基本上是一種不透明但具有特殊可信性的網絡,在這種人際網絡裡,假新聞的散播者是長年熟識或志同道合的親友,更難以檢測和糾正。因此,網路公司有義務使用其技術,來改變並促進社會共同利益。
從學理上來看,由於網路使用者不斷點擊或分享性質相似的新聞,代表其對議題的特定觀點。在極端情況下會形成所謂的過濾氣泡(filter bubbles,或者說「同溫層」),例如Facebook會從用戶過去的行為學習,猜你喜歡並大量占據頁面。當點擊假新聞越多,用戶頁面自然也就出現更多類似的假新聞,用戶因此只能接觸證實其偏見的內容。
日復一日,過濾氣泡隱藏真相、加強誤解,用戶在不知不覺中將自己鎖在回聲室(echo chambers)內,所見所聞都是一鼻孔出氣的資訊。當偏見越來越多,政治兩極化的現象也會越來越深。因此有論者認為,要擺脫這些問題並不為難,網路公司除了「打假」,也可從技術著手,減少甚至排除個人化的新聞提要。
但問題的複雜性顯然不止於此。過濾氣泡的假設是人們幾乎或完全與其他觀點隔離,真實世界裡不少研究都指出,網路用戶遇到交叉資訊的情況非常普遍,也就是說,導致用戶有錯誤資訊的原因,不一定是缺乏與正確資訊的連結。像是美國智庫皮尤研究中心(PEW)的調查就顯示,Facebook與Twitter的「同溫層」並沒有想像那麼厚,前者約占23%、後者約占17%,更多部分的人分享不同的看法。
以人類心理而論,更可能是因為他們本身的信念主導了獲取資訊的態度。一個明顯的例子是,面對相同的資訊,具有不同政治傾向的人可能會得出截然不同的內涵。如果從這個角度出發,網路公司要如何改變演算法來回應偏見,就會是非常艱難的任務。
尤其是當有心人士利用各群體間的偏見,很容易可看出在網路上大肆傳播的已不是假新聞,而是對立的仇恨情緒。PEW調查指出,就政治議題來說,將近一半的網路用戶認為社交媒體的政治討論只有憤怒、53%認為缺少尊重、49%認為並不文明。這代表著網路變成情緒宣洩的重要管道,當初人們認為可以促進民主的樂觀已不復存。
千萬別小看這些憤怒、缺少尊重又不文明的情緒,在某些仍有法治之處,這可能只構成鍵盤柯南或鍵盤俠們的霸凌殺人事件,多屬於破壞力相對較少的單獨事件。但在法治混沌,且介於民主過渡期的地方,憤怒等情緒很容易一發不可收拾,人們更願意接受黨同伐異的資訊甚於事實。
例如近年來的緬甸,雖然恢復了民主選舉,但對於自由主義陌生的社會,仍處於不穩定的狀態。針對羅興亞人仇恨言論的正常化,提供緬甸軍方暴力的正當性,加強了軍方的勢力。長久以來,軍政府壟斷資訊,扼殺新聞與公民社會的空間,使媒體與人民素養普遍低落,反羅興亞的宣傳不知不覺地進入人民的思維裡。
最出名的應是極端佛教主義僧人威拉杜(Ashin Wirathu)及其同夥,在Facebook上傳播針對羅興亞人的仇恨言論,包括種族歧視的政治漫畫、偽造圖片和新聞報導。這些內容煽動公眾情緒,讓施暴羅興亞人的行為受到歡迎,甚至有緬甸人透過網路為此慶祝,彷彿上世紀盧安達的種族清洗再現,只不過那時使用的是無線電通訊,現在改為網路。
基於憤怒等情緒傳播假新聞,是利用人類在議題上的特定立場,還算是有意識的行為。但也有不少人自詡中立、或對某些議題無感,卻仍然避不開假新聞。這是可能是因為人性弱點,假新聞能控制他們,使其不自覺做出的無意識(或潛意識)的轉發行為。
一般來說,人們傾向相信最初閱聽的資訊為真,若要推翻首次印象,則需努力改變認知才能在腦海中將該資訊標記為假。且由於人類是群體生活的動物,為了與他人相處,人們傾向接受來自他人、看似真實的資訊。此外,人們對於新奇的資訊,有著不假思索的熱愛,這也是為何假新聞常常以釣魚式的標題吸引目光。
綜上所述可知,解決假新聞必須雙管齊下。首先是網路公司的把關,但這裡也有限度,因為過多的管制其實亦不利於民主社會,該如何拿捏尺度,對企業或政府來說都是兩難的局面。管得過少不如不管,管得過多,網路使用者會選擇退出平台、公民社會擔心影響自由、政黨會擔心被利用於政爭。
假新聞沒有簡單的解決辦法,無論是標記某些資訊為假,或是推出事實查核平台,其實是杯水車薪。真正的解決方案來自於每個人對於知識與道德的把關,當接觸到可疑或是有重大影響的新聞時,即使符合個人「信仰」,第一步驟應該是檢查來源,而不是在社交媒體上立即分享。
人們必須了解到,網路公司或政府刪除假新聞,並不是民主的勝利,更非讓人民從恐懼中自由。刪除只是側面證明我們所擁有的信念——包括學校教育、人文素養、社會風氣——某種程度上的失敗。人們也應該知道,自從有語言以來,謊話就未曾消失,理性思考與批判是人類最珍貴的資產之一,而它在這個時代是透過網路發揚或是墜落,就在一念之間。
收看更多文章,請訂閱轉角國際facebook專頁:
回應