智能社會的進退兩難:FB美國大選防禦網...社群媒體該如何應變打假?
▌智能社會的進退兩難:FB美國大選防禦網...社群媒體該如何應變打假?
「選舉前後的72小時假若『出事』...社群媒體平台該怎麼應變?」美國總統大選倒數最後7天,隨著投票日的逼近,雙方陣營的網路空戰也越發密集緊張;全球社群龍頭 Facebook 近期則對外透露了對2020大選的擔憂,為了防止「假新聞、仇恨言論」在大選前後的猛爆性傳播,FB官方已準備好了對應的防禦手段,透過演算法壓制這些被判定為危險的內容,或是直接刪除封鎖。而這套系統,也正是FB先前針對緬甸的種族仇恨內容壓制的同一套機制,儘管FB官方強調只在情況惡劣、廣泛出現暴力事件時才會啟動防禦網,但FB的篩選標準為何?如何拿捏尺度?加強控管會引發審查言論的爭議,但無所作為卻也迴避了社群亂象延燒的責任;在外界對於機制不透明的困惑質疑下,再遇進退兩難。
FB內部人士向《華爾街日報》透露,為因應即將到來的美國大選,已經準備好一系列的演算法防禦機制,預防在大選前後出現假新聞、仇恨與暴力等煽動性的內容,造成社會衝突與裂痕的加劇。特別是在大選過後,有可能會出現一波波社群言論的高峰期,FB官方擔心會因此擴大激情,導致暴力事件發生。
而FB向外界透露的演算法,其實並沒有任何詳細內容的說明;諸如實際運作的機制為何?權重如何分配?篩選判別的標準與方法又是什麼?各種疑問並沒有更進一步的詳述,唯獨表示這套預備好的防禦機制,將會擴大危險內容的判別門檻,經由內部篩選後直接降低文章的觸及率、或直接將該文章或發文帳號予以封鎖刪除。
「只有在『最惡劣』的情況,以及開始出現『暴力事件』時,FB才會啟動這個機制。目前我們以正在高度警戒狀態。」FB的副總裁克萊格(Nick Clegg)表示。
這裡提及的演算法,根據FB所說是先前曾運用在緬甸國內的種族仇恨言論時,實際操作過的演算法工具。過去幾年當中,緬甸的FB使用者社群極為活躍,但伴隨而來的卻是越來越多針對羅興亞人的仇恨言論,此間造成的傷害,也讓FB直接被聯合國點名,FB對於這類內容的縱容放任,才深化了緬甸的族群對立。
意識到緬甸情況的FB官方,也相應地祭出各種演算法來作壓制,之中像是知名的緬甸激進派佛教僧侶威拉杜(Ashin Wirathu)——曾多次公開主張屠殺羅興亞人、鼓吹反伊斯蘭行動的極端主義——在2018年就由FB刪除了威拉度的帳號與相關煽動性貼文。
然而緬甸的經驗卻也反映出FB在遏止「危險內容」上的困境,其一是人工審查的人力嚴重不足,此外大量的關鍵字詞、或是帶有貶意的雙關語等,卻也很難全部都用關鍵字封鎖的方式禁止。「如果等到惡意內容已經散播出去,才有辦法動作的話,恐怕都為時已晚了。」《路透社》轉述觀察者的評論。
歷經過緬甸、2016總統大選的經驗,這一次FB官方卻是信誓旦旦地向眾人表示:「Facebook已從過去的選舉中學到經驗,聘請了各領域專家組成團隊,為接下來的各種複雜情況做好準備——我們投注相當多的時間和精力,來讓選舉能夠更安全。」
但外界也有困惑的是,在FB不透明的演算法下,界定危險內容的標準為何?如果沒有具公信力的第三方協作,是不是就成了FB自己說了算的內容控管?先前才因為將《紐約郵報》報導杭特拜登醜聞,列為「爭議或不實的無證據政治內容」而發動一系列帳戶停權、文章封鎖等爭議,FB卻難以在這一點上提出令所有人能夠信服的答案,因而招致不少言論審查的質疑。
不過FB擔心的「網路大亂」並非空穴來風,今年9月微軟公司(Microsoft)也才發表了調查報告,警告2020總統大選已受到來自中國、俄羅斯以及伊朗三國的駭客攻擊威脅,也極有可能發生網軍煽動、資訊戰的風險。如果選舉前後的72小時,真的不幸發生了社群媒體擔憂的亂象,屆時各加平台又該如何應對?
「在社群平台上網路成癮、彼此撕裂、假新聞亂竄....難道FB自己不就是作惡的來源之一?」近期Netflix紀錄片《智能社會:進退兩難》 (Social Dilemma)中即大力抨擊FB,作為全球社群媒體龍頭,其經營運作的本質就會讓人們會上癮,對於造成的負面影響束手無策。
不過針對紀錄片的指控,FB也公開發表聲明:「這部片扭曲了社交媒體平台的意義,只是替困難且複雜的社會問題,憑空找一個代罪羔羊而已。」
收看更多文章,請訂閱轉角國際facebook專頁:
回應