記者何蕙安/報導

「社群平台上的資訊」在民主社會進程扮演的角色,成為日前舉辦的「2022調查報導與事實查核工作坊」的焦點之一。來自網路資訊研究機構與學界的專家們擔心社群平台演算法遭到有心人士濫用,成為資訊操弄的工具;而在同溫層流竄的「看不見的資訊」,更可能破壞社會對話的事實基礎。

2016年美國大選讓世人首次認識到政治宣傳與資訊作戰在真實世界的影響力,而在台灣即將在2022年11月底迎接九合一大選,面對來自中國的影響力作戰與國內網軍,台灣民眾要如何辨識資訊操弄,公民團體與社群平台如何聯手對抗假訊息,將是一大重點。

2022調查報導與事實查核工作坊7月16日至17日在台大社科院梁國樹國際會議廳與線上同步登場,其中「選舉的不實訊息與闢謠」主題講座,邀請到民主實驗室共同創辦人兼執行長吳銘軒、台灣大學新聞研究所教授林照真,以及Meta台灣公共政策經理陳奕儒,暢談社群媒體與資訊操控對民主社會的影響與對策。

林照真指出,社群平台演算法已經變成假新聞傳播的一大助力,包括一些社團粉專大量轉推某則訊息,誤導平台演算法;當中若吸引意見領袖助陣,影響力與廣告收益又會更為巨大。在個人政治立場極化、缺乏媒體素養技能與政治類事實查核的環境下,皆有利假新聞傳播。

吳銘軒則呼籲「推薦演算法改變」與「形成社會規範」的重要性。他認為,唯有逐步形成社會規範,大眾集體拒絕商業公司假評論、買帳號等資訊操弄的行為,並輔以更健全的事實查核機制、民間分析力量、媒體素養教育,才能打造更健全的資訊環境。


圖1:「選舉的不實訊息與闢謠」主題講座中,聚焦社群媒體與資訊操控對民主社會的影響與對策。左起為台灣事實查核中心總編審陳慧敏、民主實驗室共同創辦人兼執行長吳銘軒、台灣大學新聞研究所教授林照真與Meta台灣公共政策經理陳奕儒/趙元彬攝影

演算法決定我們看到的內容 但也易被有心人士濫用

吳銘軒在2019年9月成立民主實驗室,主要關注與研究中國、境外為主的網軍行動。

而網軍行動脫離不了社群平台。民主實驗室共同創辦人兼執行長吳銘軒解釋,社群平台為了增加黏著度,會推薦用戶偏好、或是平台上就受歡迎的內容。而網軍也著眼於這個演算法機制,試圖創造出某個內容受歡迎的假象來獲得更多的觸及,包括使用大量帳號、在短時間之內大量推文。民主實驗室主要就是追蹤這些足跡,揪出行動網絡。

他指出,假帳號有一些常見的特徵,包括假照片、沒有追蹤與被追蹤人數(或是兩者數字相同),發文頻率異常、發文時間異常等。例如發文時間固定是上午九點到下午五點,疑似是固定的上班時間。

而假帳號創造其實已經成為了一個產業鍊,吳銘軒展示網路上有系統可以讓人同時操作200個帳號,互相按讚、推文,還可以設定互動頻率;也可以買到假照片套圖包,提供千百個照片與影片讓人創造假帳號,購買者甚至可以挑選性別年齡。


圖2:民主實驗室共同創辦人兼執行長吳銘軒認為「改變社群平台演算法」,是對抗網軍資訊操弄的重要關鍵 。/趙元彬攝影

研究哪些群體容易受陰謀論影響,恢復社會對話

吳銘軒也解釋了民主實驗室只針對海外網軍、不追蹤台灣國內的網軍的原因。這是他最常被問到的問題之一。

他以美國2016年選舉為例,強調俄羅斯網軍操作不會只限於在某個陣營,而是讓美國社會政治光譜愈來愈極化。同理,中國網軍的目的也不是使台灣特定候選人當選,而是分化社會,讓大家彼此不信任,這樣更容易操作。

「政治宣傳就是不斷的重複,直到你的認知改變。」

他也以一個針對各國的調查為例,在「誰要對烏俄戰爭負責」的問題上,僅有受資訊操弄比較嚴重的中國、印度認為烏克蘭要負責,顯示政治宣傳機器的影響力。

在這樣的前提下,他認為抓國內網軍只會增加台灣社會的不信任,把這些可能一些本來就是社會非主流的群體推向陰謀論。因此民主實驗室的重點放在研究「哪些群體較容易受到中國論述、假新聞與陰謀論的影響」,希望針對不同族群、世代的人,發展出不同的策略,恢復社會對話。

應對年底的九合一選舉,民主實驗室也預計在8月推出培訓課程,預計招收30位學員,教導關於境外資訊作戰、判斷關鍵字與趨勢、了解中國政府與媒體環境,調查工具與溯源技巧等,希望能整合資源、吸收更多新秀加入分析工作。

傳統新聞媒體守門功能不再 社群媒體、自媒體自由發聲

台灣大學新聞研究所教授林照真則從新聞學角度解析。他表示因為有很多社群媒體、自媒體等發聲管道,現在資訊環境也逐漸變成「選擇想看的訊息」、「想相信的訊息」、與自己想相信的媒體,當前人們選擇性的立場讓林照真大開眼界。

偏偏政治新聞不具備客觀性,再加上人們不當的使用數位科技進行假新聞傳播,讓選舉期間的政治新聞將極為棘手。

「政治新聞很多都涉及意識形態,可能本身就是政治宣傳,或是在為特定候選人造勢——但這些都屬於新聞自由的範圍內。」

台灣大學新聞研究所教授林照真坦言,事實查核在處理政治新聞上有一定的難度,導致台灣媒體逐漸形成不同的市場,媒體在選舉期間媒體公信力與權威性更易遭受攻擊,讓假新聞有更多的活動空間。

她也提醒要留意「宣傳式的假新聞」,特別是中國在假新聞傳播上扮演的角色。她觀察到許多宣傳手法已經超過傳統的說服與欺瞞,且更多的利用社群媒體進行宣傳,製造恐懼與仇恨的內容,讓民眾恐慌,如「2023武統台灣」等。

以2018年9月發生的「中國使館接走滯留關西機場台灣人」的錯誤傳言事件為例,林照真引述民主實驗室的研究,該傳言最早來自中國的《觀察者網》,並有10個微博帳號跟著起舞、一同進行假新聞宣傳。

遺憾的是,在消息不斷放大之下,多家台灣媒體都在沒有查證的情況下引用了該篇中國報導,引發輿論大舉批評台灣駐日使館的處置,並發生台灣駐大阪辦事處處長蘇啟誠結束生命的憾事。(編按:台灣事實查核中心在當時也發布了查核報告,還原當時中國使館並未派巴士到關西機場接送中國旅客的事實。)


圖:台灣大學新聞研究所教授林照真提醒台灣媒體與民眾注意中國在假新聞傳播上扮演的角色,強調人人都要有媒體素養技能/趙元彬攝影

在言論自由下不輕易移除內容 臉書改採取行動影響用戶閱讀判斷

作為社群平台的代表,Meta台灣公共政策經理陳奕儒表示,在言論自由的考量之間,臉書主要是採取一些步驟去影響用戶閱讀時的判斷。

在了解臉書的機制之前,要先了解「不實訊息」(Misinformation)與「虛假訊息」(Disinformation,又稱「惡意不實訊息」)的定義與差別。不實訊息指的是內容可以被驗證為非;而虛假訊息的重點不在於內容,而是散步、製造的方式含有造假的元素。

「Meta平台上有30億的使用者,我們看到很多奇奇怪怪的用法,已經不是平台當初的設計…造成的危害有行為、內容等不同層次,因此也要有不同的處理機制。」陳奕儒解釋區分「不實訊息」與「虛假訊息」的原因。

他舉例,如果是會影響民主進程,例如説宣稱「投票時該私章」這種壓抑選舉的做法,臉書就會立刻移除相關內容;但如果是不會造成太大危害的錯誤內容,則部分則是透過合作的事實查核組織提報,臉書利用降低排序的方式,使該內容被看到的機率降到最低。此外,當某個粉絲專頁重複發布有問題的內容,該粉專內其他的貼文出現的機率也會被降低。

臉書的「影響閱讀判斷」的手段還包括在貼文增加說明標籤,包括提醒用戶某貼貼文含有錯誤內容,並且引導前往相關的事實查核報告;同時,臉書也在探索提供可信任的資訊的策略,目前正在測試在疫苗、氣候變遷、投票等議題提供相關資訊中心,引導用戶進一步了解相關資訊。


圖:Meta台灣公共政策經理陳奕儒說明臉書平台針對內容錯誤的「不實訊息」與手段造假的「虛假訊息」有不同的應對策略,強調必須與在地夥伴與業界合作,才能阻斷錯誤資訊。/趙元彬攝影

政策必須動態調整 適應最新情況

陳奕儒坦言「道高一尺、魔高一丈」,常常發生既有政策無法解決新出現的造假性質的行為,因此臉書必須持續偵測與調適政策,並且與在地夥伴密切合作。

例如,Meta 2019年在台灣發現新的造假行為,並非傳統利用假帳號來轉傳資訊,而是一些社團、粉專的真實帳號,懷著共同的信念、以人工的方式大量轉發特定內容,讓臉書平台的推薦系統誤以為是真實受歡迎的內容。Meta現在也將此一虛假行為納入政策中。

除此之外,他也強調與業界合作的重要性。「現在資訊操弄行為不是單純出現在一個平台上,而是跨平台… 如何更精確、更早偵測到內容農場、LINE群組,必須全面建立防護管道。」

不過,這些社群準則有時候也會視時地的調整,而出現例外。陳奕儒指出,如臉書的社群守則禁止用戶張貼涉及暴力的影像,但在烏俄戰爭期間,卻允許烏克蘭用戶張貼戰事影像,「我們主要是希望用社群平台的力量,讓世界知道發生什麼事。」

平台推薦演算法的改變 才是根本之道

面對社群平台演算法的爭議,林照真表示,社群平台的內容推薦機制違背正常資訊傳播的機制,這也許不是平台的本意;但卻可能造成每個人因為使用習慣的不同、而接觸到不同的訊息,導致彼此之間沒辦法有「共同的事實與基礎」來討論社會議題。

「可能你接觸到某個訊息,但我沒有接觸到。」林照真說,「這種『看不見的推文』的傳播,是我比較擔心的地方。」

「各個社群平台推薦演算法的改變,才是根本… 要找出一個機制,讓(網軍)操作成本愈來愈高、操作空間愈來愈小。」吳銘軒強調。

除此之外,他認為必須要逐步形成社會規範與共識,把假評論、買按讚數、洗帳號等「以造假手段傳播訊息」的行為與商業模式變成一個社會不再容許的事情——包括政府也應該避免與可能以假帳號操作的公關公司合作,儘量降低公共言論領域內不真實的元素。

圖:7月17日舉行的「選舉的不實訊息與闢謠」主題講座現場,坐在台上的講者們回答觀眾提問。/趙元彬攝影

推薦相關

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

這個網站採用 Akismet 服務減少垃圾留言。進一步了解 Akismet 如何處理網站訪客的留言資料