「2020 假新聞與事實查核工作坊」台北場 No. 5/事實查核中心X資策會X資管所XGoogleXFacebookX社區大學X假新聞清潔劑|事實查核報告以外的全民行動(上)

劉雨婷|特約記者採訪報導

「我們希望借鏡國外,思考自己還能做什麼,讓查核機構不再只是發布報告。」

隨著世界局勢激烈變化,對於事實求真的渴望刺激各地人們馬不停蹄投入事實查核的工作,但台灣事實查核中心總編審陳慧敏並不滿足於此,仍嘗試著尋找其他能幫助民眾破解假資訊的可能。對此,由優質新聞發展協會、台灣事實查核中心、與卓越新聞獎基金會一同舉辦的「2020 事實查核與調查報導工作坊」台北場講座,便邀請多方陣容,讓聽眾了解除了事實查核報告以外,還有哪些嘗試遏止謠言散布行動。

胡元輝:蓬勃發展的查核行動

根據美國杜克大學記者實驗室(Duke Reporters’ Lab)發布的2020年全球事實查核組織年度普查結果,近十年全球已累計共 290 個活躍的事實查核計畫,光是從 2019 年至今,便新生了 68 個查核計畫;而亞洲區的查核計畫,更是在這一年來,從 35 個陡增到 75 個。

蘋果將報導設計成數位互動專題,結合地圖功能呈現追蹤路線,讓閱聽眾更了解情況。圖:GPS 解密回收黑幕專題截圖

根據統計圖表,2014 年還只有 44 個事實查核計畫,之後卻一路陡增至今年的 290 個,顯示事實查核行動已在全球遍地開花。圖表:Duke Reporters’ Lab(Fair Use)

「這是新興旺盛的運動。」

中正大學傳播系教授胡元輝解釋,由於近來世界各地出現有違民主公正原則的選舉、社會爭議引發的騷亂、禍害各國的新冠肺炎,讓民眾越來越重視不實訊息的危害,也帶給各地的查核組織動力去努力查證,甚至是展開長期的跨域查核行動,比如由國際事實查核組織(International Fact-Checking Network,簡稱 IFCN)領軍的「全球新冠病毒事實查核陣線(Corona Virus Facts Alliance)」協作計畫,便是經典一例。

然而,目前全球的事實查核組織多為中小型團隊,每天疲於奔命處理不斷增長的巨量謠言,不僅查核遠趕不及散佈的速度,人力也左支右絀,於是人們開始尋求與科技與學術界合作,期盼未來能透過科技的輔助,提升工作效率。

資策會X資管所:科技界協助開發輔助工具

陳慧敏盤點,英國的 Full Fact、南非的 Africa Check、與阿根廷的 Chequeado 三家事實查核組織共同組成團隊,合作研究人工智慧(Artificial Intelligence,簡稱AI)如何應用在辨識英文不實訊息上(欲了解更完整的內容,請參考台灣事實查核中心新聞:〈當AI加入事實查核 美國杜克記者實驗室:人工判斷仍是關鍵〉),如今已誕生許多可辨識英語系或西班牙語系的 AI 系統,卻缺乏語言門檻較高的中文。因此,尋求與資策會與學術單位合作、自主開發一套繁體中文 AI 系統,對台灣的事實查核組織而言十分重要。

資策會數位服務創新研究所副主任徐毓良表示,團隊自今年二月以來,與被 IFCN 認證的台灣事實查核中心和 MyGoPen 合作,希望能協助「加速」查證工作,而不是用科技直接取代人工查核。團隊再分析查核流程後,決定從資料庫建置與文字辨識技術著手,建立彙整舉報來源的資料庫,透過各式標註讓 AI 辨識,再進行比對、分類。其中,他認為第二階段—如何建立基本重要性篩選判斷指標、讓 AI 遵循來判讀這點,是一開始遇到較大的挑戰。

徐毓良解釋,目前在實作方面,確定可開發快速篩選機制和建置資料庫,但進階標準判定的部分,仍在持續努力中。圖表:徐毓良提供

團隊最初先訪談了兩家查核組織內部人員,了解實務上較看重、實用的判斷標準,卻發現:「每人關注的焦點不同、目的不同,會影響最後設計出來的程式,運作的效果不同。」徐毓良舉例,比如 Line 上多為去脈絡化的謠言,和有一定脈絡的謠言型態不同,則以資訊的角度來說,便需要分別寫成不同的程式,才能讓 AI 辨識運作。 尤其,這些指標還必須是可被歸納量化,才能被寫成程式,讓他後來又翻閱了相關研究資料後,才訂出兼顧重要性與可行性的三大標準:內容、情境、社群。

內容,指的是謠言文本內容,包含用字、是否引用專家說法、圖文搭配都算;情境,指的是謠言所處的語意脈絡,包含文本所引用的新聞代表性、留言等;社群,指的是謠言的傳播過程,包含鑑識發布帳號、傳播路徑等。

他也回頭詢問兩組織的意見,發現他們認為最重要的判斷指標,分別為「是否經過事實查核」以及「被舉報為不實訊息的次數」,讓他笑著說充分證明了「最簡單才是最重要」的道理。團隊也以此定調,讓AI系統優先在資料庫上顯示這兩項指標,目前系統尚處在實作開發的階段中。

「我們到底想處理怎麼樣的假新聞?」

有感於徐毓良與其團隊在訪問時遇到的挑戰,國立臺北大學資訊管理研究所教授汪志堅也在講座開頭,拋出了同樣的省思,提醒大家須先釐清對於科技工具的期待是什麼。

Google 在 2018 年,免費釋出用幾億筆的資料所訓練出的 AI 模型—BERT,讓下載者只須改換背景資料集、微調即可使用,讓 AI 系統辨識技術突飛猛進,要交叉分析、比對不實訊息和真實訊息自然也是小事一件。這看似是好事一件,他卻認為,讓 AI 定奪何謂真假訊息,仍存在許多風險。

「可以讓 AI 系統應用在警告方面,而不是做內容正確性的過濾。」

汪志堅指出,訓練 AI 使用的資料集,很大程度決定了最後程式會如何運作,比如一個資料集中,包含許多同一位記者所寫的新聞稿,那可能最後 AI 是以那記者的語法為判讀標準,而非文本內容。此外,論文上 AI 系統的一些實驗成果,看似能十分準確判斷,但有時只是假象,換了資料集後往往誤判率就上升。

而希望 AI 能辨識訊息的事實對錯、取代人力判定這點,他則質疑要如何認定訊息的真實與否。比如,醫藥類謠言中常見引述專家學者的言論,但有時並不一定是捏造、而是後續推論錯誤,須細察語意情境來判斷,所以不能單以「是否有引述專家發言」這點來讓AI判定。汪志堅強調,不實訊息樣態多元複雜,人工應仍是查核主體。

「問題是:何謂假新聞?」汪志堅提醒眾人,訊息真偽界線模糊, AI 不可能完全代替人工, 徐毓良也同意他的說法。圖:優質新聞發展協會提供

徐毓良也認同汪志堅的觀點,並提到在讓 AI 判讀政治性不實訊息上,難以定義真為的問題更為明顯,因為政治性謠言的判讀標準,取決於資料集所涵蓋的新聞媒體立場分布,難以像健康類謠言一樣,有明確科學事實可判斷;而且有時內容是被斷章取義、而非有實質錯誤,更增加判斷難度。他建議,未來若要開發判讀政治性不實訊息的 AI,若能有新聞學或政治學的學者從旁協助設計,或許有助於明確判定標準。

GoogleXFacebook:網路平台協助培養數位公民

面對前所未見的巨量資訊時代,網路平台也意識到四處流竄的不實訊息問題,Google 台灣政府事務及公共政策資深協理陳幼臻表示,公司對此擬定了三項政策來應對:提升產品服務、強化與事實查核領域的合作、以及協助提升民眾數位素養。

「要同時兼顧言論自由與降低不實訊息對人的影響,這是個錯綜複雜的挑戰。」

在提升產品服務方面,Google 將會依照社群守則處理濫用行為,也設有檢舉人認證計畫,藉由認證第三方事實查核組織或是個人,協助團隊一同監督,相關結果也會公開在透明度報告上。此外,Google 也提供相關服務的背景資訊報告,比如個人化廣告資訊、事實查核標籤等,方便使用者自行判斷。(欲了解更完整的內容,請參考:〈「2019 假新聞與事實查核工作坊」台北場 No. 1/GoogleXOpen Data|善用網路工具反制不實資訊〉

在強化與事實查核領域合作方面,陳幼臻解釋,公司於 2018 年推出了 Google 新聞倡議計畫(Google News Initiative,簡稱 GNI),藉由與新聞記者攜手合作,共同開發查核工具,日前剛完成「source powered by storyful」這款能在手機上查證圖片的應用程式,方便查核者使用。

「唯有當社會上每個人都有高度數位素養與識讀能力的時候,才能根本解決不實訊息的問題。」

而在提升民眾數位素養方面,Google 除了自 2019 年開始,與台灣事實查核中心合作,舉辦工作坊供媒體記者進修外,也於線上免費提供相關課程供人學習,更與台灣展翅協會合辦一系列教師研習營,希望藉此提高孩子們的數位素養。

「數位公民有權利,但也要負責任。」

Facebook 台灣公共政策經理陳奕儒也表示,公司秉持中立立場,遵循社群守則來處理濫用行為,比如移除內容農場連結,是由「該連結是為了要賺取廣告流量」的角度來判斷,而不是審核內容覺得有問題。

然而,儘管 Facebook 會盡量移除謠言、減少謠言擴散、提供相關查證資訊,(欲了解更完整的內容,請參考:〈胡元輝X鄭宇君X魏玓XFacebookXLine|社群媒體雙面刃!審議民主?資訊操弄?〉)但如果使用者不主動去看,一切只是白搭。因此,近年來Facebook也致力於提供數位素養教育,比如設計相關教材、對學生和年長者提供演講,並提供線上教學影片等,希望能培育主動、負責的數位公民。

他也分享過程中的有趣觀察,發現台灣年輕人普遍不曉得該如何與家長或長輩分享資訊,將此視為一種挑戰,因此公司也提供這方面的教學,「不只是教大家數位素養,也希望教大家怎麼講這些知識。」

 

原文刊載於:2020 年 10 月 14 日 | 卓越新聞電子報資訊真偽