2018年11月6日 星期二

新聞、謊言、假影片


【摘要2018.11.1.蘋果】20184月,網路上出現一段美國前總統歐巴馬的新影片,在美國國旗與總統旗的背景下,看起來就像他以前的談話影片。歐巴馬穿著平整的白襯衫與深色西裝,對著攝影機伸出雙手強調:「川普總統是不折不扣的笨蛋。」
他沒露出一絲笑容,並說:「嘿,你們知道,我從來不說這些話,至少不會是公開演說,但其他人會。」這時畫面分割成兩半,演員皮爾(Jordan Peele)出現了,歐巴馬沒有說任何話──這影片是融合皮爾的模仿與歐巴馬的實際演說所合成。兩人並列的畫面繼續傳遞著訊息,而皮爾就像數位時代的腹語師,把更多話假借歐巴馬的嘴說出。 
在假新聞肆虐的年代,美國BuzzFeed新聞製作這段公共宣導影片,展示應用人工智慧(AI)新技術可讓人們竄改事實 
美國史丹佛大學法律教授波西利(Nate Persily)表示,我們對於政府和新聞業這類民主機制的信任已經減弱。既然社群媒體假資訊的主要傳播管道,今天發布假新聞的人更可輕易利用我們了。沒有適當的解決方案來因應漸趨成熟的技術,我們脆弱的集體信任將面臨更大的危機。 
AI新技術能虛構出看起來像真人臉孔的影像,其深度學習工具就是所謂的生成網路(generative network)。現在有些公司使用相同的策略來處理音檔。今年稍早,Google發表Duplex AI助理,它能撥打電話,聽起來像真人說話,還會加上語氣停頓,例如「呃」、「嗯」。
將來,製作政客的假影片或許就不需要皮爾這類演員。去年4月時,加拿大新創公司Lyrebird發表了音檔範例,聽起來就像歐巴馬、川普、希拉蕊在說話,令人不寒而慄。
但生成網路需要巨量資料集進行訓練,這可能耗費大量人力。改善虛構內容的下一步是教AI訓練自己。2014年,加拿大蒙特婁大學的研究人員以生成對抗網路(generative adversarial network, GAN)做到這一點,方法是讓兩個類神經網路進行對抗。
其一是生成網路,負責製作假影像,另一是鑑別網路,學習辨別影像的真偽。在幾乎沒人監督的情況下,GAN透過對抗方式訓練彼此;鑑別網路辨別生成網路所製作越來越逼真的假影像,而生成網路不斷想騙過鑑別網路。GAN可以製作任何數位內容。
加州大學柏克萊分校的科學家發展出一種GAN,可以把馬的影像變成斑馬影像,或是把莫內這類印象派藝術家的畫作變成如相片般真實的景色。
今年5月,德國馬克士普朗克資訊學研究所的研究人員和同事發表了「深度影片」(deep video),也是使用某種GAN。深度影片能讓演員控制錄製影片裡其他人的嘴、眼和臉部動作,目前只能在肖像姿態(也就是一個人直視攝影機)下運作;如果演員頭部擺動的幅度太大,影片會有明顯的瑕疵,例如人臉影像周圍出現模糊的像素。
輝達(nVIDIA)公司的研究人員則找到方法,讓GAN能製作出高解析度的臉孔影像;他們先以解析度相對較小的相片訓練GAN,然後由GAN逐步提高解析度。
南加州大學助理教授黎顥(Hao Li)的團隊已經使用GAN製作出逼真的皮膚、牙齒和嘴巴影像,這些都是數位方法難以重建的部位。業餘人士無法輕易駕馭這些技術,但BuzzFeed的實驗揭示了我們日後可能看見的景象。
目前針對假新聞的研究甚少。加拿大里賈納大學的組織行為學助理教授潘尼庫克(Gordon Pennycook)說,某些研究指出,只要看過假資訊一次,稍後再看到假資訊,就會信以為真。他表示,目前還不了解原因,但可能是因為「流暢度」或「閱讀假資訊的簡易度」。 
根據美國麻省理工學院(MIT)針對2006~2017年推特上126000則推文的研究,比起真實的新聞,我們更輕易分享假新聞,尤其是假的政治報導,傳播的廣度與速度都勝過金融、天然災害或恐怖主義的假報導
這項研究結果顯示,大眾渴求新奇。假新聞通常迎合我們的情緒和個人認同,在我們有機會檢視資訊、判斷資訊是否值得傳播之前,誘使我們做出反應。雖然修正錯誤相當複雜,不過資訊科學社群的看法是,可以建立演算法來糾舉假影片。
主持MIT網路政策研究計畫的艾德曼(R. David Edelman)說:「針對這個問題,在技術上當然會有進展。」他曾在歐巴馬執政期間擔任科技顧問,對於歐巴馬的假影片印象深刻。「我知道歐巴馬,我幫他寫過演講稿。我看不出真影片和假影片的差別。」
艾德曼表示,假影片可以欺騙他,但演算法或許能找出人眼不可見的「臉部活動跡象和數位簽章(digital signature)」。
直到目前為止,解決方法可分為兩種。一種方法是在影片中嵌入數位簽章,以證明為真,就像印刷鈔票時用於防偽的精細標誌、全像片或其他特徵。每台數位攝影機可以嵌入獨一無二的簽章,理論上難以假冒。
第二種是利用偵測工具自動糾舉假影片。對於這類偵測工具,美國國防高等研究計畫署(DARPA)所推動的計畫尤為重要,稱為媒體鑑識(Media Forensics, MediFor)。
MediFor採取三種主要策略,都能透過深度學習實踐自動糾舉。第一種是檢查影片的數位指紋(digital fingerprint。第二種是確認影片內容遵循物理定律,例如影片中夕陽西下是否跟真實世界一樣。第三種是查證外部資料,例如影片拍攝時的天氣DARPA打算把三種偵測工具統合成一種工具,評估影片造假的可能性。
這些方法可能減少假影片的數量,但依然是官兵捉強盜的戲碼,造假者可以仿製數位浮水印(digital watermark),或建立深度學習工具騙過偵測工具。
在遏止假資訊瘋傳方面,社群媒體公司的法定義務尚未訂立,或是我們能否在不侵犯言論自由的情況下監管整個產業。2016年美國總統大選之後10個月,臉書執行長祖克柏終於承認臉書是散播假新聞的平台之一。在那之後,祖克柏答應採取行動,卻把責任推卸給使用者,要求他們評比新聞來源的可信度(有人認為這是逃避責任),並打算利用AI來糾舉假資訊。
就在今年3月,芬蘭人工智慧中心宣布一項計畫,邀請心理學家、哲學家、倫理學家等幫助AI研究人員思索AI研究廣泛的社會意涵。4月時,波西利和哈佛大學政治學家金恩(Gary King)共同發起了社群資料計畫(Social Data Initiative)。史無前例,這項計畫讓社會科學家能取得臉書資料,研究假資訊的傳播。
當上層處於責任真空,根除假影片的責任便落在記者和大眾身上。歐巴馬和皮爾在「深度造假」影片的尾聲,齊口說:「勇往直前,在網路上看見我們信任的對象必須更加警覺。是時候,我們需要可靠的新聞來源。」這段影片或許造假,但所言甚是。 


沒有留言:

張貼留言