人工智慧可大量產出可信度高的假新聞與文章,這到底是怎麼回事呢?
正在學Python的哥哥告訴我說,這一切要從擁有強大撰文能力的 人工智慧「GPT-2」出自特斯拉的 CEO 馬斯克所投資的人工智慧研究團隊「OpenAI」說起。OpenAI打造了一款文字產生器「GPT-2」.它可以替各種題材、風格的文章產出續集內容,且會依照原著的寫作風格與陳述內容呼應銜接,無論是經典名作 (點我看範例) 或是現代科普 (點我看範例),通通難不倒它。例如,根據英國媒體《衛報》(The Guardian)報導:將一則關於英國脫歐的新聞,其中的第一段中的一些句子餵給它,GPT2 可立刻產生另一則似是而非的新聞內容、如同原本的報紙般的編排、以及出現跟原文一樣的人物等。另外,若餵給它名著《動物農莊》的作者喬治歐威爾的《1984》小說裏的第一句話「It was a bright cold day in April, and the clocks were striking thirteen (四月間,天氣寒冷晴朗,鐘敲了十三下。)」,它立刻辨識出這句話中的社會科幻小說敘事風格,而能接續相應的故事 (點此連結看 GPT2 怎樣接續)。《衛報》認為 GPT2 產生的句子,幾乎沒有過去 AI 系統撰文時前後語意不一致或是文法錯誤的問題。例如《哈利波特》的續集(點此看:哈利扯下眼睛丟進森林、妙麗被...AI 寫《哈利波特》續章大獲好評!)
「GPT-2」的寫作能力,恐怕是被有心人士利用了。他們有可能先餵 AI 擁有真實存在的人名 (如政壇人物的名字)、地名與事件等的文章,再讓 AI 來移花接木,而捏造出大量的假新聞、假消息。這些假新聞幾可亂真 — 看起來就像是出自 BBC、紐約時報、CNN 等公信力高的媒體一樣,大眾無法辨識其真實性,就會被誤導。據網路新聞指出,有人稱 GPT-2 為「Deepfake 文字版」。但是「GPT-2」畢竟是 AI,沒有明辨是非的能力。所以生產出的文章都是虛構的。
根據維基百科記載:Deepfake 是英文「deep learning 深度學習」和「fake偽造」的混成詞,專指利用人工智慧的人體圖像合成技術。此技術可將圖像和影音疊加至目標圖像或影片上。Deepfake 亦可用來製作虛假的名人性愛影片和報復性色情媒體。帶色情成份的Deepfake作品於2017年間在網際網路上流出,特別是在Reddit上。這些 Deepfake 作品現已被 Reddit、Twitter 和Pornhub等網站禁止發布是專指利用 AI 將名人嘴形、臉部與色情或他人影片移花接木,以遂惡作劇或栽贓嫁禍的目的的影片。
現今,我們身旁已經有夠多人被網路上流傳的謠言和假新聞誤導過。若「GPT-2」開放的話,恐怕會造成許多社會問題 — 煽動民心、讓人民陷於心慌意亂等等,恐怕會被武器化。
因此,研究團隊「OpenAI」決定不釋出完整的「GPT-2」模型,而只公開一小部份模型和範例,以防止「GPT-2」被用作為捏造假新聞的工具。儘管只釋出一小部分,OpenAI 仍擔心 GPT-2 有研究團隊或人員成功破解、衍生出另一套擁有跟完整的 GPT-2 一樣能力的 AI 系統。
近日馬斯克退出「OpenAI」,不少人猜測原因是跟善於虛構假新聞的「GPT-2」有關。但馬斯克本人倒是對此撇清關係,他在推持上表示希望更專注於解決旗下特斯拉和 SpaceX 面臨的又大又難的工程、製造問題,加上在 OpenAI的發展方向與團隊分歧,於是決定退出 OpenAI。(點此看:馬斯克宣布離開 OpenAI 的真正原因是...研發的AI太會寫假新聞?)
聽完哥哥告訴我這個有趣的故事,讓我對Python課程更加有興趣了!
參考來源: