有研究指出,人工智能已開發出「說謊」技能,恐對選舉帶來影響。(美聯社圖片)
美國聯邦調查局近日警告,恐有勢力利用AI干預大選。(美聯社圖片)
科學家警告,原本設計為誠實不欺的現有AI 系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱用人類來解決「我不是機器人」的驗證。科學家認為,暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。
法新社報道,《模式》(Patterns)期刊的刊登一份研究報告,顯示AI正在被訓練用來說謊,讓AI失控帶來的威脅更加令人憂心。
報告第一作者、美國麻省理工學院(Massachusetts Institute ofTechnology)研究AI存在安全的博士後研究員帕克接受法新社訪問表示,能深度學習的AI系統不像傳統軟體那樣由「編寫」而成,而是透過類似選擇性培育的程序逐漸「成長」。也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且無法預測。
Meta AI在遊戲中作弊
這支團隊的研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為「外交」(Diplomacy)的戰略遊戲,獲勝關鍵是結盟。
根據2022年發表在「科學」(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分數可排在資深人類玩家的前10%。
帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。Meta聲稱Cicero「在很大程度上誠實且有幫助」,且「絕不會蓄意在背後搞鬼」。但當帕克與同事深究完整資料時,發現完全是另一回事。
舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙並入侵同為人類玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。
Meta在寫給法新社的聲明中沒有反駁關於Cicero欺瞞人類的說法,僅說「這單純是一項研究計畫,本公司研究員打造的模型接受訓練,目的只是用來玩『外交』遊戲…我們沒有打算把這項研究或所學用於本公司的產品」。
ChatGPT謊稱自己「視力受損」
帕克與同事還發現,這只是不同AI系統在沒有明確指示下,利用欺騙手段達成目標的諸多案例之一。
在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損的人,在零工平台TaskRabbit上聘用一個人類替它通過「我不是機器人」驗證任務。
研究報告的作者們還認為近期AI有舞弊或不當影響選舉的風險。
他們警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合AI「不為人知的目標」,人類可能慘遭奪權、甚至滅絕。
對於有些人稱他為「末日預言家」,帕克說:「要能合理判斷這不是大問題的唯一辦法,就是如果我們認為AI的欺騙能力只會停留在目前的程度,不會大幅進步。」
FBI警告AI技術恐影響選舉
無獨有偶,美國聯邦調查局(FBI)近日警告,部分國家可能利用人工智能(AI)傳播假訊息,藉此干預及影響美國11月大選;並稱AI「深偽」(deepfake)技術已被實際運用在政治活動上,企圖操控或煽動選民。
美國FBI官員透露,今年初發現有人冒充美國總統拜登聲音,透過自動語音電話(robocall)敦促選民,勿在新罕布什爾州1月初選進行投票,隨後被發現是一名政治顧問利用深偽技術所為。該官員表示,AI不僅降低民眾惡作劇的門檻,也成為威權國家干預選舉的新利器,且增加執法困難。
今年為美國大選年,FBI也積極關注假訊息等議題。官員表示,目前FBI最關注威權國家勢力的動向,憂心這些政權運用AI相關技術,擴大影響美國大選、煽動社會分裂。