編按:《客新聞》與《MyGoPen》合作反詐騙,將提供「事實查核」、「詐騙破解」等相關新聞訊息,本篇文章由《MyGoPen》提供,若疑似遭到詐騙,仍有疑問可撥打「165」反詐騙專線。
你可以先知道:
(1)警方表示,目前 AI 影音詐騙主要是假冒名人,台灣尚未出現以深偽技術假冒素人進行詐騙的案件。
(2)資安專家指出,傳言影片中展示的方法雖然可行,但其實對手機設備、外在環境等相關要求非常高。
(3)MyGoPen 在近一周內收到 418 次影片提問,因此進行查證。綜合專家與警方解釋,提醒民眾勿過度解讀網路創作短片。
AI影音工具假冒的詐騙手法?
原始謠傳版本:
這世界真的很可怕及完蛋了,科技越好不用在正途上,用來詐騙賺錢好可惡的行爲哩!真的要好好的防騙哩!對不認識的人要查言觀色,以免被騙喔!防人之心不可無!
主要流傳這段影片
並在社群平台流傳:
網路上還有許多一模一樣的影片腳本。
查證解釋:
網傳影片中描述的狀況是否為真?
(一)MyGoPen 實際詢問內政部警政署刑事局與資安專家劉彥伯,警方表示,網傳影片中的狀況以目前的 AI 技術確實能做到,不過此類案件都是發生在國外,先前了解到國外有這樣的狀況時,台灣就已經開始在做相關宣導。
刑事警察局官方 YouTube 在 2024 年 3 月 29 日就推出一則「寶貝女兒是真是假?」的宣導影片,內容是分享國外利用 Deepfake 技術進行犯罪的情境,演示深偽技術可以複製受害人親朋好友的影像與聲音以進行勒索、要求轉帳。
在資安方面,警方建議,親友間可先建立好通關密語,遇到親友談到帳戶,務必以事先約定好的通關密語或近期親友的共同活動進行測試;也提醒民眾保護自己的個人資訊,個人Facebook、Instagram、Line 等帳戶被盜就容易遇上深偽詐欺。
(二)劉彥伯表示,從 AI 話題延燒後,中國這類「擺拍博眼球」的虛假短片越來越多,其實中國當局已經對此提出了警示,但由於影片數量眾多所以還是跨海來到台灣。
這類強調「AI 科技帶來威脅」的影片,其實都有共同特徵,就是誇大 AI 的能力,卻完全忽略目前 AI 技術上的限制。
例如目前要用人工智慧去生成一部幾可亂真的影片,其實需要仰賴大量的電腦算力,無法單純透過手機運算,即使透過雲端服務也需要非常長的時間。
另外影片中有展示到透過手機做快速臉部建模,雖然可行,但其實對手機設備、外在環境等相關要求非常高。而影片中的環境光相對微弱,所以並無法像展示那樣容易,而建模的好壞更會牽動整體臉部上的連動效果。
劉彥伯表示,綜合以上觀點,我們更可以去推論上述影片中的效果更像是拍了兩部影片,再透過剪接假裝是 AI 產出的前後影片。資訊安全很重要,我們不能忽略 AI 新科技帶來的新威脅,但也提醒對於這樣的影片,不應該過度解讀自己嚇自己。
目前台灣 AI 影音的詐騙類型
警方指出,目前詐騙集團主要將深偽技術用在假冒名人,因為名人的影像、聲音等資料在網路上容易取得,通常會應用在投資詐騙上,比如以深偽技術假冒財經專家、知名企業,製作成假影片後投放廣告,引導民眾加入封閉式的通訊軟體。
待民眾加入 LINE、Telegram 等群組後,詐騙集團會每天固定時間提供假造的教學影音,以此包裝其專業度,藉此取信被害人,再誘使被害人加入詐騙投資 APP 平臺,讓被害人活在深偽包圍的網路環境。
【2024/11/21 更新】關於 AI 影片的詐騙,警方補充:沒有因為 AI 詐騙而來報案的財損案件,事實上只是很多被害人不知道詐騙他的是不是 AI,例如:假吳淡如、假謝金河的「說話影音」要求加入群組的狀況。
至於傳言影片中以深偽技術假冒素人的方式,警方表示這不太會是集團犯罪的手法,一來是影像、聲音等資料不像名人那麼容易取得,二來是採取這種方式的犯人通常是被害者親近的人,不難排查。
但國外確實存在這樣的個案,如果被鎖定目標、觀察已久,且犯人熟知被害人身邊的親友狀況,未來台灣的確也可能發生,民眾除了提升警覺心之外,也建議可先和親友建立好通關密語。
資料來源:
CIB刑事警察局 YouTube – AI詐騙-月子篇
內政部警政署刑事局 – 「寶貝女兒是真是假」刑事局推出預防深偽詐騙宣導影片
單位諮詢:內政部警政署刑事局
專家諮詢:資安專家 – 劉彥伯