【於慶中/綜合報導】隨著科技進步,詐騙花招也不斷翻新。加拿大一對老夫婦日前因「接到獄中兒子求助電話」,情急之下輾轉匯出台幣約47萬元,沒想到電話中兒子的聲音竟是透過AI技術由電腦合成的,隨即向警方報案,目前偵辦仍無進展。

《華盛頓郵報》報導,加拿大一對老夫婦日前接到一通自稱「律師」來電,告知他們39歲的兒子珀金(Benjamin Perkin)開車撞死了一名美國外交官,已經遭到收押,並將電話轉交給他們的兒子。通話中的「兒子」表示很愛他們,但接下來的官司需要他們金援。

第一通電話結束後老夫婦非常擔心,幾個小時後該名「律師」再次去電,表示「當天下午珀金要出庭,急需加幣2.1萬元(約台幣46.8萬元)」。老夫婦情急之下到幾家銀行將錢領出,再照「律師」的要求,透過比特幣(Bitcoin)將款匯出。

直到當晚珀金打電話向父母請安時,他們才驚覺遭到詐騙了。珀金表示,父母告訴他接到電話的第一時間覺得有些奇怪,但因電話中的聲音「聽來就是兒子聲音」,才會急著領錢匯出。之後父母立刻報警,但是「錢已經沒了,沒有保險,也無法取回」。

珀金指出,他不知道歹徒是從哪裡取得他的聲音,但印象中曾在一支上傳到《YouTube》的影片中,聊過他對騎雪地摩託車的喜好。

在更強大的AI工具陸續出現後,冒充他人身分的詐騙案例也快速增加。美國聯邦貿易委員會(FTC,Federal Trade Commission)統計,2022年最常通報的是冒名頂替形式的詐騙,有多達240萬起詐騙個案,較2021年略少,但損失的金額更高,估計約達88億美元(約台幣2702億元)。

FTC 發言人古恩沃德(Juliana Gruenwald)表示:「我們已經注意到社群平台上的詐騙行為有著驚人增長」,並已成立了一個針對新技術的部門,來調查AI在犯罪上的潛在用途,「我們擔心越來越容易的DeepFake技術與其他類似的AI合成效果,將被濫用於詐騙等犯罪行為」。

涉及AI技術的詐騙,早在現今流行的ChatGPT與其他AI機器人出現前就已被濫用。報導指出,2019年一家英國能源公司的董事總經理,就曾相信他的老闆在電話中指示他將超過24萬美元(約台幣737萬元)匯入匈牙利的一個詐騙帳戶。

FTC營銷實踐部助理主任邁克森(Will Maxson)表示,要追踪語音詐騙者是非常困難的,因為他們可能使用位於世界任何地方的電話,甚至很難認定該由哪個機構對語音詐騙擁有管轄權。邁克森提醒,民眾若接到親友急需錢的電話,務必先要求對方稍等,並主動致電該名親友確認。