近日,一起使用智能AI技術進行電信詐騙的案件引發熱議。5月25日,安徽省公安廳發布信息,稱類似的AI換臉詐騙案件在我省也有發生。記者從合肥市公安局了解到,目前合肥市暫未接到類似案件。那么,這種AI電詐騙局到底是怎么實施的?市民又該如何防范?
(相關資料圖)
AI換臉成新騙局冒充熟人騙走132萬
5月25日,安徽省公安廳發布信息,稱類似的AI換臉詐騙案件在安徽也有發生。
4月27日,安慶市經開區發生一起“冒充熟人”詐騙案。民警調查發現,詐騙分子使用了一段9秒鐘的智能AI換臉視頻,佯裝“熟人”讓受害人放松了警惕,從而實施詐騙。
“當時他說讓我幫忙轉一筆賬,還打了一個視頻電話給我,視頻里面我看到是他的臉,但是幾秒鐘就掛了,說在開會,不方便(打視頻電話)。”當事人何先生說,因為打了視頻電話,又是熟人,他就沒多想,就幫忙轉賬了。
4月28日,安慶警方連夜趕赴外省,抓獲3名涉詐嫌疑人。5月22日,警方將先行追回的132萬元被騙款返還給群眾,目前案件正在進一步偵辦中。
10分鐘被騙走430萬
近日,內蒙古自治區包頭市公安局電信網絡犯罪偵查局發布一起使用智能AI技術進行電信詐騙的案件,福州市某公司法人代表郭先生10分鐘內被騙430萬元。
原來在4月20日中午,郭先生的好友突然通過微信視頻聯系他,自己的朋友在外地競標,需要430萬保證金,且需要公對公賬戶過賬,想要借郭先生公司的賬戶走賬。郭先生沒有核實錢款是否到賬,就分兩筆把430萬轉到了好友朋友的銀行卡上。
之后,郭先生撥打好友電話,才知道自己被騙了。原來,騙子使用了智能AI換臉和擬聲技術,佯裝好友。
警方揭秘AI詐騙常用手法
第一種:聲音合成
騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。
第二種:AI換臉
人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認。
第三種:轉發微信語音
騙子在盜取微信號后,便向其好友“借錢”,為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。盡管微信沒有語音轉發功能,但他們通過提取語音文件或安裝非官方版本(插件),實現語音轉發。
第四種:AI程序篩選受害人
騙子利用AI分析公眾發布在網上的各類信息,根據所要實施的騙術對人群進行篩選,在短時間內便可生產出定制化的詐騙腳本,從而實施精準詐騙。
警方支招:多重驗證,確認身份
面對AI詐騙這種新型騙局,市民應該如何防范呢?警方提醒,要多重驗證,確認身份。
如果有人要求你分享個人身份信息,如你的地址、出生日期或名字,要小心;對突如其來的電話保持警惕,即使是來自你認識的人,因為來電顯示的號碼可能是偽造的。在網絡轉賬前要通過電話等多種溝通渠道核驗對方身份,一旦發現風險,及時報警求助。
另外,如果有人自稱“熟人”、“領導”通過社交軟件、短信以各種理由誘導你匯款,務必通過電話、見面等途徑核實確認,不要未經核實隨意轉賬匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息;如不慎被騙或遇可疑情形,請注意保護證據并立即撥打96110報警。
合肥通客戶端-合報全媒體記者 周勇