警惕AI“深度偽造” 接陌生電話時(shí)建議先“變聲”

分享到:
分享到:

警惕AI“深度偽造” 接陌生電話時(shí)建議先“變聲”

2023年10月29日 02:24 來(lái)源:廣州日?qǐng)?bào)
大字體
小字體
分享到:

  警惕AI“深度偽造”

  接陌生電話時(shí)建議先“變聲”

  專家:人體生物特征易被“移花接木” 電話、視頻聊天時(shí)需加強(qiáng)防范與甄別

  “以前我們說(shuō)‘眼見(jiàn)為實(shí)’,但隨著技術(shù)發(fā)展,不法分子的技術(shù)手段也在更新,造出‘假人說(shuō)假話’,有時(shí)讓人防不勝防,必須要注意鑒別和防范?!苯?,于深圳舉行的世界數(shù)字城市大會(huì)“生物特征識(shí)別技術(shù)應(yīng)用論壇”上,國(guó)家特聘專家陳友斌教授在接受本報(bào)全媒體記者專訪時(shí)談到:“人臉識(shí)別技術(shù)已經(jīng)落地各項(xiàng)應(yīng)用,由此引發(fā)的個(gè)人隱私泄露等問(wèn)題也日漸突出,人臉識(shí)別技術(shù)應(yīng)用安全管理勢(shì)在必行?!?table border=0 cellspacing=0 cellpadding=0 align=left class="adInContent">

  文、圖/廣州日?qǐng)?bào)全媒體記者 馮秋瑜(除署名外)

  AI換臉、聲音合成

  “好友”以假亂真騙走錢財(cái)

  “如今,社會(huì)生活中的不少業(yè)務(wù)都可以在線上進(jìn)行,金融方面如開(kāi)戶、開(kāi)卡、理財(cái)、信貸;民生方面如申領(lǐng)社保、修改密碼、開(kāi)庭、辦案;商務(wù)方面如談判、簽約、公證等,然而你有沒(méi)有想過(guò),屏幕上出現(xiàn)的那個(gè)人,是否真的是你以為的那個(gè)人?人工智能大時(shí)代下,這一點(diǎn)特別需要警惕。”陳友斌說(shuō)。

  前不久包頭警方就通報(bào)了一起利用AI實(shí)施詐騙的案件:福州市某公司法人代表郭先生10分鐘內(nèi)被騙430萬(wàn)元。據(jù)通報(bào),郭先生的一位“好友”突然通過(guò)微信視頻聯(lián)系他,稱自己的一位客戶朋友在外地競(jìng)標(biāo),需要430萬(wàn)元保證金,且需要公對(duì)公賬戶過(guò)賬,想要借郭先生公司的賬戶走賬。基于對(duì)好友的信任,加上已經(jīng)視頻聊天核實(shí)了身份,郭先生沒(méi)有核實(shí)就直接分兩筆把430萬(wàn)元轉(zhuǎn)到了對(duì)方指定的銀行卡上。事后,郭先生撥打好友電話才知道被騙,原來(lái)不法分子通過(guò)智能AI換臉和擬聲技術(shù),佯裝成好友對(duì)他實(shí)施了詐騙?!安环ǚ肿佑靡曨l對(duì)講的方式模擬受害者朋友的聲音,看起來(lái),人也是這個(gè)人,聲音也是他的聲音,但其實(shí)根本就不是他朋友所為?!?陳友斌說(shuō)。

  無(wú)獨(dú)有偶,2022年2月,有位陳先生到派出所報(bào)案,稱自己被“好友”詐騙了近5萬(wàn)元。經(jīng)警方核實(shí),詐騙分子利用陳先生某好友在社交平臺(tái)發(fā)布的視頻,截取其面部畫面后利用“AI換臉”合成,制造陳先生與“好友”視頻聊天的假象騙取其信任,從而實(shí)施詐騙。

  今年10月7日,國(guó)家金融監(jiān)督管理總局北京監(jiān)管局發(fā)布風(fēng)險(xiǎn)提示稱,有不法分子非法獲取個(gè)人信息,通過(guò)計(jì)算機(jī)算法仿真合成受騙者親人、領(lǐng)導(dǎo)同事或公職人員的肖像面容與聲音,冒充上述人員身份行騙;在獲得受害者信任后使用事先準(zhǔn)備好的套路話術(shù)向受害人發(fā)送銀行卡轉(zhuǎn)賬、虛擬投資理財(cái)、刷單返利等詐騙信息,并利用視頻通話,語(yǔ)音轟炸等手段進(jìn)一步降低受害者的防備心,受害者往往在短時(shí)間內(nèi)難以察覺(jué)異樣,一旦聽(tīng)信詐騙分子的騙術(shù)并完成轉(zhuǎn)賬,對(duì)方便杳無(wú)音訊。

  AIGC數(shù)字人?自然人?

  人體生物特征或被“深度偽造”

  “不法分子通過(guò)AI換臉和擬聲技術(shù),佯裝熟人實(shí)施詐騙?!标愑驯蠼榻B,我國(guó)在人臉識(shí)別這一領(lǐng)域的應(yīng)用排在世界前列,因而人臉識(shí)別的風(fēng)險(xiǎn)和隱私保護(hù)必須引起關(guān)注。

  “在鏡頭前面的那個(gè)人,他是不是一個(gè)真實(shí)的自然人?人是不是真實(shí)的?證件是不是真的?人證是不是一致?需要遠(yuǎn)程核身的手段?!标愑驯蠼榻B,出現(xiàn)在偽造圖像或者偽造視頻中,借助AI技術(shù)生成或者偽造的人稱為“AIGC數(shù)字人”。它可以是真實(shí)世界不存在的人,也可以是對(duì)真實(shí)世界存在的人的偽造。而“自然人”是出現(xiàn)在真實(shí)圖像或者真實(shí)視頻中,且存在于真實(shí)世界的人。

  據(jù)了解,目前在廣深兩地,生產(chǎn)和銷售虛擬數(shù)字人的企業(yè)已達(dá)上千家,由AI技術(shù)創(chuàng)建的“數(shù)字人”具有高度逼真的外觀和自然的語(yǔ)言交互能力,能夠與用戶進(jìn)行實(shí)時(shí)對(duì)話互動(dòng),甚至達(dá)到“不仔細(xì)看看不出來(lái)”的逼真程度。

  作為多年從事圖像識(shí)別與人工智能領(lǐng)域研究的專家,陳友斌提醒:“人臉、聲紋、指紋、虹膜、簽名等是最常用的人體生物特征,即便是自然人,但是否他本人此時(shí)此刻就在那個(gè)地方,還是別人移花接木把他粘到那里去?也需要鑒別?!?/p>

  陳友斌介紹,與傳統(tǒng)技術(shù)相比,“AI換臉”的破壞力不僅在于“偽造”,更在于“深度”?!霸p騙分子一般會(huì)先對(duì)公眾在網(wǎng)絡(luò)上發(fā)布的各類信息進(jìn)行大數(shù)據(jù)分析,包括社交媒體上的個(gè)人數(shù)據(jù)、工作信息、人際關(guān)系等,研究他們的日常生活習(xí)慣、工作習(xí)慣、資產(chǎn)狀況等,然后結(jié)合要實(shí)施的騙術(shù),通過(guò)AI技術(shù)對(duì)人群進(jìn)行篩選,從而確定要實(shí)施詐騙的目標(biāo)人群,鎖定詐騙對(duì)象。”

  警惕聲紋造假

  接陌生電話“變個(gè)聲音再說(shuō)”

  陳友斌介紹,“深度偽造(Deep Fake)”是一種基于深度學(xué)習(xí)的多媒體篡改與合成技術(shù),主要包括圖像、語(yǔ)音、視頻和文本的偽造及篡改等,在視頻通話、視頻會(huì)議中,模仿目標(biāo)人物去欺騙另外一個(gè)人?!吧疃葌卧彀l(fā)展得非???,這個(gè)技術(shù)最早用于好萊塢拍電影時(shí)去模擬一些現(xiàn)實(shí)中拍不到的部分,后來(lái)被不法分子所利用,讓人臉圖片的嘴巴動(dòng)起來(lái)、眼睛眨起來(lái),還能搖頭晃腦的,還有換臉等,現(xiàn)在這類模型非常多?!?/p>

  他告訴記者,這種深度偽造技術(shù)在不改變身份的情況下,可以對(duì)人臉進(jìn)行年齡、性別、種族的改變,并且操縱口部或者表情;還可以通過(guò)人臉遷移、交換、堆疊等方式,以“換臉也換表情”“換臉不換表情”等多種方法混合來(lái)改變身份。“實(shí)時(shí)交互式的深度偽造將合成映射到現(xiàn)在的時(shí)刻,針對(duì)實(shí)時(shí)交互式的應(yīng)用場(chǎng)景,如在線會(huì)議中使用虛假身份竊取信息或擾亂秩序,或在視頻通話中模仿目標(biāo)人物去欺騙另一端的用戶等?!?/p>

  陳友斌提醒:特別需要注意的是,聲音的信息也可以通過(guò)提取“聲紋”來(lái)進(jìn)行造假。什么是“聲紋”呢?陳友斌介紹,人類語(yǔ)言的產(chǎn)生是人體語(yǔ)言中樞與發(fā)音器官之間一個(gè)復(fù)雜的生理物理過(guò)程,發(fā)聲器官——舌、牙齒、喉頭、肺、鼻腔在尺寸和形態(tài)方面每個(gè)人的差異都很大,所以任何兩個(gè)人的聲紋圖譜都有差異?,F(xiàn)在大家都常接到很多陌生人打來(lái)的廣告電話,殊不知在和陌生人說(shuō)話的過(guò)程中,不知不覺(jué)就把自己的聲紋泄露了。

  “不法分子可能通過(guò)不同的人向你打電話‘輪番轟炸’,也許他們的目的根本不是為了推銷,而是獲取你的聲紋、生活習(xí)性和社會(huì)關(guān)系,進(jìn)而實(shí)施詐騙?!标愑驯蠼榻B,語(yǔ)音時(shí)長(zhǎng)會(huì)影響聲紋識(shí)別的精度,有效語(yǔ)音時(shí)長(zhǎng)越長(zhǎng),算法得到的數(shù)據(jù)越多,精度也會(huì)越高。因此他提醒:“不熟悉人工智能科技的老年人尤其需要提高警惕,包括年輕人也一樣,接到陌生電話千萬(wàn)不要多說(shuō)話,實(shí)在必須說(shuō)話時(shí)可以捏著鼻子、變個(gè)聲音跟他說(shuō),否則經(jīng)過(guò)一段時(shí)間的數(shù)據(jù)學(xué)習(xí),不法分子就可能會(huì)利用你的聲紋信息和講話習(xí)慣等,合成你的聲音、換成你的臉,在你的社交網(wǎng)絡(luò)里進(jìn)行詐騙?!?/p>

  細(xì)心留意AI偽造“蛛絲馬跡”

  多渠道確認(rèn)不輕信視頻內(nèi)容

  如何防范AI深度偽造詐騙?陳友斌提醒:“如果這個(gè)人跟你很熟,你跟他多交互對(duì)話幾次,就可以發(fā)現(xiàn)問(wèn)題了?!睋?jù)了解,以銀行業(yè)務(wù)為例,是需要通過(guò)圖像、語(yǔ)音、自然語(yǔ)言處理再加上交互對(duì)話來(lái)完成金融業(yè)務(wù),最大限度減小風(fēng)險(xiǎn)。而普通人也可以通過(guò)多種核對(duì)的方式來(lái)發(fā)現(xiàn)AI深度偽造的“蛛絲馬跡”。

  他介紹,因?yàn)槿四樅铣傻乃夭拇蠖嗍褂玫氖潜犙壅掌?,所以“缺少眨眼”可以被視為是合成視頻的“特征”之一,此外合成視頻還可能存在口型和發(fā)音不同步、情緒不符合、某個(gè)地方不自然或者不銜接、牙齒和嘴唇紋理不清,耳朵不對(duì)稱等情況。AI擬聲、AI換臉包裝作偽后的通話,雖能逼真地模仿原始人物的語(yǔ)言和行為,但仍充滿破綻,例如眨眼頻率過(guò)低、眼睛移動(dòng)不協(xié)調(diào)、面部表情不自然、語(yǔ)句不連貫等——這些都是“數(shù)字人”的特點(diǎn)。以下防范口訣比較好記:“電話回?fù)茉俅_認(rèn),視頻不可輕易信;私人問(wèn)題記得問(wèn),答不上來(lái)不可信;眨眼能破AI面孔,關(guān)鍵時(shí)刻要常用?!?/p>

  據(jù)悉,國(guó)家網(wǎng)信辦8月8日發(fā)布的 《人臉識(shí)別技術(shù)應(yīng)用安全管理規(guī)定(試行)(征求意見(jiàn)稿)》,也從公共場(chǎng)所、經(jīng)營(yíng)場(chǎng)所、可能侵害他人隱私的場(chǎng)所等作出了要求。有關(guān)部門也提醒:要提高信息保護(hù)意識(shí),特別警惕需要錄入個(gè)人信息的非正規(guī)軟件;在開(kāi)啟“定位服務(wù)”、輸入身份證號(hào)或是錄入“人臉識(shí)別信息”“指紋識(shí)別信息”等個(gè)人生物信息時(shí)一定要慎之又慎;發(fā)現(xiàn)APP過(guò)度、強(qiáng)制收集個(gè)人信息時(shí)及時(shí)向有關(guān)部門投訴舉報(bào)。此外,妥善設(shè)置個(gè)人社交賬戶的瀏覽權(quán)限,不過(guò)度公開(kāi)或分享涉及個(gè)人信息的動(dòng)圖、視頻等,對(duì)不明平臺(tái)發(fā)來(lái)的鏈接提高警惕,不輕易向陌生人開(kāi)啟手機(jī)屏幕共享。

  《廣州日?qǐng)?bào)》2023年10月29日第A5版

【編輯:劉星辰】
發(fā)表評(píng)論 文明上網(wǎng)理性發(fā)言,請(qǐng)遵守新聞評(píng)論服務(wù)協(xié)議
本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點(diǎn)。 刊用本網(wǎng)站稿件,務(wù)經(jīng)書面授權(quán)。
未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制及建立鏡像,違者將依法追究法律責(zé)任。
Copyright ©1999-2024 chinanews.com. All Rights Reserved

評(píng)論

頂部