亚洲v欧美v日韩v国产v,欧美日本视频黄色网站,黄片免费在线播放wwwww,亚洲激情a,青青久久精品一本一区人人,欧美色色色色色色色色色图,亚洲欧洲wwwww在线观看

?
您好 ,歡迎您來到邯鄲之窗! 

防范“AI換臉”詐騙 你需要的知識都在這兒了

來源:央視新聞客戶端編輯:保存 2024-02-26 08:58:43
分享:

  近年來,隨著人工智能技術(shù)的進(jìn)步,一些不法分子開始利用AI技術(shù)融合他人面孔和聲音,制造非常逼真的圖像來實施新型網(wǎng)絡(luò)詐騙,這類騙局常常會在短時間內(nèi)給被害人造成較大損失。我們應(yīng)該如何看清這類AI“深度造假”?辨別“AI換臉”有沒有什么好方法?我們先來看看近期發(fā)生在陜西西安的一起“AI換臉”詐騙案例。

  陜西西安財務(wù)人員張女士與老板視頻通話,老板要求她轉(zhuǎn)賬186萬元到一個指定賬號。

  被害人 張女士:老板讓把這個款趕緊轉(zhuǎn)過去,這個款非常著急,因為他聲音還有視頻圖像都跟他人長得一樣的,所以就更確信這筆款是他說的了,然后我直接就把這筆款轉(zhuǎn)了。

  轉(zhuǎn)賬之后,張女士按照規(guī)定將電子憑證發(fā)到了公司財務(wù)內(nèi)部群里,然而出乎意料的是,群里的老板看到信息后,向她詢問這筆資金的來由?

  被害人 張女士:然后我們就打電話再跟老板去核實,老板說他沒有給我發(fā)過視頻,然后也沒有說過這筆轉(zhuǎn)賬。

  意識到被騙的張女士連忙報警求助,警方立刻對接反詐中心、聯(lián)系相關(guān)銀行進(jìn)行緊急止付,最終保住了大部分被騙資金156萬元。

  AI“多人換臉”詐騙案 騙走2億港元

  一百多萬的現(xiàn)金,對大部分人來說都算是一筆巨款了,好在警方處理及時,挽回了大部分損失,下面我們再來看另一起案例,這起案例的“換臉”技術(shù)難度更高,涉案金額也更大。近期, 香港警方也披露了一起AI"多人換臉"詐騙案,涉案金額高達(dá)2億港元。

  在該起案件中,一家跨國公司香港分部的職員,受邀參加總部首席財務(wù)官發(fā)起的多人的視頻會議。并按照要求,前后轉(zhuǎn)賬多次,將2億港元轉(zhuǎn)賬到5個本地銀行賬戶內(nèi),其后向總部查詢方知受騙。警方調(diào)查得知,這起案件中,所謂的視頻會議中,只受害者一人為“真人”,其余所謂參會人員,全部是經(jīng)過AI換臉后的詐騙人員。

  看完這兩起案例,您一定有些好奇,AI換臉背后的技術(shù)原理到底是什么?在技術(shù)層面,它是如何實現(xiàn)人臉的精確識別與替換,創(chuàng)造出逼真效果?我們來聽聽專家的講解。

  技術(shù)上如何實現(xiàn)人臉精確識別與替換

  中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:AI換臉過程主要包括人臉識別追蹤、面部特征提取、人臉變換融合、背景環(huán)境渲染、圖像與音頻等幾個關(guān)鍵步驟。其背后最核心的包括為三個部分,首先,利用深度學(xué)習(xí)算法精準(zhǔn)地識別視頻中的人臉圖像,并提取出如眼睛、鼻子、嘴巴等關(guān)鍵面部特征。其次,將這些特征與目標(biāo)人臉圖像進(jìn)行匹配、替換、融合。最后,通過背景環(huán)境渲染并添加后的聲音,生成逼真度較高的虛假換臉視頻。

  快速AI“換臉”僅通過一張照片就可完成

  為了了解AI換臉到底能有多么逼真,記者經(jīng)過與專業(yè)技術(shù)人員合作,深度體驗了AI換臉技術(shù)。

  技術(shù)人員首先用手機給記者拍了一張臉部照片,導(dǎo)入到AI人工智能軟件后,讓記者驚訝的是,雖然電腦攝像頭前的是技術(shù)人員,但是輸出的確是記者的照片,幾乎可以說是“一鍵換臉”,不需要復(fù)雜的環(huán)境和解壓操作。

  更令人驚訝的是,隨著技術(shù)人員面部表情變化,照片上記者的臉也跟著一起發(fā)生了相應(yīng)變化。

  記者:為什么技術(shù)人員這張臉動,我的照片會跟著動呢?

  中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:首先通過視頻的采集,能夠把圖片里這個人臉的面部追蹤定位到,定位到以后第二步他能夠做一個人臉的面部特征點的采集和提取,主要就是包括嘴、鼻子跟眼睛相關(guān)的這些明顯的面部特征。采集到以后, 第三步就跟把這張原始的照片,做一個變換跟融合跟整形。

  記者:通過這張照片還可以做到什么?

  中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:當(dāng)前通過這張照片技術(shù)人員已經(jīng)讓這張照片能夠動起來,活起來了,而如果更進(jìn)一步的將這張照片存下來,能夠存儲大量的照片的話。后期可以把這張照片一段簡短的視頻發(fā)布出來。

  人工智能人臉檢測技術(shù)主要通過深度學(xué)習(xí)算法實現(xiàn),這種技術(shù)能夠識別出面部特征并對其進(jìn)行精準(zhǔn)的分析??梢詫⒁粋€人的面部表情從一張照片或視頻中提取出來,并將其與另一個人的面部特征進(jìn)行匹配。專家告訴記者,如果想要實現(xiàn)視頻實時通話時采用人工智能AI換臉技術(shù),一張照片是遠(yuǎn)遠(yuǎn)不夠的,那就需要不同角度的近千張照片的采集。

  中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:如果要實時點對點交流的話,需要再采集更多的照片,完了進(jìn)行深度學(xué)習(xí)算法模型的訓(xùn)練,訓(xùn)練出來這個模型以后灌到咱們這個視頻里去,就可以做實時的變化跟轉(zhuǎn)換了。這種情況下,就可以做到實時的變臉。聲音的交流也可以,需要預(yù)先采集一些咱們目標(biāo)人群當(dāng)中的聲音,然后進(jìn)行模型的訓(xùn)練,能夠把目標(biāo)人群的聲音還原出來。

  AI生成仿真度極高視頻 難度高投入大

  專家介紹,以詐騙為目的,實施點對點視頻通話,需要AI人工智能生成仿真度極高的視頻。想要達(dá)到以假亂真效果用于詐騙,難度不小。

  中國計算機學(xué)會安全專業(yè)委員會數(shù)字經(jīng)濟(jì)與安全工作組成員 方宇:針對詐騙,其實主要是通過點對點的視頻通話,這時候如果采用換臉技術(shù)和聲音做實時的換臉詐騙的話,想要完成這些技術(shù)操作,就需要投入很強的技術(shù)支持。

  中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:背后需要有大量的資金的投入,包括圖片的采集,包括專業(yè)算法的人員等等,需要很長的一個周期,包括一些算力算法。各方面的投入,需要長時間不斷地迭代,進(jìn)行操作,才能達(dá)到一個相當(dāng)逼真的效果,才有可能實現(xiàn)到詐騙的實際效果。

  目前AI“換臉”更多應(yīng)用于娛樂視頻錄制

  除了一些不法分子企圖利用AI技術(shù)實施詐騙,事實上,近年來,AI技術(shù)更多地被應(yīng)用于短視頻的二次創(chuàng)作,屬于娛樂性質(zhì),越來越多的名人AI換臉視頻出現(xiàn)在網(wǎng)絡(luò)上,不少網(wǎng)友感嘆,這類視頻“嘴型、手勢都對得上,太自然了,差點兒以為是真的。”

  比如這款軟件,拍下記者面部照片后,就能錄制生成出一段記者秒變賽車手的視頻。

  △網(wǎng)友發(fā)布的女士系絲巾原版視頻

  △需要變換的臉的照片

  △生成視頻

  中國計算機學(xué)會安全專業(yè)委員會數(shù)字經(jīng)濟(jì)與安全工作組成員 方宇:AI技術(shù)目前我們??吹降闹饕嵌桃曨l換臉,通過做一些特定的動作,跳舞啊等等。這些視頻其實看起來是有一些不自然的,本身也是純屬于娛樂性質(zhì)的換臉。

  記者發(fā)現(xiàn)在手機應(yīng)用商城中,有數(shù)十款換臉軟件,都可以做到換臉的目的。

  中國網(wǎng)絡(luò)空間安全協(xié)會人工智能安全治理專委會專家 薛智慧:如果從娛樂大眾的角度來說的話,現(xiàn)在市面上也有很多的這些軟件和工具,能夠達(dá)到AI換臉的效果,但是仿真度只有六七分的樣子,大眾直接就能看出來。但是如果要生成一個詐騙視頻來說話,就要生成咱們仿真度極高的這種點對點視頻。

  AI技術(shù)“換臉換聲”可能存在法律風(fēng)險

  不過,AI技術(shù)也是把“雙刃劍”,即使是出于娛樂使用AI換臉、AI換聲,也是存在法律風(fēng)險的。法律專家表示,用AI技術(shù)為他人換臉換聲甚至翻譯成其他語言并發(fā)布視頻,可能涉嫌侵權(quán),主要有三個方面:

  一是涉嫌侵犯著作權(quán),例如相聲、小品等都屬于《中華人民共和國著作權(quán)法》保護(hù)的“作品”。例如網(wǎng)友用AI軟件將相聲、小品等“翻譯”成其他語言,需經(jīng)過著作權(quán)人授權(quán),否則就存在侵權(quán)問題。

  二是涉嫌侵犯肖像權(quán),根據(jù)《中華人民共和國民法典》,任何組織或者個人不得以丑化、污損,或者利用信息技術(shù)手段偽造等方式侵害他人的肖像權(quán)。未經(jīng)肖像權(quán)人同意,不得制作、使用、公開肖像權(quán)人的肖像,但是法律另有規(guī)定的除外。

  三是涉嫌侵犯聲音權(quán),根據(jù)《中華人民共和國民法典》規(guī)定,對自然人聲音的保護(hù),參照適用肖像權(quán)保護(hù)的有關(guān)規(guī)定。也就是說,需要取得聲音權(quán)人的同意,才能夠使用他人的聲音。

  學(xué)會幾招 輕易識別AI“換臉換聲”

  AI換臉這一技術(shù)的出現(xiàn),導(dǎo)致耳聽為虛、眼見也不一定為實了。那我們該如何防范呢?專家表示,其實AI人工換臉無論做得多么逼真, 想要識別視頻真假還是有一些方法的。

  中國計算機學(xué)會安全專業(yè)委員會數(shù)字經(jīng)濟(jì)與安全工作組成員 方宇:實際上從我目前看到的深度偽造的實時視頻上來看,其實還是可以通過一些方式,去進(jìn)行一些驗證。

  那比如說我們可以要求對方在視頻對話的時候呢,在臉部的面前通過揮手的方式,去進(jìn)行一個識別,實時偽造的視頻,因為它要對這個視頻進(jìn)行實時的生成和處理和AI的換臉。

  那么在揮手的過程中,就會造成這種面部的數(shù)據(jù)的干擾,最終產(chǎn)生的效果就是我們看到的這樣,揮手的過程中,他所偽造的這個人臉會產(chǎn)生一定的抖動或者是一些閃現(xiàn),或者是一些異常的情況。

  第二個就是點對點的溝通中可以問一些只有對方知道的問題,驗證對方的真實性。

  提高防范意識 避免個人生物信息泄露

  專家表示,除了一些辨別AI換臉詐騙的小訣竅,我們每一個人都應(yīng)該提高防范意識,在日常生活中也要做好相關(guān)防范措施,養(yǎng)成良好的上網(wǎng)習(xí)慣。首先應(yīng)該是做好日常的信息安全的保護(hù),加強對人臉、聲紋、指紋等生物特征數(shù)據(jù)的安全防護(hù):另外做好個人的手機、電腦等終端設(shè)備的軟硬件的安全管理。第二,不要登錄來路不明的網(wǎng)站,以免被病毒侵入。第三,對可能進(jìn)行聲音、圖像甚至視頻和定位采集的應(yīng)用,做好授權(quán)管理。不給他人收集自己信息的機會,也能在一定程度上讓AI換臉詐騙遠(yuǎn)離自己。

  伴隨AI技術(shù)發(fā)展 需要多層面監(jiān)管規(guī)范

  除了要提高自我防范意識,如何對AI技術(shù)加強監(jiān)管,也成了越來越多人關(guān)注的問題。AI技術(shù)本身不是問題,關(guān)鍵是我們要怎么用它?如何形成有效監(jiān)管?專家介紹,AI技術(shù)發(fā)展,需要多層面監(jiān)管規(guī)范。

  一是在源頭端,需要進(jìn)一步加強公民個人信息保護(hù),尤其是加強對生物特征等隱私信息的技術(shù)、司法保護(hù)力度。二是在技術(shù)層面可以加強管理。例如可以讓視頻傳播網(wǎng)站或者社交軟件,使用專業(yè)的鑒別軟件來鑒定,對AI生成視頻,打上不可消除的“AI生成”水印字樣。目前,這種數(shù)字水印鑒偽技術(shù)有待進(jìn)一步普及。三是在法律制度層面,要進(jìn)一步完善人工智能等領(lǐng)域相關(guān)法律法規(guī)。2023年8月15日,我國正式施行《生成式人工智能服務(wù)管理暫行辦法》?!掇k法》從多個方面“劃下紅線”,旨在促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用。 (記者 崔世杰)

相關(guān)文章

地址:河北省邯鄲市人民路新時代商務(wù)大廈10樓 客服熱線:0310-3181999
邯鄲之窗  www.itf-ac.com  版權(quán)所有 未經(jīng)同意不得復(fù)制或鏡像 在線交流

冀公網(wǎng)安備 13040302001161號 冀ICP備12015509號-8