亚洲v欧美v日韩v国产v,欧美日本视频黄色网站,黄片免费在线播放wwwww,亚洲激情a,青青久久精品一本一区人人,欧美色色色色色色色色色图,亚洲欧洲wwwww在线观看

?
您好 ,歡迎您來到邯鄲之窗! 

“AI換臉”詐騙,怎么防?

來源:央視新聞編輯:保存2023-05-26 10:54:06
分享:
  點開直播間乍一看,賣貨的竟是當紅女星。再定睛一看,“明星”其實是使用人工智能(AI)實時換臉技術的普通主播。他們冒充明星藝人,只為增加賣點,助力賣貨……

  近期,“AI換臉”的應用范圍越來越廣,但存在濫用之嫌,甚至有人利用AI換臉實施犯罪,例如偽造不雅視頻、換臉詐騙等。前不久,就有一男子因AI“偷臉”,10分鐘被騙430萬元。

  如此以假亂真,讓人防不勝防。“AI換臉”的法律邊界在哪?普通人又該如何防范?

  公司老板遭遇AI換臉詐騙

  10分鐘被騙取430萬元

  近日,內(nèi)蒙古包頭警方發(fā)布一起利用AI實施電信詐騙的典型案例。

  來自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通過微信視頻聯(lián)系他,稱自己的朋友在外地競標,需要430萬元保證金,想借用郭先生公司的賬戶走賬。

  基于對好友的信任,加上已經(jīng)視頻聊天“核實”了身份,郭先生在10分鐘內(nèi),先后分兩筆把430萬元轉到了對方的銀行賬戶上。

  事后,郭先生撥打好友電話才得知被騙,原來騙子通過AI換臉和擬聲技術,佯裝好友對其實施詐騙。“當時是給我打了視頻的,我在視頻中也確認了面孔和聲音,所以才放松了戒備。”郭先生事后說。

  AI換臉冒充明星帶貨

  律師:或涉嫌侵權

  除了佯裝“熟人臉”實施詐騙,AI換臉還可能出現(xiàn)在直播帶貨中。最近,網(wǎng)上出現(xiàn)了一些“換臉直播”教程,教程發(fā)布者聲稱實時變臉軟件可以幫助用戶輕松“變臉”,極大地助力引流賣貨。

  在一個展示換臉直播效果的視頻中,使用者把名為“成龍”的模型載入相關軟件后,攝像頭前的人在直播畫面中就有了與成龍相似的五官,但臉型和發(fā)型還保持原樣。

  記者發(fā)現(xiàn),使用者歪頭或變換表情時,五官動效切換得自然順滑,只有手掌從臉前劃過時,出現(xiàn)了比較明顯的破綻。

  發(fā)布者展示換臉為“成龍”的實時效果和軟件界面(視頻截圖)

  北京岳成律師事務所高級合伙人岳屾山表示,換臉直播用于公開傳播可能涉嫌侵犯相關明星藝人的肖像權。如果涉及直播帶貨等商業(yè)行為,會成為加重情節(jié)。

  岳屾山解釋,只要未經(jīng)肖像權人同意,在直播中通過技術手段把自己的臉換成了明星的臉,就是對明星肖像的侵權。根據(jù)不同情況,承擔的后果可能不同。即便只是娛樂,不涉及盈利行為,也屬于侵權。如果把明星肖像用于帶貨直播,屬于是商業(yè)行為,在賠償數(shù)額上一定會給予考慮。如果主觀惡性、過錯程度比較大,且因此獲利,賠償數(shù)額可能會更高。

  記者注意到,一些使用換臉技術的直播并不會直接提到相關明星藝人的名字,但也不會主動聲明或者否認。岳屾山認為,該行為涉嫌欺詐或是虛假宣傳,讓公眾誤以為就是明星在帶貨。如果貨品本身質(zhì)量不好,或者主播在帶貨過程中說的話或行為導致公眾對被換臉的明星產(chǎn)生負面評價,明星可以主張名譽權的侵權責任。

  AI技術存在濫用風險

  務必保持防范意識

  為規(guī)范人工智能發(fā)展,去年12月,《互聯(lián)網(wǎng)信息服務深度管理規(guī)定》正式發(fā)布,明確了數(shù)據(jù)和技術管理規(guī)范。其中提到:深度服務者對使用其服務生成或編輯的信息內(nèi)容,應當添加不影響使用的標識。智能對話、人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內(nèi)容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。

  近期,也有平臺和企業(yè)發(fā)布了“關于人工智能生成內(nèi)容的平臺規(guī)范暨行業(yè)倡議”,明確禁止利用生成式人工智能技術創(chuàng)作、發(fā)布侵權內(nèi)容,包括但不限于肖像權、知識產(chǎn)權等,一經(jīng)發(fā)現(xiàn),平臺將嚴格處罰。

  對于個人而言,除了在形形色色的“明星臉”中保持清醒,避免陷入虛假宣傳,更重要的是面對花樣翻新的AI詐騙,必須保持防范意識。

  保護信息,提高警惕。不要輕易透露自己的身份證、銀行卡、驗證碼等信息,不要輕易人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等;

  多重驗證,確認身份。如果有人自稱“熟人”“領導”等通過社交軟件、短信以各種理由誘導匯款,或涉及網(wǎng)絡轉賬交易行為時,務必通過電話、見面等多途徑核驗對方身份,不要未經(jīng)核實隨意轉賬匯款;

  如不慎被騙或遇可疑情形,請注意保護證據(jù),并立即撥打96110報警。

  整治AI換臉

  要用“法”打敗“魔法”

  “短短10分鐘,被騙430萬元”“換臉冒充當紅女星帶貨,賺得盆滿缽溢”……這種“換臉”術和擬聲術,讓人防不勝防。如此種種,無不說明換臉術的濫用,已經(jīng)對公共利益構成威脅。

  整治AI換臉,當用“法”打敗“魔法”。

  這個法,是方法、辦法的法。有人說,防騙最有效的一招就是不信,無論對方怎么“換”、怎么變、怎么翻著花樣騙,就是“不聽不信不轉賬”。最關鍵的是,優(yōu)化“打法”,升級高招,用更有效的方法“破防”。“魔高一尺,道高一丈”,面對騙子的新招數(shù),我們的反詐術、防騙方法更要優(yōu)化,總結出富有成效的好方法,并做好宣傳普及,構筑反詐防騙的全民陣線。

  這個法,也是法規(guī)、法律的法。此前,一款主打AI換臉的App很火,“只需一張照片,演遍天下好戲”。但很快,在監(jiān)管部門約談后,這款App下架,原因很簡單,如此換臉侵犯了公民的肖像權。去年12月,《互聯(lián)網(wǎng)信息服務深度管理規(guī)定》發(fā)布,對人臉生成、替換、操控,人聲、仿聲等都有明確約束。顯然,隨著制度設計更精準,相關立法更健全,AI換臉空間將越來越逼仄。

  AI換臉術濫用,也促使大家思考一個深層次問題。新技術不斷面世,帶給了人們便利,但可能被居心叵測之徒非法利用。人們固然不能因噎廢食,但也不能忽略它的雙刃劍效應。如果缺乏應有規(guī)束,AI換臉則可能打開潘多拉魔盒。因勢利導,使其趨利避害,這是我們要全力做到的。

  來源:央視新聞綜合中國之聲

相關文章

地址:河北省邯鄲市人民路新時代商務大廈10樓 客服熱線:0310-3181999
邯鄲之窗  www.itf-ac.com  版權所有 未經(jīng)同意不得復制或鏡像 在線交流

冀公網(wǎng)安備 13040302001161號 冀ICP備12015509號-8