被騙2億港元!男子參加多人視頻會議只有他是真人

京港台:2024-2-29 10:57| 來源:華商網 | 我來說幾句

被騙2億港元!男子參加多人視頻會議只有他是真人

來源:倍可親(backchina.com)

  參加多人視頻會議

  結果只有自己是真人

  這事聽上去似乎匪夷所思

  卻真實地發生了

  近期,香港警方披露了一起

  多人 「AI換臉」詐騙案

  涉案金額高達2億港元

  

  在這起案件中,一家跨國公司香港分部的職員受邀參加總部首席財務官發起的「多人視頻會議」,並按照要求先後轉賬多次,將2億港元分別轉賬15次,轉到5個本地銀行賬戶內。

  其後,向總部查詢才知道受騙。警方調查得知,這起案件中所謂的視頻會議中只有受害人一個人是「真人」,其他「參會人員」都是經過「AI換臉」后的詐騙人員。

  

  據中國網路空間安全協會

  人工智慧安全治理專委會專家

  薛智慧介紹↓

  「AI換臉」過程

  主要包括

  人臉識別追蹤

  面部特徵提取

  人臉變換融合

  背景環境渲染

  圖像與音頻合成等幾個關鍵步驟

  其背後,

  最核心的包括三個部分:

  首先,利用深度學習演演算法精準地識別視頻中的人臉圖像,並提取出如眼睛、鼻子、嘴巴等關鍵面部特徵。

  其次,將這些特徵與目標人臉圖像進行匹配、替換、融合。

  最後,通過背景環境渲染並添加合成后的聲音,生成逼真度較高的虛假換臉視頻。

  

  學會幾招

  輕易識別AI「換臉換聲」

  AI換臉這一技術的出現

  導致耳聽為虛

  眼見也不一定為實了

  那我們該如何防範呢?

  專家表示

  其實AI人工換臉無論做得多逼真

  想要識別真假還是有一些方法的

  

  中國計算機學會安全專業委員會數字經濟與安全工作組成員 方宇:我們可以要求對方在視頻對話的時候,在臉部的前面通過揮手的方式,去進行識別,實時偽造的視頻,因為它要對這個視頻進行實時的生成和處理和AI的換臉。

  

  在揮手的過程中,會造成面部的數據的干擾。揮手過程中,他所偽造的這個人臉,會產生一定的抖動或者是一些閃現,或者是一些異常的情況。

  

  第二個就是,在點對點的溝通中可以問一些只有對方知道的問題,驗證對方的真實性。

  中國科技大學網路空間安全學院

  執行院長俞能海提醒

  可以讓對方摁鼻子、摁臉

  觀察其面部變化

  他在一個採訪中表示

  如果是真人的鼻子

  按下去是會變形的

  但AI生成的鼻子並不會

  

  同樣

  臉部也一樣

  真人臉部按下去是會變形的

  

  【提醒】

  提高防範意識

  避免個人生物信息泄露

  專家表示,除了知曉一些辨別AI換臉詐騙的小訣竅,我們每一個人都應該提高防範意識,在日常生活中也要做好相關防範,養成良好的上網習慣。

  首先,應該是做好日常信息安全保護,加強對人臉、聲紋、指紋等生物特徵數據的安全防護。另外做好個人的手機、電腦等終端設備的軟硬體的安全管理。

  第二,不要登錄來路不明的網站,以免被病毒侵入。

  第三,對可能進行聲音、圖像甚至視頻和定位等信息採集的應用,做好授權管理。不給他人收集自己信息的機會,也能在一定程度上讓AI換臉詐騙遠離自己。

  【新聞+】

  AI技術「換臉換聲」

  可能存在法律風險

  法律專家表示,用AI技術為他人「換臉換聲」甚至翻譯成其他語言併發布視頻,可能涉嫌侵權,主要有三個方面:

  一是涉嫌侵犯著作權,例如相聲、小品等都屬於《中華人民共和國著作權法》保護的「作品」。例如網友用AI軟體將相聲、小品等「翻譯」成其他語言,需經過著作權人授權,否則就存在侵權問題。

  二是涉嫌侵犯肖像權,根據《中華人民共和國民法典》,任何組織或者個人不得以醜化、污損,或者利用信息技術手段偽造等方式侵害他人的肖像權。未經肖像權人同意,不得製作、使用、公開肖像權人的肖像,但是法律另有規定的除外。

  三是涉嫌侵犯聲音權,根據《中華人民共和國民法典》規定,對自然人聲音的保護,參照適用肖像權保護的有關規定。也就是說,需要取得聲音權人的同意,才能夠使用他人的聲音。

        更多港澳特區 文章    >>

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-8-27 07:37

返回頂部