院士帶貨竟是AI偽造!新技術如何才能用在正道上?

京港台:2025-3-16 11:26| 來源:央視新聞 | 評論( 1 )  | 我來說幾句

院士帶貨竟是AI偽造!新技術如何才能用在正道上?

來源:倍可親(backchina.com)

  快速進化的AI生成技術,讓生成假照片、假圖像,甚至視頻換臉都更加容易,且真假難辨。尤其是AI合成的假視頻甚至冒充名醫、名人進行虛假宣傳,對公眾實施詐騙。中國工程院院士、天津中醫藥大學名譽校長張伯禮也是受害者之一。

  院士帶貨 竟是AI偽造

  不久前,網路中出現了這樣一個視頻,視頻中張伯禮院士正在為某美白護膚品進行宣傳。

  

  中國工程院院士 天津中醫藥大學名譽校長 張伯禮:這些內容全是假的。我從來沒用過這個護膚品,我也沒做過這方面的宣傳,更沒研究過,所以裡邊完全是編造的。

  

  實際上,這是一個AI製作的視頻,視頻中使用張院士的形象和聲音,從而達到以假亂真的效果。張院士介紹,像這樣涉及他形象和聲音的假視頻在網路上傳播的至少還有十幾條。

  

  《中華人民共和國民法典》規定,自然人享有肖像、聲音等權益,任何組織或個人利用信息技術偽造都是侵權行為。為此,天津中醫藥大學緊急給網信部門發函,申請對涉嫌侵犯張伯禮院士肖像權及姓名權的相關視頻和公眾號進行管控處理。

  

  中國工程院院士 天津中醫藥大學名譽校長 張伯禮:非常氣憤,我覺得假視頻對我的影響還是第二位的,更可怕的是這些東西誤導消費者,對老百姓造成的影響,又花了錢,有的時候還買了假藥,影響老百姓的健康,同時也違反國家的法律,破壞市場秩序。專家的形象受到玷污,我們確實也很氣憤,但是又很無奈。

  

  近年來,通過AI深度偽造技術假冒名人的事件頻繁發生。除了張伯禮院士之外,一些商家通過AI換臉、合成人聲等手段,將一些名醫、名人、企業家的面容與聲音進行移花接木,有的用於直播帶貨、有的用於推廣營銷產品、有的被製作成了搞笑視頻。

  專家:AI偽造

  是必須消滅的一個「攔路虎」

  AI生成技術原本是一件好事,然而被別有用心的人利用后,卻成了編造虛假信息的工具。專家呼籲,AI偽造是新興技術發展的「攔路虎」,必須從嚴懲治。

  專家指出,AI換臉擬聲,不當濫用,成為違法侵權行為的重災區,易引發侵犯肖像權、侵犯公民個人信息以及詐騙等犯罪行為,不利於構建「以人為本、智能向善」的人工智慧發展生態。

  

  復旦大學新聞學院教授 馬凌:我看到了好多像這種數字人,他會截取某些人的形象,某些人的音頻來生成一個非法的數字人,就可以直播帶貨了。所以它影響到的不僅是老年群體,也影響到了更廣大的群體,包括部分上網的孩子也會受到影響。

  據介紹,另一方面,AI生成虛假信息泛濫也對社會公信力構成了嚴峻挑戰。

  

  復旦大學新聞學院教授 馬凌:AI造假新聞現場,它給新聞業帶來的負面影響太大了。正常的新聞工作者是不會使用這樣的圖像,但是如果被某些別有用心的人所利用,被社交媒體所廣泛利用,它毀損的是社會的公信力,它不僅抹黑了媒體,也讓公眾的認知發生混亂。長此以往,可能整個社會都會充滿互相不信任的情緒。

  

  近日,為了促進人工智慧健康發展,規範人工智慧生成合成內容標識,國家網際網路信息辦公室等部門聯合發布了《人工智慧生成合成內容標識辦法》,9月1日起施行。服務提供者應當按照要求對生成合成內容添加顯式標識,以及在生成合成內容的文件元數據中添加隱式標識。任何組織和個人不得為他人實施惡意行為提供工具或者服務,不得通過不正當標識手段損害他人合法權益。

  

  中國政法大學傳播法研究中心副主任 朱巍:加不加AI的標識,表面上看,形式上是一個法律的明確規定,它的客觀影響很深遠。不僅是確定知識產權,更重要的是保障信息的公開公正,保障信息的順暢流轉。

  

  中國工程院院士 天津中醫藥大學名譽校長 張伯禮:例如在網路自媒體發布,應該有一個監管。有的是平台發布,平台的從業者應該有審查的責任。我們去投訴舉報,得有專門部門去接收,承擔起責任。第二點要加強監管,網路部門、網際網路監管部門得發揮作用。再就是法律,甚至是公安部門都要介入才行,加大處罰,不管是誰的連帶責任。我覺得應該出台一些綜合的治理措施來解決這個問題,不能再拖了。

  AI解讀AI:

  給AI留下最深印象的AI虛假信息是什麼?

  AI技術在大幅提高各行各業工作效率的同時,也大幅降低造假門檻。對於AI來說,近期發生的AI製造虛假信息的案例,有哪些讓它印象深刻呢?AI能否辨別AI生成的虛假內容呢?

  總台央視記者 鄭怡哲:用AI解讀AI,剛剛我問了人工智慧最近印象深刻的AI造假的案例,它列舉了很多,而且做了分類。

  

  例如,自然災害謠言是它認為影響非常大的一個類別,AI製作的虛假信息成了「恐慌放大器」。很多人熟悉的西藏定日縣地震后,一張「被埋廢墟的小男孩」圖片在網路瘋傳,該圖因男孩有六根手指被識破,但已造成大量恐慌。

  

  還有一個類別,AI技術偽造名人背書與權威數據偽造,利用公眾信任牟利。前段時間盛傳的「80后死亡率5.2%」「每20個80后就有1人去世」等虛假信息,在公共領域造成的危害非常大。所以央視新聞頻道在西藏定日地震廢墟小男孩的虛擬照片,以及80后死亡率的問題上,迅速給出闢謠,讓觀眾了解到最權威的信息。

  

  總台央視記者 鄭怡哲:能否用AI識別AI造假的內容呢?AI告訴我,現在還真有不少機構和軟體已經實現了這項技術。拿圖片來說,有一些是肉眼能判斷,一眼假的AI生成圖。還有一些看起來相對真實的偽造圖片,其實在人工智慧看來,也往往暗藏了像素規律甚至是電子簽名。AI也承認,這些技術上的所謂「缺陷」,未來可能通過深度偽造而更加難以識別。但是AI的創造能力和辨別能力,本就是互相博弈,不斷攀升。平台治理,有效監管,還有公眾的防範意識,要結合起來,才能讓新技術用在正道上。

        更多大千雜聞 文章    >>

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-10-10 20:36

返回頂部