一本正經地胡說八道 如何遏制人工智慧「說謊」
來源:倍可親(backchina.com)製造出的虛假信息更具迷惑性,「AI(人工智慧)幻覺」帶來「一本正經地胡說八道」……易傳播、難防治的「AI謠言」,對政府監管部門、網際網路平台、技術研發者以及社會各界提出了新挑戰。
如何遏制人工智慧「說謊」?需要技術完善與規制,也需要系統性治理。多名受訪專家表示,要完善法律規範和部門監管,推動形成多方聯動的共治格局。
亮明法律底線,增強對「AI謠言」的威懾力
近日,借AI造謠燃氣漲價的廣西網民鄭某受到行政處罰;一批傳播「AI謠言」的網路賬號被網信部門責令禁言或依法依約關閉;向用戶傳授如何利用AI「一鍵去衣」「換臉換身」的賬號、公開售賣相關軟體的網路店鋪,受到網信、公安等部門聯動懲治……
依法懲治的背後,是近年來AI相關法律法規的不斷健全完善。《網際網路信息服務深度合成管理規定》《生成式人工智慧服務管理暫行辦法》《人工智慧生成合成內容標識辦法》等出台,向AI使用者和平台管理者亮明了法律底線,為執法提供了法律依據。
中南大學法學院副院長楊清望表示,「AI謠言」違法成本過低的問題仍然存在,要對不法行為嚴加懲處,完善相關法律法規,增強威懾力。
北京師範大學新聞傳播學院教授許小可建議,針對生成和傳播虛假信息的高風險領域,通過司法解釋等法律形式,明確各方義務邊界,制定科學合理的AI侵權責任認定指導標準。
與此同時,「AI謠言」案件取證難,困擾著辦案機關。「解決涉『AI謠言』案件取證難,需構建一套適應AI技術特性的證據收集與認定系統。」楊清望建議,通過建立完善案件證據的司法認定規則與標準,將不涉及商業秘密和個人隱私的平台演演算法透明化,以此破解證據與責任認定難題。
一些地方公安機關已經在監測和識別「AI謠言」上有所探索。「我們與科研機構、企業密切合作,進一步提高對惡意『深度偽造』信息的監測預警和快速識別能力,與相關部門合作建立網路謠言巡查監測、核查反饋、會商研判、線索移送、打擊處置的閉環機制,對於通過AI等方式合成的虛假信息,第一時間依法依規處理。」遼寧瀋陽市公安局網路安全保衛支隊民警楊永志表示。
加固技術堤壩,斬斷「AI謠言」的傳播鏈
有網友發現,一些網路平台上,AI生成圖片、視頻發布時「疑似AI技術生成」的提示語出現並不及時,給了虛假信息傳播的時間。
「為了維護自身發展和利益,平台更應自覺治理『AI謠言』,斬斷『AI謠言』的傳播鏈條。」楊清望認為,發現AI謠言后,平台應立即採取下架、刪除、闢謠等措施,尤其是面對重大事件、敏感話題,要加強圖片、視頻的真偽核查,及時消除謠言帶來的負面影響。
如何加強真偽核查?
重視網民反饋。「建立便捷的舉報和投訴渠道,對於網民反映的疑似謠言信息,要及時予以查證處理。對於多次利用AI造謠的用戶,可以採取列入黑名單等禁止性措施,規範用戶行為。」楊清望說。
「進行AI識別,還需要有力的技術保障。」中國政法大學網路法學研究所所長李懷勝表示,技術上,可以通過演演算法識別、大數據分析和區塊鏈溯源等手段,識別和阻斷謠言傳播。例如,利用AI系統檢測,通過自然語言處理和圖像識別技術,自動標記可疑內容並減少推薦。
「監管部門還可以引入『動態可追溯責任鏈』機制,使用內容顯式標識和隱式標識等,探索開展『AI謠言』的內容倒查和動態追責。」許小可說。
提高辨別能力,看清「AI謠言」的真面目
數數手指,AI可能生成「六根手指」;尋找陰影方向,AI也許把太陽掛反;看看面部表情,AI生成畫面可能眼嘴不協調……AI謠言真假難辨,但仍可發現蛛絲馬跡。
提高警惕,是提升「AI謠言」辨別能力的第一步。
看到「網友爆料」「獨家內幕」的字樣,或是發現信息邏輯存在漏洞或矛盾,就要注意了——它很可能經過了篡改或杜撰。「要謹慎分辨,盡量找到權威信息核實;也可以通過交叉印證的方式,驗證信息真偽性。」許小可說。
還要增強法律意識,防止在「無意識」中助力謠言傳播。
「有些人可能主觀上並無造謠意識,只是將AI合成內容發布在網路上,結果被大量轉發,從而產生負面影響。」李懷勝說。
對此,李懷勝提醒,AI生成內容可能存在事實性偏差、邏輯漏洞或時效滯后問題,使用過程中應保持審慎態度,不要直接公開發布未經核實的AI生成內容,防止無意間誤導信息傳播。
在媒體責任方面,專家認為,媒體平台應提高內容審核能力,通過官方渠道和權威信源核查信息真實性;自媒體從業者應增強法律意識,真實、準確、客觀發布信息。
防治「AI謠言」,知識普及不可少。許小可認為,通過發布典型案例,引導人們了解「AI謠言」的生成機制、傳播邏輯、話術套路和識別方式,可以幫助人們看清「AI謠言」的真面目。
AI技術發展迅速,學會「智慧」地運用「智慧工具」,才能讓AI更好服務人們的生產生活。來源:人民日報海外版