久久精品手机视频,草草草在线视频,www99热,国产成人免费播放,天天干天天操天天搞,国产一区二区在线免费观看 ,中文字幕在线观看电影

法治號 手機版| 站內搜索

網上有害信息舉報

換臉擬聲等AI技術被濫用,平臺如何發(fā)力“精準識別”?

2025-07-21 15:35:35 來源:法治網微信公眾號 -標準+

近期,據中央網信辦通報,“清朗·整治AI技術濫用”專項行動自2025年4月啟動以來,中央網信辦聚焦AI換臉擬聲侵犯公眾權益、AI內容標識缺失誤導公眾等AI技術濫用亂象,深入推進第一階段重點整治任務。通報披露,第一階段累計處置違規(guī)小程序、應用程序、智能體等AI產品3500余款,清理違法違規(guī)信息96萬余條,處置賬號3700余個。

隨著AI換臉、擬聲等這些AI技術的出現,給治理帶來哪些挑戰(zhàn)?目前整治AI技術濫用的難點在哪里?對于平臺企業(yè)而言,如何才能切實提高審核識別能力?日前,法治網研究院邀請南開大學法學院副院長陳兵、中國人民大學信息文明與國家治理研究所所長黃尹旭、北京交通大學法學院數據法學研究中心主任付新華、《法治日報》律師專家?guī)斐蓡T李瑞,圍繞相關話題展開一場深入對談。

01 法治網研究院:針對近來不斷被媒體曝出的換臉、擬聲等各種AI技術濫用亂象,您認為,當前整治AI技術濫用的難點在哪里?

黃尹旭:當前,AI濫用手段的進化速度可能超過檢測技術,深度偽造已從簡單的面部替換升級到動態(tài)表情、光影細節(jié)的模擬,有些經過對抗性訓練繞過現有檢測工具。檢測系統(tǒng)剛識別出像素異常特征,濫用者就可能添加噪聲、調整參數來規(guī)避。

濫用內容的隱蔽性越來越強,可能只是在真實視頻中替換幾秒對話,或在新聞里夾雜小段AI生成文字,傳統(tǒng)批量掃描技術很難識別局部篡改。

還有,各平臺的監(jiān)測標準、處置流程不一,難以形成全鏈條攔截。

李瑞:我認為主要難點有三個:一是技術迭代迅猛,隨著人工智能技術的飛速發(fā)展,深度偽造技術的質量不斷提升,已經日益逼近甚至超越真實水平,而傳統(tǒng)的識別模型在這種高速變化面前顯得力不從心,難以跟上技術發(fā)展的步伐。

二是責任主體呈現碎片化狀態(tài),從最初的訓練數據收集、模型托管服務、分發(fā)平臺運營,到最終的終端用戶使用,整個鏈條極為冗長且復雜。這種多環(huán)節(jié)、多主體的分散格局,使得取證過程變得異常艱難,歸責問題也變得錯綜復雜,難以厘清。

三是治理標準存在明顯缺位,現行的《互聯(lián)網信息服務深度合成管理規(guī)定》僅作為部門規(guī)章,其罰則相對偏軟,缺乏足夠的威懾力,更為關鍵的是,對于境外開源模型的監(jiān)管,我們目前還缺乏有效的管轄手段。這一漏洞亟需通過配套的刑法修正案以及建立跨境協(xié)同機制來加以彌補和完善,以確保治理體系的全面性和有效性。

02 法治網研究院:針對AI技術濫用亂象,平臺企業(yè)應如何提升審核識別能力,建立長效治理機制?

陳兵:平臺需提升技術能力,加強內容審核,完善內容標識,特別是做好內部合規(guī)治理,樹牢主體責任意識,強化主體責任擔當。一是提升多模態(tài)AI檢測能力,筑牢技術基礎,結合聲紋、語義、畫面匹配度識別AI內容,使其能快速、準確地識別涉嫌違法違規(guī)、侵犯權益的AI生成內容。

二是建立“AI+人工”分層審核機制,AI 負責對大量內容進行快速檢測和初步判斷,篩選疑似 AI濫用的高風險內容或賬戶,推送人工復審。

三是推進內容標識制度,一方面強制要求用戶對AI生成內容進行顯性標識,另一方面采用隱式標識追蹤AI內容的生成源頭和傳播路徑,為打擊濫用行為提供線索。

四是加強內部合規(guī)管理和法治學習力度,轉變觀念,強化主體意識與主體責任,在規(guī)范中發(fā)展,在發(fā)展中規(guī)范,走長遠可持續(xù)健康發(fā)展之道。

黃尹旭:對于平臺企業(yè)而言,需要依據《人工智能生成合成內容標識辦法》等,從源頭嵌入標識機制,附帶不可篡改的數字水印或區(qū)塊鏈標識,并實現經過剪輯、壓縮也能被識別,明確內容屬性。

平臺企業(yè)還需要升級多模態(tài)檢測技術,針對文本、圖像、音頻等不同形態(tài),開發(fā)融合特征的檢測模型;建立分層監(jiān)測機制,對金融、政務等高風險場景實施深度檢測,必要時人工復核;結合技術防御與機制約束,在鼓勵AI創(chuàng)新的同時,有效遏制技術濫用。

李瑞:在技術監(jiān)測層面,應該依據《生成式人工智能服務管理暫行辦法》等法規(guī),構建全流程監(jiān)測機制。具體措施包括:嚴格合規(guī)篩查數據輸入,確保訓練數據的合法性,防范侵權風險;在模型運行時嵌入算法審計模塊,實時監(jiān)測虛假生成、歧視性輸出等潛在風險;在輸出端部署內容溯源技術,保障AI生成內容的可追溯性,便于管理審核。

當然,平臺企業(yè)構建長效治理機制同樣至關重要,主要涵蓋以下方面:建立跨部門合規(guī)團隊,明確各部門職責及協(xié)同機制,確保高效配合;拓寬并暢通用戶投訴渠道,建立侵權快速響應與處理機制,保障用戶權益;定期開展合規(guī)評估,跟蹤監(jiān)管政策動態(tài),靈活調整技術標準。此外,通過行業(yè)協(xié)同合作,制定并實施AI倫理準則,將法律義務有效轉化為技術治理的成效。

03 法治網研究院:除了平臺企業(yè)要積極履行主體責任外,對于如何精準治理AI技術濫用,您還有哪些建議?

付新華:除了督促平臺企業(yè)履行主體責任外,整治AI技術濫用還需從源頭治理與技術反制等層面協(xié)同發(fā)力。一是推動關鍵環(huán)節(jié)監(jiān)管前移,加強對AIGC模型訓練數據來源、技術提供者資質和模型輸出能力的審查,遏制風險于初始環(huán)節(jié)。

二是強化技術反制能力,推動研發(fā)深度偽造等檢測工具,開放公共檢測接口,提升全社會識別與應對能力。

三是健全快速響應的舉報與處置機制,強化執(zhí)法協(xié)同,提升對侵權和虛假內容的發(fā)現與懲處效率。

四是加強AI倫理教育與公眾科普,培育技術開發(fā)者的責任意識和用戶的防范意識,推動形成政府引導、平臺盡責、社會參與的多元共治格局。

陳兵:精準而深入整治AI技術濫用,需要除平臺外,政府、社會公眾等多元主體形成合力。特別是廣大自媒體從業(yè)者和入駐平臺的MCN機構,需增強自身責任意識,自覺遵守法律法規(guī)和道德規(guī)范,堅持真實、準確、客觀的原則發(fā)布信息,不為了流量和關注而實施AI濫用行為。

我想提醒的是,用戶也需要提高識別能力。主動了解AI技術的應用特點,在轉發(fā)傳播AI生成內容前核實內容的來源和真實性,發(fā)現疑似AI濫用行為時,及時向平臺和監(jiān)管部門舉報,為凈化網絡環(huán)境貢獻自己的力量。

監(jiān)管部門除了進一步完善AI生成內容等法律法規(guī)以外,也要同步加強對網絡平臺、MCN機構、自媒體等的常態(tài)化檢測機制,提高對AI濫用行為的監(jiān)測、識別和處置能力,以技術監(jiān)管技術。

同時,積極做好全民數字素養(yǎng)的培養(yǎng)和提升工作,編制典型案例,做好普法宣傳,以案釋法,以案促規(guī),做好長期全面系統(tǒng)的工作。

專家簡介

陳兵

南開大學法學院副院長、教授、博士生導師,

中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員

黃尹旭

中國人民大學法學院副教授,

信息文明與國家治理研究所所長 

付新華

北京交通大學法學院副教授,

數據法學研究中心主任

李瑞

《法治日報》律師專家?guī)斐蓡T,

上海功承瀛泰(北京)律師事務所高級合伙人,

中國法學會法治文化研究會理事


選題策劃|法治網研究院

文|沈仲亮


編輯:高弼浡