向AI證明“我不是AI”的學術新困局何解 專家建議
將AI生成內(nèi)容納入學術誠信規(guī)制體系
□ 本報記者 趙麗
□ 本報實習生 宋昕怡
畢業(yè)季的喧囂漸息,因“AI率”檢測新規(guī)引發(fā)的爭論仍在持續(xù)。
一面是學生絞盡腦汁“降AI率”,只為“向AI證明自己不是AI”以獲得答辯資格,催生了“代降AI率”的隱秘灰色產(chǎn)業(yè);另一面是教師在教學中對AI“介入”的困惑:查還是不查?用還是不用?
這一學術監(jiān)管難題正困擾全球教育系統(tǒng)。當論文寫作任務恰好落入AI最擅長的領域,依賴“AI率”檢測來評判,是否已偏離了教育的初衷?有高校人士坦言,高等教育正經(jīng)歷“山呼海嘯般的改變”,關鍵在于如何合理使用AI。
對此,《法治日報》記者近日采訪了首都師范大學教育政策與法律研究院副院長蔡海龍、北京外國語大學法學院教授姚金菊。
面臨準確率瓶頸
記者:在社交平臺上,“代降AI率”服務明碼標價。不少學生認為當前AIGC率(生成式人工智能參與度)檢測處于“博弈期”——既難精準識別AI內(nèi)容,又易誤傷原創(chuàng)。這類檢測技術是否尚不成熟?
蔡海龍:主流的論文AI檢測系統(tǒng)主要使用困惑度和突發(fā)性指標來計算AI率,并結合論文的語言模式和風格特征進行整體識別。就當前來看,此類技術還遠未成熟,其穩(wěn)定性和可信性都面臨不小的挑戰(zhàn),漏報和誤報情況也時有發(fā)生,難免誤傷真實原創(chuàng)內(nèi)容。
姚金菊:目前AIGC檢測技術確實處于典型的“博弈期”。一方面,AI生成內(nèi)容的“人類化”速度正在加快。新一代大語言模型生成的文本不僅語法規(guī)范、結構清晰,而且在風格模仿、用詞邏輯等方面不斷趨近人類。這直接削弱了傳統(tǒng)檢測工具賴以判斷的“語言指紋”,也使檢測系統(tǒng)面臨更高的誤判風險。
另一方面,AIGC檢測技術的發(fā)展相對滯后。目前市面上的檢測工具,無論是商業(yè)的還是學術的,都面臨準確率的瓶頸。研究和實踐表明,這些工具不僅存在大量的“漏報”(未能識別出AI生成內(nèi)容),還存在令人擔憂的“誤報”(將人類原創(chuàng)內(nèi)容標記為AI生成)。例如,一些行文流暢、結構清晰、語法嚴謹?shù)娜祟愖髌?,恰恰因為其“完美”而易被誤判為AI生成。
記者:這種困境下,若學生陷入“用AI寫,再用AI查改”的循環(huán),是否淪為低效的文字游戲?
姚金菊:當一些高校將AI檢測結果等同于學術誠信評估依據(jù),學生便被迫進入“規(guī)避AI率”的游戲——寫完后自查,再不斷微調(diào)語言、變換結構,甚至將其文字改為邏輯不通的語句,只為壓低一個概率性指標,不僅浪費時間,更背離了寫作的學習初衷。這實質(zhì)上暴露出當前一些學校對AI的態(tài)度還停留在防范和壓制階段,缺乏真正的引導機制。
蔡海龍:學校如果過度依賴AI檢測工具來評價學生的論文,那么勢必會導致學生投入更多的時間和精力來學習如何規(guī)避檢測。加強對論文的AI率檢測,短期內(nèi)或許可以形成震懾效應,但長此以往,無疑會使論文寫作變?yōu)橐粓鰺o休止的“貓鼠游戲”。
避免“算法一票否決”
記者:AI工具已深度融入寫作流程(如潤色、邏輯優(yōu)化),邊界模糊。禁止恐推高監(jiān)管成本,促使隱蔽使用甚至催生灰色服務;鼓勵又可能導致AI取代學生思考,削弱能力培養(yǎng)。“查AI率”政策,簡單禁止或鼓勵是否都不可行?
蔡海龍:必須承認開展論文AI率檢測確實能夠在一定程度上避免學生對于AI寫作的過度依賴,從而捍衛(wèi)必要的學術標準和學術底線。
但就現(xiàn)實而言,任何極端的處理方式——簡單禁止或全面鼓勵都并不可取。取消檢測,可能導致學生直接提交AI成果,引發(fā)嚴重學術不端,損害學術公正,并使評價體系失效。過度強化檢測,技術上難實現(xiàn),且加劇“貓鼠游戲”,限制學生接觸學習AI技術的機會,造成與社會脫節(jié)。這要求相關部門深刻思考培養(yǎng)目標與評價方式,構建適應AI時代的新理念新方法。
姚金菊:“查AI率”應進入一個“規(guī)則導向、彈性治理”的階段,既承認AI的合理性,也明確其使用邊界。為此,需要從以下三方面完善制度配套:
首先,建立國家規(guī)范,統(tǒng)一使用邊界。通過出臺統(tǒng)一規(guī)范,對AI工具的使用范圍、申報制度、違規(guī)行為進行法律明確??蓞^(qū)分具體使用情境,將AI使用劃分為“允許使用”(資料搜集、語言潤色)、“應申報使用”(生成段落、內(nèi)容輔助)、“禁止使用”(完全代寫、考試中使用)三類情境,并制定清晰可操作的邊界判定標準,防止“一刀切”式懲戒;
其次,完善高校操作機制。設立AI使用聲明制度,要求學生在提交論文時申報使用情況,并保留寫作過程記錄(草稿、生成對話等)。同時,設立救濟程序,對AI檢測結果高風險的內(nèi)容提供人工復核,避免“算法一票否決”;
最后,重塑科研評價方式。從注重結果轉向重視過程與思維,增加口試、草稿痕跡、思維導圖、小組互評等方式,減少“一次性最終文本”作為唯一成果的依賴。此外,還應開設AI素養(yǎng)課程,讓學生了解模型邏輯、生成偏差與倫理風險,具備負責任使用AI的能力。
立法形成清晰規(guī)則
記者:目前高校對生成式AI,比如ChatGPT的管理,主要通過黑白名單、場景劃分、使用披露、倫理教育和懲戒機制。是否存在全國性統(tǒng)一規(guī)范缺失的問題?
姚金菊:近兩年,我國各高校已經(jīng)著手制定相關管理規(guī)范,但除少數(shù)高校給出了AI工具使用指導意見,大多數(shù)高校對此仍缺乏系統(tǒng)性、規(guī)范化的管理。
各高校間規(guī)范標準不一,如閾值設定、禁用場景差異大,可能導致跨校學術交流時標準混亂。且目前檢測工具也不一致,技術可靠性尚不穩(wěn)定,易造成誤判。另外,由于學科差異性較大,AI應用風險不同,僅憑校級規(guī)范統(tǒng)一管理易造成“一刀切”的風險,不利于AI工具的合理使用。
目前現(xiàn)有規(guī)范多數(shù)針對學生的AI工具使用行為,對于教師評審使用行為鮮有提及,相應處罰更是無從談起。在國家層面應結合國際標準,設置基礎紅線,明確絕對禁止項(AI代寫論文、偽造實驗數(shù)據(jù));強制披露要求(模型名稱、使用比例、生成內(nèi)容標注格式),以及通用處罰標準,而高校層面則應保留學科適配權,允許高校在國家框架下制定細則。
蔡海龍:應對AI深度滲透教育,需構建完備的規(guī)則體系:
明確輔助與代寫的法律界定。立法應當形成清晰的規(guī)則,明確區(qū)分可接受的AI輔助使用與構成學術不端的代寫行為,消除實踐中的模糊地帶。
將AI生成內(nèi)容納入學術誠信規(guī)制體系?,F(xiàn)有的學術誠信制度還沒有就AI生成內(nèi)容的問題作出有效回應,迫切需要修訂學術規(guī)范,強制要求對AI生成內(nèi)容進行透明標注,并將未聲明使用AI的行為明確定性為學術不端,配套建立梯度化追責機制。
確立AI參與創(chuàng)作的知識產(chǎn)權歸屬原則。在現(xiàn)行法律否認AI著作權主體資格的前提下,明確規(guī)定人類創(chuàng)作者對AI輔助產(chǎn)出內(nèi)容的主體權責,同時推動立法建立動態(tài)調(diào)整機制,適應技術迭代衍生的新型權益關系。
編輯:趙亞銘