人工智能技術(shù)作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的通用性技術(shù),正在深刻改變著全球經(jīng)濟(jì)格局、人類生產(chǎn)生活方式乃至國(guó)家治理模式。2025年8月,國(guó)務(wù)院印發(fā)《關(guān)于深入實(shí)施“人工智能+”行動(dòng)的意見》,提出要“探索形成智能向善理論體系”。專業(yè)聲音指出,堅(jiān)持以人為本、智能向善的價(jià)值原則已成為人工智能治理的基本共識(shí)。我國(guó)要建立健全人工智能應(yīng)用的風(fēng)險(xiǎn)識(shí)別體系和監(jiān)管機(jī)制,推進(jìn)人工智能立法,防范化解智能時(shí)代的安全隱患和風(fēng)險(xiǎn)挑戰(zhàn),引導(dǎo)人工智能朝著有利于人類文明進(jìn)步的方向發(fā)展。

(來源:正觀新聞)
人工智能技術(shù)發(fā)展給人類社會(huì)帶來多維影響,但其也帶來諸多風(fēng)險(xiǎn)與挑戰(zhàn),亟須法律的規(guī)制與回應(yīng)。一是人工智能發(fā)展引發(fā)多重倫理風(fēng)險(xiǎn)。復(fù)旦大學(xué)馬克思主義研究院副研究員李凌等人指出,人工智能倫理風(fēng)險(xiǎn)是指人工智能技術(shù)在開發(fā)、部署和應(yīng)用過程中,因技術(shù)特性、使用方式或管理缺陷而引發(fā)的違背倫理原則、損害社會(huì)價(jià)值、沖擊個(gè)人權(quán)益或破壞生態(tài)平衡的可能性。在智能經(jīng)濟(jì)領(lǐng)域,人工智能推動(dòng)產(chǎn)業(yè)升級(jí)、“機(jī)器換人”帶來的結(jié)構(gòu)性失業(yè)風(fēng)險(xiǎn)和貧富差距拉大風(fēng)險(xiǎn)等,與數(shù)據(jù)泄漏或數(shù)據(jù)濫用帶來的大數(shù)據(jù)殺熟、金融欺詐等風(fēng)險(xiǎn)并存。在智能生活領(lǐng)域,隨著生成式人工智能大規(guī)模應(yīng)用,深度偽造、虛假信息、數(shù)據(jù)失實(shí)、大模型幻覺等問題愈發(fā)凸顯,極大地沖擊社會(huì)誠(chéng)信體系。在智能治理領(lǐng)域,“技術(shù)黑箱”帶來的技術(shù)失控風(fēng)險(xiǎn)、網(wǎng)絡(luò)馬太效應(yīng)導(dǎo)致的數(shù)字鴻溝風(fēng)險(xiǎn)、境外滲透帶來的意識(shí)形態(tài)風(fēng)險(xiǎn)等凸顯?,F(xiàn)行的倫理準(zhǔn)則在應(yīng)對(duì)上述問題時(shí)偏具宏觀性,規(guī)則的具體化、可操作化和可復(fù)制化有待增強(qiáng)。
二是現(xiàn)有法律監(jiān)管體系應(yīng)對(duì)人工智能風(fēng)險(xiǎn)與挑戰(zhàn)仍有滯后性。中國(guó)計(jì)量大學(xué)馬克思主義學(xué)院教授傅琳凱等人指出,目前,我國(guó)已出臺(tái)網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個(gè)人信息保護(hù)法等相關(guān)法律,對(duì)人工智能發(fā)展涉及的部分領(lǐng)域有所規(guī)范,但面對(duì)人工智能技術(shù)快速迭代與復(fù)雜應(yīng)用場(chǎng)景,現(xiàn)有法律監(jiān)管體系仍存在空白與不足。此外,《生成式人工智能服務(wù)管理暫行辦法》是我國(guó)現(xiàn)階段促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用的重要法規(guī),但在面對(duì)生成式人工智能技術(shù)可能引發(fā)的公共風(fēng)險(xiǎn)具有復(fù)雜性、多樣性、多變性特點(diǎn)時(shí),目前還尚未做到系統(tǒng)化,各法律法規(guī)之間也在規(guī)范內(nèi)容上有所交叉。
三是人工智能應(yīng)用的技術(shù)向善仍需進(jìn)一步引導(dǎo)。西南政法大學(xué)教授付子堂等人指出,當(dāng)前,人工智能應(yīng)用層出不窮。一方面,在設(shè)計(jì)開發(fā)環(huán)節(jié),人工智能的算法、數(shù)據(jù)、算力三要素存在規(guī)制不足問題。算法作為人工智能的核心技術(shù),具有自主學(xué)習(xí)、輔助決策、配置社會(huì)資源等作用,如果缺乏規(guī)制會(huì)出現(xiàn)新的權(quán)力濫用;算法的基礎(chǔ)是大數(shù)據(jù),在數(shù)據(jù)確權(quán)、數(shù)據(jù)安全、數(shù)據(jù)流通規(guī)則等方面需要完善;算力作為數(shù)字時(shí)代的新型生產(chǎn)力,其發(fā)展需要規(guī)則予以保障。另一方面,在部署應(yīng)用環(huán)節(jié),自動(dòng)駕駛汽車、智能診療系統(tǒng)、人形機(jī)器人、生成式人工智能等具體應(yīng)用不斷出現(xiàn),都對(duì)現(xiàn)行規(guī)則帶來挑戰(zhàn)。
專家建議,推進(jìn)人工智能治理法治化,引導(dǎo)和規(guī)范人工智能技術(shù)的研發(fā)與應(yīng)用,確保人工智能造福人類。一是推動(dòng)完善人工智能倫理治理體系。對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)法學(xué)院教授熊光清指出,人工智能的迅猛發(fā)展迫切需要倫理原則的規(guī)范與約束。首先,應(yīng)以科技向善原則引導(dǎo)立法工作,將科技向善原則融入人工智能法律規(guī)范體系。目前,我國(guó)已出臺(tái)《人工智能倫理治理標(biāo)準(zhǔn)化指南》等法律法規(guī)和政策性文件,針對(duì)人工智能技術(shù)特性細(xì)化出人工智能倫理準(zhǔn)則,未來還可具體到自動(dòng)駕駛、智能醫(yī)療等人工智能應(yīng)用的具體領(lǐng)域,確保其安全性和合法性。其次,以科技向善原則為基礎(chǔ)建立倫理審查機(jī)制。建立專業(yè)化和制度化的倫理審查機(jī)制,包括技術(shù)開發(fā)前的倫理預(yù)評(píng)估、開發(fā)過程中的動(dòng)態(tài)監(jiān)督,以及應(yīng)用階段的效果評(píng)估,確保人工智能技術(shù)的研發(fā)和應(yīng)用符合倫理道德標(biāo)準(zhǔn)。最后,在國(guó)際合作中推動(dòng)以科技向善作為規(guī)范人工智能發(fā)展的倫理準(zhǔn)則。我國(guó)要加強(qiáng)與各國(guó)政府、國(guó)際組織、科研機(jī)構(gòu)及產(chǎn)業(yè)界的協(xié)同合作,建立統(tǒng)一或兼容的倫理共識(shí)與標(biāo)準(zhǔn)。
二是構(gòu)建全面科學(xué)的人工智能法律制度體系。西南政法大學(xué)民商法學(xué)院院長(zhǎng)張力等人建議,未來的人工智能立法工作需要積極探索創(chuàng)新路徑:第一,堅(jiān)持適應(yīng)性治理理念,考慮前瞻性立法,適應(yīng)技術(shù)迭代發(fā)展超出已有制度規(guī)范范圍的客觀形勢(shì)。第二,堅(jiān)持要素立法與場(chǎng)景立法相結(jié)合,在完善數(shù)據(jù)、算法等基礎(chǔ)要素監(jiān)管規(guī)則的同時(shí),積極推進(jìn)自動(dòng)駕駛、智能醫(yī)療、智慧金融等典型應(yīng)用場(chǎng)景的專門立法,實(shí)現(xiàn)精準(zhǔn)治理;加快構(gòu)建多層次規(guī)則體系,鼓勵(lì)地方在權(quán)限范圍內(nèi)制定更具操作性的法規(guī),加快制定配套標(biāo)準(zhǔn)規(guī)范,形成國(guó)家法律、行政法規(guī)、地方性法規(guī)、部門規(guī)章、技術(shù)標(biāo)準(zhǔn)相互支撐、有機(jī)統(tǒng)一的制度體系。第三,加緊完善生成式人工智能等前沿領(lǐng)域的發(fā)展與管理機(jī)制,增強(qiáng)人工智能立法的系統(tǒng)性、整體性、協(xié)同性,確保不同層級(jí)、不同領(lǐng)域法律法規(guī)協(xié)調(diào)一致,形成治理合力。
三是為推動(dòng)安全可靠的人工智能應(yīng)用落地提供制度保障。傅琳凱、中國(guó)政法大學(xué)數(shù)據(jù)法治研究院教授張凌寒等人建議,針對(duì)層出不窮的人工智能應(yīng)用,第一,可建立覆蓋全行業(yè)、全生命周期的統(tǒng)一的安全評(píng)估體系標(biāo)準(zhǔn),實(shí)現(xiàn)對(duì)人工智能應(yīng)用安全風(fēng)險(xiǎn)的精準(zhǔn)測(cè)評(píng),篩選、推廣安全可靠的人工智能應(yīng)用,以發(fā)揮技術(shù)向善作用;建立“動(dòng)態(tài)復(fù)核”制度,對(duì)已認(rèn)證應(yīng)用形成安全閉環(huán)管理。第二,通過立改廢釋多種方式解決現(xiàn)有制度不適應(yīng)人工智能技術(shù)產(chǎn)業(yè)發(fā)展的“時(shí)間差”“空白區(qū)”問題,以明確的制度規(guī)范為人工智能技術(shù)產(chǎn)業(yè)發(fā)展提供必需的數(shù)據(jù)資源與行為指引。人工智能產(chǎn)品與服務(wù)的法律責(zé)任設(shè)置,既需要考慮為社會(huì)治理目標(biāo)劃定紅線底線,又需要衡量現(xiàn)階段技術(shù)的發(fā)展水平。在個(gè)案裁判中,還應(yīng)考慮將人工智能產(chǎn)品與服務(wù)提供者的透明度義務(wù)履行情況、主動(dòng)報(bào)告與補(bǔ)救情況等作為其法律責(zé)任認(rèn)定的考量因素。
參考資料:
1. “智能向善”:人工智能創(chuàng)新發(fā)展的理與路
2. 付子堂:新質(zhì)生產(chǎn)力視野下的人工智能立法研究
3. “人工智能+”行動(dòng)開展的倫理風(fēng)險(xiǎn)與法治保障
4. 以良法善治保障人工智能健康發(fā)展
5. 探索建立促進(jìn)人工智能向善機(jī)制
6. 為人工智能高質(zhì)量發(fā)展和高水平安全提供法治保障
輿情分析師 趙鴿
編輯:靳雪林