□ 林洹民
歐盟的《人工智能法》明確采取風險管理進路規(guī)范人工智能活動。風險管理進路未必合理。我國如果簡單地照搬他國模式進行人工智能立法,不僅無法為世界法治貢獻智慧成果,也將喪失引領人工智能全球治理的良機。筆者將提出人工智能立法的另一種思路與策略,努力打造一種既能滿足人工智能動態(tài)監(jiān)管需求,又能促進人工智能創(chuàng)新發(fā)展的新型治理框架。
人工智能立法風險管理單一進路之檢討
(一)風險管理的正當性問題
欲在政策上選擇風險管理進路,必須首先論證為什么讓個體與社會承受不可知的重大損害是值得的。并非所有人都是科技的受益者。在科技轉(zhuǎn)化過程中存在決策者、受益者與波及者三方主體。波及者是不能參與政策制定又難以享受科技福利的群體。在風險管理路徑下,偏離一般基準的人,如老人、低智力群體,往往被迫承受技術(shù)發(fā)展的不利后果,他們的特別需求也常被忽視。人們已逐漸認識到風險管理路徑的弊端,轉(zhuǎn)而考慮采用其他替代策略。
(二)風險評估的可行性問題
其一,欠缺高質(zhì)量的數(shù)據(jù)和有效的模型。首先,缺乏作為量化評估基礎的高質(zhì)量數(shù)據(jù)。在新技術(shù)被投入應用前,并不存在可供評估風險的相應數(shù)據(jù)。即便就已投入應用的產(chǎn)品而言,受技術(shù)發(fā)展、地理、時間等各方面因素影響,所提供的數(shù)據(jù)也未必具有參考性。其次,目前并不存在評估人工智能風險的有效模型。對新興技術(shù)的風險評估,將因沿用舊有的分析框架而無法精確界定與測量風險。
其二,難以準確評估技術(shù)疊加引發(fā)的風險。人工智能大語言模型引發(fā)的風險具有疊加性,使得風險評估更為困難。在“大模型+具體應用”的產(chǎn)業(yè)生態(tài)中,上游基礎大模型和下游具體應用之間存在著復雜的依存關系。對上游大模型的風險評估無法預計下游應用產(chǎn)生的具體風險,對下游應用的風險評估也無法預測反饋機制對上游大模型自我學習能力的影響。
(三)風險分類的融貫性問題
目前國際上的風險分類模式主要有三種:風險屬性劃分模式、風險內(nèi)容劃分模式以及風險程度劃分模式。風險屬性劃分模式是一種依據(jù)風險屬性對人工智能活動進行分類的治理模式。風險內(nèi)容劃分模式是依據(jù)風險現(xiàn)實化的后果進行分類。由于觀察者會因信息獲得渠道與關注焦點不同而總結(jié)出不同的風險類型,風險內(nèi)容劃分模式很難形成一套具有說服力的風險類型。風險程度劃分模式以歐盟《人工智能法》為代表。這一模式也存在明顯的局限性,第一,風險程度缺乏明確的判斷標準。第二,僵化的風險類別與高速發(fā)展的人工智能技術(shù)之間存在張力。一方面,隨著人工智能技術(shù)的發(fā)展,原本被視為限制性風險或最小風險的人工智能應用可能會變得具有高風險性甚至不可接受。另一方面,原本被認為禁止應用或高風險的人工智能活動,也可能隨著安全技術(shù)措施的發(fā)展與應用風險程度顯著降低,但因規(guī)范的滯后性,相應的人工智能活動將受到不當限制。
因應人工智能活動特性的復式立法路徑
(一)人工智能活動的雙重屬性
科技大致被劃分為專精科技和賦能科技兩類。以往的科技要么屬于專精科技,要么表現(xiàn)為賦能科技。人工智能活動同時屬于專精科技活動與賦能科技活動。人工智能研究屬于一項專精科技活動,旨在開發(fā)出可以自我分析、自我總結(jié)、自我糾錯的人工智能系統(tǒng)。人工智能研發(fā)本質(zhì)是一項科學研究,屬于專精科技活動。以往的科技常被認為是定向的,影響范圍基本是領域性的,即便通過跨學科合作產(chǎn)生了一定的開放性,也不具備通用性。人工智能的出現(xiàn)改變了科技的定向性。人工智能是一項通用技術(shù),是科學研究、教育、制造、物流、運輸、司法、行政、廣告、藝術(shù)等眾多領域與人類生活各方面的賦能者。通過在具體應用場景中的調(diào)整,人工智能可以滿足多樣的需求。
(二)雙重屬性下的人工智能復式立法定位
其一,作為科技法的人工智能法。人工智能活動作為科技活動的一種,應遵守人工智能科技倫理。人工智能法的科技法屬性也意味著,我們在規(guī)范科技活動的同時應規(guī)定適當?shù)目萍即龠M型制度。我國未來的人工智能立法,應規(guī)定數(shù)據(jù)使用規(guī)則,適度突破既有的個人信息保護規(guī)則、著作權(quán)保護規(guī)則,滿足人工智能訓練的數(shù)據(jù)需求。
其二,作為應用法的人工智能法。人工智能賦能不同應用場景,引發(fā)的法律關系并不相同。單一理論是無法規(guī)范復雜、多場景的人工智能應用的,如果按照單一理論設計規(guī)則,難免會產(chǎn)生規(guī)制過嚴或過松的問題。鑒于人工智能多樣的應用場景,人工智能賦能應用規(guī)范不應尋求簡單的、單一的規(guī)范框架,而應充分重視事物的復雜性。
復式立法進路下人工智能規(guī)范框架的展開
(一)科技法定位下的人工智能研發(fā)伴生性規(guī)范
其一,科技倫理義務化。記錄是科技系統(tǒng)自我觀察與調(diào)試的基礎。只要人工智能系統(tǒng)具有自我學習能力,研發(fā)者就應承擔持續(xù)的記錄義務,以實現(xiàn)對人工智能系統(tǒng)的全生命周期監(jiān)測。報告義務與記錄義務相輔相成,是同一硬幣的兩面。如果根據(jù)記錄發(fā)現(xiàn)人工智能模型存在錯誤或缺陷,研發(fā)人員應及時向監(jiān)管機構(gòu)匯報。
通過算法備案的方式規(guī)范人工智能活動,并不符合科技法規(guī)范模式。備案可能成為變相的審批,不當干擾科技研發(fā)。實踐中,部分監(jiān)管部門以備案之名行審批之實,過度侵蝕科技系統(tǒng)的自主性。更優(yōu)的路徑是強化人工智能開發(fā)者的持續(xù)記錄與報告義務,借助科學系統(tǒng)自身的控制閥門實現(xiàn)治理目標。
其二,建立促進人工智能科技發(fā)展的數(shù)據(jù)制度。數(shù)據(jù)利用問題是制約人工智能發(fā)展的卡脖子問題。首先,人工智能立法可以借助可期待性同意規(guī)則,允許合理利用個人數(shù)據(jù)進行人工智能訓練。其次,人工智能立法應借助數(shù)據(jù)訪問權(quán)打破數(shù)據(jù)孤島,并適當紓解人工智能利用非個人數(shù)據(jù)的知識產(chǎn)權(quán)限制。
(二)應用法定位下的人工智能賦能規(guī)制型制度
其一,規(guī)范人工智能多場景應用的權(quán)利義務機制。首先,人工智能系統(tǒng)相對人的應有權(quán)利。人工智能系統(tǒng)相對人的知情權(quán)應受法律保護。人工智能相對人應有權(quán)了解自己的信息是否在被人工智能系統(tǒng)處理,應有權(quán)獲知人工智能系統(tǒng)的預設功能、局限性、不良影響等信息。個人在了解相關信息后,是否享有解釋請求權(quán)、應用拒絕權(quán)等權(quán)利,則應視場景而定。我國未來的人工智能法還應專門規(guī)定請求人工溝通的權(quán)利。只有保證個人享有表達意見、獲得人為干涉的權(quán)利,人才不會淪為機器的客體。
其次,人工智能系統(tǒng)提供者與使用者的不同義務。一方面,人工智能系統(tǒng)提供者應承擔特定的法律義務,這些義務包括但不限于信息公開、人工監(jiān)督、保障系統(tǒng)穩(wěn)定性等。另一方面,人工智能系統(tǒng)使用者應承擔謹慎使用、保存日志等義務。人工智能系統(tǒng)使用者應謹慎使用人工智能系統(tǒng)。如果日志對診斷系統(tǒng)的運行狀態(tài)和故障是不可或缺的,人工智能系統(tǒng)使用者就有保存相關日志的義務。人工智能系統(tǒng)使用者如果發(fā)現(xiàn)人工智能在具體場景中可能產(chǎn)生歧視、侵犯人格尊嚴等問題,應當暫停使用該系統(tǒng),并將問題反饋給人工智能系統(tǒng)提供者。如果存在重大隱患,應當同時上報國家監(jiān)管機構(gòu),以防止發(fā)生不可逆的后果。
其二,調(diào)整人工智能復雜應用活動的實驗主義治理。實驗主義治理突出體現(xiàn)為一定程度的縱向放權(quán),使得監(jiān)管機構(gòu)能夠進行監(jiān)管實驗、積累監(jiān)管經(jīng)驗。監(jiān)管沙箱是推進實驗主義治理的典型設計。監(jiān)管沙箱是一種由監(jiān)管機構(gòu)依據(jù)法律規(guī)定設立的受控測試環(huán)境,在限定時間內(nèi)允許人工智能系統(tǒng)進行開發(fā)與測試。我國未來的人工智能立法應授權(quán)監(jiān)管部門在特定地域與領域設立監(jiān)管沙箱,從而擺脫“操之過急”或“聽之任之”的弊端。監(jiān)管部門可以根據(jù)評估結(jié)果,適當調(diào)整監(jiān)管沙箱政策,在摸索中尋找妥適的治理手段。此外,立法還可以通過授權(quán)監(jiān)管機關出臺專門規(guī)范性文件的方式推行實驗主義治理。我國未來的人工智能法可以賦權(quán)監(jiān)管機構(gòu)出臺專門的規(guī)范人工智能中小企業(yè)的文件,以促進科技創(chuàng)新。
(原文刊載于《中國法學》2024年第5期)
編輯:武卓立