歐盟《人工智能法案》(AI Act)作為全球首個全面監管人工智能的綜合性法律框架,標志著人工智能治理正式邁入“硬法”時代。本系列文章將聚焦法案核心內容,本期重點剖析其對通用人工智能(General-Purpose AI, GPAI)的分類監管思路、提供者核心義務及行為守則要求。
一、通用人工智能(GPAI)的界定與分類
法案創造性地提出了“通用人工智能系統”(GPAI)這一概念,特指那些功能廣泛、可服務于多種目的的人工智能系統,例如大型語言模型、多模態基礎模型等。這類系統因其強大的泛化能力和廣泛的應用潛力,成為監管的重點對象。
法案對GPAI采取了基于風險的層級監管模式:
- 基礎層GPAI:所有GPAI提供者均需履行基礎義務。
- 具有系統性風險的GPAI:這是法案創設的關鍵分類。當GPAI模型在訓練時所消耗的算力總量超過一個特定閾值(以FLOPs衡量)時,即被認定為“具有系統性風險”。這類模型因其巨大的規模、廣泛的影響力和潛在的擴散風險,需要承擔更為嚴苛的合規義務。歐盟人工智能辦公室將負責此類模型的清單制定與動態評估。
二、GPAI提供者的核心法定義務
法案為GPAI提供者(尤其是模型開發者)設定了一系列貫穿模型生命周期的義務,旨在確保技術的透明、穩健與可信。
- 透明度義務:提供者必須為下游開發者或部署者提供詳盡的技術文檔和使用說明。這包括模型的能力、局限性、訓練數據的基本特征(如數據范圍、規模、處理方式)、計算資源消耗以及已知的風險信息。此舉旨在打破“黑箱”,賦能下游用戶進行安全、合規的集成與應用。
- 版權合規義務:提供者必須尊重歐盟版權法。法案要求GPAI提供者(特別是生成式AI提供者)公開其訓練數據中所使用的受版權保護材料的詳細摘要。這一條款旨在平衡技術創新與知識產權保護,為權利人主張其權利提供必要信息基礎。
- 對具有系統性風險的GPAI的額外義務:
- 模型評估與風險減緩:必須進行嚴格的對抗性測試(“紅隊測試”),以識別、評估和減緩可能出現的系統性風險,如惡意生成內容、自我復制、重大網絡安全漏洞等。
- 事件報告:一旦發生任何嚴重事件或發現任何可能引發系統性風險的故障,必須立即向歐盟委員會和成員國監管機構報告。
- 確保網絡安全:必須實施最先進的網絡安全措施,保護模型及其權重免受篡改或非法訪問。
- 能效報告:需監測和報告模型在訓練和運行階段的能源消耗與資源效率,推動綠色AI發展。
三、行為守則與行業自律倡議
除了具有法律強制力的義務條款,法案還大力倡導和鼓勵行業制定并遵守自愿性行為守則(Codes of Conduct)。這被視為對強制性監管的重要補充,尤其在法律細則出臺前的過渡期,以及針對尚未被明確認定為“系統性風險”但影響廣泛的GPAI模型。
- 守則目標:行為守則應致力于實現《人工智能法案》的總體目標,特別是推動GPAI模型在安全性、可靠性、基礎權利保護、社會公益和可持續發展等方面達到更高標準。
- 參與主體:鼓勵GPAI提供者、行業聯盟、民間社會組織、學術界等多元利益相關方共同參與制定。歐盟委員會將為守則的制定提供支持與協調。
- 核心內容:預期的行為守則可能涵蓋:
- 針對特定高風險應用場景(如醫療、教育)的細化部署指南。
- 促進AI可解釋性、公平性和可審核性的行業最佳實踐。
###
歐盟《人工智能法案》對通用人工智能的監管,構建了“強制合規義務”與“自愿行為守則”雙輪驅動的治理體系。它既通過清晰的法定義務(特別是針對具有系統性風險的模型)確立了不可逾越的紅線,又通過倡導行業自律為技術創新和卓越實踐保留了靈活空間。這種分層、精準的監管思路,旨在駕馭AI的巨大潛力,同時防范其系統性風險,為全球AI法治化進程提供了重要的前沿參考。下一期,我們將深入解讀法案對“高風險人工智能系統”的詳細監管要求。
如若轉載,請注明出處:http://www.87868248.com/product/64.html
更新時間:2026-03-09 11:31:45