歐盟最近發布了《通用AI模型行為準則》初稿,這標誌著歐盟在為通用AI模型制定全面監管指導方面邁出了重要一步。這一草案的制定是一個協作過程,涉及來自行業、學術界和民間社會的多方意見。該倡議由四個專門工作組領導,每個工作組負責處理AI治理和風險緩解的特定方面:
1. 工作組1:透明度和版權相關規則
2. 工作組2:系統性風險的識別和評估
3. 工作組3:系統性風險的技術風險緩解
4. 工作組4:系統性風險的治理風險緩解
該草案與《歐盟基本權利憲章》等現行法律保持一致,考慮了國際方法,力求風險比例適當,並旨在通過考慮技術的快速變化來保持前瞻性。
草案中概述的主要目標包括:
– 為通用AI模型提供者明確合規方法
– 促進AI價值鏈的理解,確保AI模型無縫集成到下游產品中
– 確保遵守歐盟版權法,特別是關於使用版權材料進行模型訓練的規定
– 持續評估和緩解與AI模型相關的系統性風險
### 認識和緩解系統性風險
草案的一個核心特點是其系統性風險分類法,包括這些風險的類型、性質和來源。文件列出了各種威脅,如網絡犯罪、生物風險、對自主AI模型失去控制以及大規模虛假信息。草案認識到AI技術的不斷發展性,強調這一分類法需要不斷更新以保持相關性。
隨著具有系統性風險的AI模型變得越來越普遍,草案強調了建立健全的安全和安全框架(SSF)的必要性。它提出了一個措施、子措施和關鍵績效指標(KPI)的層次結構,以確保在模型的整個生命周期內進行適當的風險識別、分析和緩解。
草案建議提供者建立過程來識別和報告與其AI模型相關的嚴重事件,並根據需要提供詳細的評估和糾正措施。它還鼓勵與獨立專家合作進行風險評估,特別是對於構成重大系統性風險的模型。
### 採取主動的AI監管指導立場
《歐盟AI法》於2024年8月1日生效,要求該行為準則的最終版本在2025年5月1日前準備就緒。這一倡議強調了歐盟對AI監管的主動立場,強調了AI安全、透明和問責的必要性。
隨著草案的不斷發展,工作組邀請利益相關者積極參與完善文件。他們的協作意見將塑造一個旨在保護創新同時保護社會免受AI技術潛在陷阱的監管框架。
雖然仍處於草案階段,歐盟的通用AI模型行為準則可能會成為全球負責任AI開發和部署的基準。通過解決透明度、風險管理和版權合規等關鍵問題,該準則旨在創造一個促進創新、維護基本權利並確保高水平消費者保護的監管環境。
此草案開放書面反饋至2024年11月28日。