隨著人工智慧在全球商業和日常生活中普及,已迫切需要制定防範措施和法律來應對重大的新風險,像是關於如何適當且合乎道德的使用人工智慧,以及關注其發展和分布。
根據KPMG澳洲和昆士蘭大學進行的一項全球調查《Trust in artificial intelligence》顯示,有五分之三的人對信任人工智慧系統保持謹慎態度,並且有71%的受訪者希望能對人工智慧能夠進行監管。最近,全球科技巨頭的CEO們也在美國國會山莊的一次會議上,呼籲加強人工智慧的監管,以保護人們免受人工智慧嚴重的影響。
歐洲議會已於3月中旬以壓倒性票數通過《歐盟人工智慧法案》(EU AI Act) 。該法案採取風險管理導向的方法,保護基本權利、民主、法治和環境永續性。該法案預計將於2024年立法,並有望從2025年開始實施,而《人工智慧法案》作為此領域中首見的法律,也預計會成為全球人工智慧監管實際的新標準。
隨著《人工智慧法案》的推出,歐盟的目的是希望在促進採用人工智慧與確保人民有權利使用負責任、合乎道德和可信賴的人工智慧之間取得平衡。在本文中,我們將探討《人工智慧法案》對組織有何意義,並研究《人工智慧法案》的結構、規定的義務、合規的時程表以及組織應考慮的行動計劃。
歐盟人工智慧法案重點摘要
人工智慧擁有巨大的前景,能夠拓展可實現目標的視野,並影響世界、造福人群,而管理人工智慧的風險以及潛在已知和未知的負面後果也相當重要。《人工智慧法案》將於2024年定案,目標在於確保人工智慧系統安全、尊重基本權利、促進人工智慧投資、改善治理, 並鼓勵建立統一的歐盟人工智慧市場。
《人工智慧法案》對人工智慧的定義預計將是廣泛的,並且包含各種技術和系統,因此各個組織都有可能會受到《人工智慧法案》的重大影響,且大部分的管制預計將於2026年初生效。被禁止使用的人工智慧系統,必須在《人工智慧法案》生效的六個月後逐步淘汰,而管理通用人工智慧的規則,則是預計將於 2025 年初實施。1
《人工智慧法案》採用風險管理導向的方法,將人工智慧系統劃分為不同的風險級別:不可接受的風險、高風險、有限風險和最低風險。2
高風險的人工智慧系統是被允許使用的,但是需要遵守最嚴格的規範。這些規範不僅會影響使用者,還會影響所謂的人工智慧系統「供應商」。而《人工智慧法案》中的「供應商」一詞,涵蓋了人工智慧系統的開發機構,也包括開發嚴格供內部使用的人工智慧系統的組織,重要的是,組織既可以是使用者,也可以是供給者。
供應商需要確保遵守有關風險管理、資料品質、透明度、人工監督和穩健性等等的嚴格標準。
使用者有責任在《人工智慧法案》的法律範圍內,根據供應商的具體指示操作這些人工智慧系統,包括預期目的、使用案例、資料處理、人工監督和監控的義務。
新的條款也被加入於應對最近新發展的通用人工智慧(General purpose AI, GPAI)模型,包括大型生成式人工智慧模型4。3 這些模型可適用於各種任務,也可以被整合到大量的人工智慧系統中,包括高風險系統,並漸漸成為歐盟許多人工智慧系統的基礎。考慮到人工智慧系統可以完成的廣泛任務以及其能力的快速擴展,大家一致認為GPAI系統和以其為基礎的模型必須遵守透明度的要求。此外,具備高度複雜性、功能和性能的高影響力GPAI模型,必須遵循更嚴格的規範,這會有助於降低因模型被廣泛使用而可能產生的系統性風險。4
現有的歐盟法律及慣例,如關於個人資料、產品安全、消費者保護、社會政策和國家勞動法等,以及與產品安全有關的歐盟部門立法法案將繼續適用,遵守《人工智慧法案》並不能免除各組織在這些領域原有的法律義務。
組織應該花時間為他們開發及使用的人工智慧系統創建藍圖,並按照《人工智慧法案》中的定義對其風險等級進行分類。如果有任何的人工智慧系統屬於有限風險、高風險或不可接受風險的類別,他們就會需要評估《人工智慧法案》對其組織的影響,而當務之急即是儘快瞭解這些影響以及應對的方法。
1 European Commission. (December 12, 2023). Artificial Intelligence – Questions and Answers.
2 European Council. (December 9, 2023). Artificial Intelligence Act Trilogue: Press conference – Part 4.
3 European Parliament. (March 2023). General-purpose artificial intelligence.
4 European Commission. (December 12, 2023). Artificial Intelligence – Questions and Answers.