移動至主要內容

      黃 正忠

      KPMG安侯永續 董事總經理

      KPMG in Taiwan


      林 泉興

      KPMG安侯永續 董事

      KPMG in Taiwan


      狄 佳瑩

      KPMG安侯永續 執行副總經理/副人資長

      KPMG in Taiwan


      KPMG永續風向前哨站


      AI浪潮下的環境、社會負責任治理議題

      謝孟哲︱安侯永續發展顧問股份有限公司 副總經理

      台灣因掌握全球 AI 與半導體供應鏈關鍵位置,近年台股市值屢創歷史新高,儘管近幾個月面臨中東戰火產生波動,總體而言仍然表現強勁。然而在資本市場蓬勃發展、AI技術飛速推進並驅動大規模商業與社會應用的同時,AI治理如何兼顧ESG議題也成為監管機關、投資人和社會大眾關注的焦點。

      美國白宮近期提出立法藍圖,敦促國會制定聯邦法統一監管AI衍生的各項風險。該藍圖提出包括保護兒童、避免電力成本飆升、尊重智慧財產權、防止審查、教育民眾使用AI技術等框架性原則,顯示AI已不只是技術革新,而是成為公共治理議題之一,企業必須在透明度、資訊相關議題治理、合規與風險控管方面具備更高的標準。

      此外,多起生成式 AI 濫用案例使得網路社群平台的責任受到空前審視。AI工具被大量濫用以生成不當內容,衍生肖像權及隱私侵犯、性別/種族歧視等倫理議題,加上Meta近期發生內部 AI agent 提供錯誤指令導致大量敏感資料意外曝光等事件,顯示AI系統若缺乏有效的內部控制機制,將成為新的資安破口。另一方面,支撐大量運算功能的AI基礎設施亦產生運轉過載、能源使用飆升問題,讓許多已承諾達成碳中和與淨零排放的企業無法如期達標。以上種種問題都揭示了企業必須正視AI發展背後更深層的ESG考量。

      標準普爾公司(S&P Global)的企業永續評級(CSA)方法學於本月公布了最新一年度更新,其中包含了與AI治理和ESG相關的題項,用以衡量公司如何負責任使用AI並建立治理機制,這些題目重點摘錄如下。

      • 責任AI政策
        了解企業是否制定並公告「責任AI治理政策」,政策應包含面向包括保護資料隱私與系統資安、避免關鍵決策中的偏誤、保留人工參與、明確責任歸屬、界定不可執行底線、不得部署涉及操控性行為或利用弱勢之AI系統等原則。該政策的核准應為高階管理層或董事會,亦即將AI治理制度化並提升到公司治理層級。
      • 責任AI管理流程
        了解企業是否具有實際的AI管理措施與流程,例如定期對AI模型進行偏見與公平性評估、對敏感AI工具的限制性存取、降低AI資料庫中心/模型的環境足跡、為員工提供AI倫理/資安相關教育訓練等。題目核心概念在於要求企業應如同確實管理資安風險、財務風險一樣,實施AI風險管理。

      在可見的未來,AI將不再只是科技突破,而是會成為改變能源結構、社會安全、國家與公司治理的系統性力量。唯有將AI發展納入ESG視角,建立可持續、可信任、可治理的目標,企業才能真正從AI創新中取得長期發展價值。本期電子報將以AI ✕ ESG為題,從AI治理的全球趨勢與國際框架出發,接著談論台灣主管機關相關動態,並分別就人權、資安、環境風險等面向進行探討,期望對關注AI發展趨勢的企業提供不同觀點。


      專題報導


      從自律轉向問責:全球AI治理法制化的轉向

      近期人工智慧(AI)在醫療保健、金融、教育、司法等領域快速發展和廣泛部署,具備目標導向與自主執行特質的代理式人工智慧(Agentic AI)正加速崛起,而其能夠自主拆解任務並執行決策的特性,亦使治理問題變得更加複雜。AI治理已成為當代國際法中最迫切的課題之一,如何在科技創新、人權保障與社會影響之間取得平衡,是各國共同面臨的關鍵問題。

      AI自律治理的優勢與局限

      在AI發展初期,法律框架往往跟不上技術變化的速度,AI治理主要仰賴如經濟合作暨發展組織《AI原則》、聯合國教科文組織《人工智慧倫理建議書》以及聯合國《工商企業與人權指導原則》等非強制性國際準則。

      這些自律機制具備靈活性與跨國協作效果,得以在AI技術快速演進的環境中提供基本行為框架,然而其缺乏強制力與問責機制,當AI發生歧視、侵害權益或造成財產損失時,受害者難以獲得明確的救濟路徑與責任歸屬。因此,即使自願性規範能提供最佳實踐的標竿,仍不足以確保有效監控與合規落實,亦促使各國逐漸轉向具強制力的監管法制,成為近年AI治理的重要趨勢。

      全球AI治理趨勢:強制性法案逐步成形

      近年來,各國開始由自願性規範走向法制化治理。歐盟先推動的《人工智慧法案》(EU AI Act)已於2024年正式生效並分階段適用,預計於2026年8月全面實施,並帶動法規外溢效應;義大利於2025年10月透過第132號法律,補充歐盟人工智慧法案之國內立法,美國白宮近期也提出聯邦層級的立法藍圖,期望促使國會制定統一的AI監管法律。

      而臺灣則於2026年初正式公佈《人工智慧基本法》,宣告臺灣的AI發展納入國家法制治理,確立了包含隱私保護、問責與透明度等在內的七大AI治理原則,並與歐盟接軌採取風險分級治理。從上述發展顯示,AI治理已由「原則導向的規範」,逐步邁向「以責任與風險管理為核心的強制性法制架構」。

      歐盟人工智慧法案問責制度的核心

      從自律轉向問責,其核心在於將責任制度化。歐盟的《人工智慧法案》作為全球首部全面性AI監管法規,其關鍵機制包括:

      • 風險分級

      根據AI系統對健康、安全和基本權利的影響分為4級。其中涉及關鍵基礎設施、教育、就業及勞工管理等領域的高風險系統雖未被直接禁止,但需完成合格性評估。

      • 技術審查與文件製作要求

      企業必須記錄AI的訓練數據來源、演算法邏輯與測試結果。問責不僅是結果的承擔,更是對開發過程的可追溯性要求。

      • 實質法律義務

      透過立法明確界定AI價值鏈各參與者的責任,並賦予監管機關對違規行為課以高額罰鍰的權力。

      這些規範意味著高風險AI系統在進入歐盟市場前,必須進行風險和合規性評估、落實完善的數據治理、技術文件整備。此外,法案亦要求設計適當的人類監督機制,以確保系統運作符合基本權利保障。

      國際非強制性準則在建構AI治理發揮了不可或缺的作用,其具有靈活性,並支持對監管模式的試驗。隨著強制性法案逐漸成熟,治理重心逐步轉向確保責任歸屬與權益保障。而此項轉向並非壓抑創新,而是為了建立可信賴的AI環境;企業競爭力亦因此不再僅取決於演算法效能,而更繫於其治理體系與社會信任的累積。

      資料來源:BIICL、Kennedys、BARR advisory、The White House、遠見、Future of Life Institute


      相關動態


      企業責任如何落地:從AI政策承諾走向盡職調查

      過去十多年來,企業不斷透過數位轉型引領組織改造與商業模式創新,近年來更藉助AI執行複雜任務。導入AI初期,企業多半著重於風險較低且以提升效率為主的應用,例如文件梳理與常規報告撰寫,企業主要關注的風險也集中在機密資料外洩等資安議題。但是當AI開始深入決策、營運、人資、公關等涉及「企業價值」的部門任務時,其風險範疇也從技術面擴大至治理與永續面向,成為企業無法迴避的新興風險。

      以美國標普500企業為例,已有72%的企業在2025年度揭露至少一項與AI相關的重大風險,比例遠高於2023年的12%。而在眾多AI風險類別中,企業最為關注的是攸關公司治理層面的聲譽風險,卻僅有38%的標普500企業為此訂定AI治理政策,其中多數企業則是空有政策卻礙於內部認知落差而難以向下推行,反映出新興風險管理與治理實務的落差。

      為解決企業導入AI治理所面臨的執行痛點,除了訂定政策及規章細則,首要任務是使企業從上到下理解AI可能導致的負面衝擊為何重要,以及相關預防或補救措施如何可行。OECD已於2026年2月19日發布《責任AI盡職調查指引》(OECD Due Diligence Guidance for Responsible AI),針對AI價值鏈相關企業(包括商用AI使用者)提出一套六步驟的盡職調查框架,協助企業建立責任商業行為政策,並邁向可信賴人工智慧(trustworthy AI)的發展方向。六步驟包括:

      • 將責任商業行為融入企業政策與管理系統

      承諾遵循國際相關RBC與可信賴人工智慧的標準,對標國內AI法規意旨並強化既有的RBC相關政策與風險管理政策,推動責任AI盡職調查機制。

      • 鑑別並評估與企業營運、產品或服務相關的實質及潛在負面衝擊

      界定AI相關風險涉及的價值鏈及業務範疇,鑑別各項風險的實質及潛在負面衝擊的重大性風險,並與相關利害關係人議合,決定AI相關風險的重大性排序。

      • 停止、預防並緩解負面衝擊

      釐清各項風險的傳導路徑,停止造成負面衝擊的源頭,並依責任採購與培訓、透明可追溯、安全可靠、意見回饋等政策機制,發展企業內部規章與作業程序,以預防或緩解負面衝擊。

      • 追蹤盡職調查的實施情形與結果

      針對列管的負面衝擊擬定追蹤指標,並定期實施盡職調查,驗證相關預防或緩解負面衝擊的措施是否仍持續有效。

      • 對外溝通的行動

      舉辦利害關係人溝通活動或設立溝通管道,定期對外揭露風險鑑別過程、盡職調查成果,以及因應策略與措施。

      • 適時提供或配合補救措施

      當企業發生相關負面衝擊事件,應儘速透過法律或自身資源採取補救措施。

      此盡職調查框架源自於OECD的RBC盡職調查框架(RBC due diligence framework)與《AI原則》,強調企業應將AI治理提升至責任商業行為的治理層級。透過縝密的盡職調查流程,鑑別AI相關風險的實質及潛在負面衝擊後建立追蹤指標,擬定因應策略與行動,以及政策回饋修正機制,使AI治理成為企業永續策略的核心一環。

      隨著AI逐步滲透企業核心營運與決策,其帶來的風險已超越技術層面,成為影響企業聲譽、治理品質與永續價值的跨領域議題。企業唯有將AI治理置於責任商業行為的高度,建立一套從政策、風險鑑別、預防緩解、追蹤、溝通到補救的完整治理機制,才能真正落實可持續且可信賴的AI發展。

      資料來源:Harvard Law School Forum on Corporate Governance、Thomson Reuters、OECD

      AI 與人權:全球關注下的台灣回應與企業行動

      近年AI技術快速擴張,國際上已不僅以技術的角度看待AI,而是逐步將其潛在人權風險納入 AI 治理的重要框架。2026年2月印度新德里舉行的AI影響力高峰會(AI Impact Summit)上,聯合國秘書長即指出,若AI發展未受管制,可能加深既有不平等、放大偏見,並對個人與社會帶來實質影響。

      聯合國人權事務高級專員圖爾克 (Volker Türk)亦強調,AI治理必須以人權為核心,並指出當前AI發展中三項特別值得關注的人權風險。第一是不平等,AI工具應能在各地被使用與開發,而非侷限於特定國家或少數大型企業,否則可能加劇全球與社會內部的不平等。第二是偏見與歧視,若AI的訓練資料只來某一區域、或開發者背景過於同質(例如僅由男性開發),系統可能無意間內建偏見,並在實際應用中放大歧視性結果。第三則是弱勢群體被排除,弱勢群體與少數族群往往被排除在AI開發與決策過程外,其需求與權益因而容易遭到忽視。

      在此國際治理趨勢下,台灣亦開始以人權風險為核心,建構自身的 AI 風險辨識與回應架構。數位發展部於2026年3月發布《AI 應用發展人權影響評估報告》,指出台灣目前風險最高的三大情境為:AI加速網路攻擊、違法內容生成,以及深偽技術冒充身分。

      報告指出,AI 降低了網路攻擊與內容產製的技術門檻,使釣魚詐騙、惡意程式及仿冒內容得以大規模且快速擴散,對個人隱私、財產安全、人格尊嚴與資訊自主造成直接衝擊;同時,生成式AI 搭配演算法推播機,更使有害內容流通速度與範圍大幅提升,平臺責任歸屬亦越發模糊。深偽技術則透過高度擬真的影像與語音冒充,直接侵害名譽、自主決定權與人格尊嚴。上述風險對處境不利群體造成的衝擊尤其明顯,因其往往缺乏數位識讀能力與有效救濟管道。

      為回應AI帶來的挑戰,台灣於去年底通過《人工智慧基本法》,明確建立AI發展的治理框架,並提出7項基本原則,包含:永續發展與福祉、人類自主、隱私保護與資料治理、資安與安全、透明與可解釋、公平與不歧視,以及問責機制。各目的事業主管機關,得以依循此管理規範,進一步訂定分級管理與風險因應規範,為產業提供更明確的合規指引。

      對企業而言,面對AI人權風險與即將到來的政策監管,可從以下三個步驟著手:

      • 盤點內部AI應用

      釐清企業目前使用的 AI 系統、開發或採購來源,以及訓練資料的性質與來源。

      • 進行AI風險自評

      可參考數位發展部《AI影響評估報告》,檢視相關風險情境與專家學者意見,評估自身AI應用可能帶來的人權影響,並構思因應方式。

      • 建立AI管理機制

      參照國際AI管理框架,如歐盟 AI Act、美國NIST AI RMF,逐步建構整體人權管理規劃。

      企業若能及早投入準備,不僅能從容因應未來監管要求,也有助於在降低人權風險的前提下,善用 AI 提升競爭力。同時,AI 人權風險往往並非源自單一錯誤,而是在系統持續擴大使用、與既有技術與基礎設施交互作用後逐步顯現,並往往成為後續資安與治理問題的開端。

      資料來源:United Nations、數發部、歐洲議會、JURISTnews、台灣人工智慧學校

      當AI 成為攻擊媒介:企業面對的新型資安風險

      隨著企業大規模導入 AI 系統與代理式AI系統(AI Agents),資料取得的便利性大幅提升。然而,在缺乏充分監督、治理及控管機制的情況下,具有高度自主性的AI系統,正為企業帶來新的資料外洩與法遵風險挑戰。

      AI如何成為資訊風險根源

      代理式AI系統近年來在企業迅速普及,它能依據用戶需求自主判斷並規劃行動,並於多任務執行中持續學習,在無需人類逐步指令的情況下高效完成複雜工作,其中最大風險是資料外洩與敏感資訊曝光。具高權限的 AI 系統可能超出授權範圍運作,甚至造成未經許可的資料刪除或篡改。而現行的法規政策因監督控制力道不足更使風險升高,即使企業已針對授權的 AI 系統提供監控機制,員工將企業內部資料輸入第三方商用 AI 平台的風險仍不可忽視。

      而傳統資安框架依靠防火牆與病毒特徵碼來阻擋威脅,難以因應 AI的行為模式;AI 系統可輕鬆避開以模式比對為基礎的防禦機制,造成嚴重的失控行為。同時會吸收並保留使用者提供的所有資料,從程式碼到文件皆可能被納入模型學習過程,增加資料完全刪除的困難性。這種資料「永久留存」特性,將使企業暴露於前所未有的資安風險中。

      縮小治理落差:企業在制度與法遵上的必要補強

      企業雖然加速部署 AI 系統使用,但在治理層面卻普遍落後。以聯合國教科文組織 ( UNESCO )發布《人工智慧倫理建議書》( Recommendation on the Ethics of Artificial Intelligence )為基礎的《AI企業資料倡議》(AI Company Data Initiative)研究指出,儘管受訪企業中近半數的企業表示已制定內部 AI 系統政策指引,其中 97% 企業並未考量 AI帶來的環境負擔、68%未評估AI對其社會層面的影響、且僅 41% 將 AI 政策真正公開給員工或要求遵循。

      這顯示政策仍停留在文件層面,而非整體企業實際運作,也反映出企業需要更明確的規範與內部溝通。就產業別差異上,金融、通訊服務與資訊科技業相較能源與原物料產業的企業,更常設有專責 AI團隊,這與其高度依賴資料運作、且為消費者導向的 AI應用的特性相符,也再次凸顯建立跨產業、一致性且可遵循的AI治理標準,已成為企業穩健發展的重要基礎。

      防禦與韌性的建立:監控、跨部門合作與事故應變

      為預防 AI 系統帶來的資料外洩風險,企業必須建構全方位治理機制。首先,需要建立 AI 行為的即時監控流程,當 AI出現偏離行為時能及早察覺。其次,企業應進行情境模擬與事故演練,包含權限撤銷流程、偏差行為偵測機制等,以提升應變速度。再者,跨部門治理更是不可或缺,由法務、資安、資料工程與管理層組成的風險委員會定期審視風險、更新政策、確保治理落實。

      此外,企業應遵循並採用AI國際準則,如聯合國教科文組織(UNESCO) 所發布之《人工智慧倫理建議書》與歐盟(EU)發布之《可信賴人工智慧倫理準則》(Ethics guidelines for trustworthy AI)等 AI 國際準則並制定公開治理措施,提升透明度並獲得外部利害關係人的信任。

      儘管 AI 現階段仍伴隨不確定性與資訊風險,但透過持續強化治理制度、提升資訊透明度、明確權限與監管機制,並落實企業跨部門合作,企業將更有能力將 AI納入可管理的風險範疇,使其成為支撐組織韌性與長期競爭力的重要工具,兼顧創新發展與安全合規。

      資料來源:Entrepreneur、Thomson Reuters、UNESCO、European Commission、Fountain City

      算力推升排放:投資人如何檢視企業的淨零策略

      國際能源總署(IEA)《2025世界能源展望》指出,資料中心和人工智慧的電力需求爆炸性成長,預計到2035年,全球資料中心電力的總消耗量將成長至目前的三倍。2026年初美國政府連同多州州長,敦促北美最大電網營運商PJM Interconnection舉行緊急電力採購拍賣(Emergency Power Auction),要求大型科技企業以競標方式承擔新增發電容量的成本,將AI資料中心用電擴張的成本,從一般用戶電費帳單中部分移轉至主要需求方,顯示在AI電力需求快速成長的過程中,其電力成本正逐步外顯,並成為推升企業排放量的重要因素。

      Google母公司Alphabet揭露其排放量自 2019 年以來增長了近 50%,並指出主要因素為資料中心用電;亞馬遜雖是全球最大的再生能源企業買家,但其公司報告揭露,到 2024 年其碳足跡將接近 6,800 萬噸二氧化碳當量,其中亞馬遜網路服務(AWS) 資料中心消耗了其大部分電力,顯現AI電力需求導致長期氣候承諾與短期營運現實之間的差距日益擴大。

      投資人對氣候議題的關注進入更成熟的階段,從要求企業設定氣候目標,到現今期望企業提供更加明確氣候策略的解釋。2025年Alphabet股東提案即聚焦於公司氣候策略是否仍具可行性,投資人指出Alphabet 2023年碳排放量比起前一年成長13%,且其能源消耗超越公司推動再生能源的專案;投資人要求Alphabet提供情境分析、壓力測試,以及揭露預期排放的軌跡,上述工具有助於投資人評估Alphabet是否具備如期推動氣候計畫能力。

      全球知名ESG機構Morningstar Sustainalytics,分析在AI算力需求增長與淨零承諾的衝突下,投資者所在乎的面向如下:

      • 計畫的可行性

      企業是否針對 AI 與雲端運算的高成長需求,對其減碳路徑進行壓力測試。

      • 執行的實質性

      企業主要是依賴再生能源憑證(REC)等會計抵換工具,抑或是將在資料中心實質推動新的再生能源發電。

      • 透明度

      企業是否清楚揭露其再生能源的採購實務,並在主流報告中同時提供「市場基礎(market-based)」與「地理位置基礎(location-based)」的排放數據,使投資人掌握第一線的真實情況。

      對於投資人而言,誇大再生能源的表現將扭曲氣候指標,掩蓋未來企業的責任,同時更削弱信任。在這個電力需求成長速度超越再生能源發展的現況下,投資人期望看見企業需解釋其計劃如何履行現有承諾,在實際條件下是否可行,以及如何轉化為實際的減排效果,氣候聲譽已演變成公司綠色治理的議題,相關策略須具備韌性、透明度和可行性才得以回應投資人。

      資料來源:iea、U.S. Department of Energy、Sustainalytics、Securities and Exchange Commission

      資料中心擴張下 企業將面臨的能源與社區考驗

      AI帶動資料中心快速擴張,企業需兼顧在地社會責任

      隨著大型科技公司大規模擴張 AI 資料中心,高度算力需求引發的電價上漲等問題逐漸受到政府與地方社區的關注。路透社(Reuters)報導指出,微軟總裁Brad Smith在2026年3月CERAWeek全球能源年度會議公開表示,在美國興建大型資料中心時,取得在地社區同意已成為重要前提。近幾個月,美國部分資料中心開發案亦因地方對電價上升與環境衝擊的疑慮而遭到取消,僅在2025年10月至2026年1月之間就有26個資料中心建置計劃遭到取消的案例,顯示資料中心擴張已不再僅是能源議題,亦逐漸成為企業責任治理與社區關係的重要考驗。

      社區反對聲浪的背後,反映電力成本分配問題

      美國智庫布魯金斯研究院(Brookings Institution)的研究指出,新增資料中心確實可能推升住宅電價。首先,資料中心耗電量極高,儘管美國目前正進行大規模的電力建設,但至 2028 年預計仍面臨高達49 吉瓦(GW)的供電缺口,約占美國總發電量的 5%。其次,除了發電端的需求外,資料中心還需要新建置高壓電線、變電站等電力傳輸與配送基礎建設。依據哈佛法學院與勞倫斯伯克萊國家實驗室近期的研究,這些發電與基礎建設的成本通常會透過調漲電價轉嫁給消費者。

      政府要求大型科技公司承諾自行負擔資料中心開發成本

      面對日益高漲的質疑與反對聲浪,美國總統川普於2026年3月要求大型科技公司簽署《電力用戶保護承諾》,主張企業應自行承擔大型資料中心所帶來的電力成本,避免將電力成本轉嫁至當地社區。在此背景下,科技公司也開始對此提出具體回應方案,2026年1月,OpenAI公布「星際之門社區計畫」(Stargate Community Plan),透過「能源自付盈虧」的方式,確保資料中心營運不會提高所在地社區的用電成本。同年2月,Anthropic亦宣布將透過提高自身每月電費、承擔電網升級費用,以及新增電網容量而非排擠既有供電的方式來滿足資料中心用電需求,避免將成本轉嫁給一般用戶。

      台灣 AI 基礎設施布局的警訊:以國際爭議為戒,強化能源治理與社區信任

      國際 AI 資料中心開發案因社區反對而受阻的案例顯示,能源取得不再僅是基礎建設問題,更是企業是否能與社區共存並永續營運的治理能力考驗。對台灣企業而言,這樣的國際爭議具有高度警示性。

      台電於 2026 年 3 月公布,台灣在 2030 年前將新增超過 500 萬瓩的用電需求,未來10年的用電需求年平均增量更將是過去10年的2倍以上。同時,現行申設的資料中心多集中於北部,而根據國家智庫DEST報告指出,新北市及台北市電力自給率低於51%,若未來AI資料中心持續集中,可能加劇區域電力供需失衡與電網負荷壓力,並使當地社區承受更高的基礎設施與用電成本壓力。

      因此,台灣企業在推動 AI 基礎設施時,除了追求效率與產能擴張,更應提前將電力乘載能力、區域平衡與社區溝通納入考量,才能確保營運穩定,並與在地社區建立長期共利的發展模式。

      資料來源:Reuters、Guardian News & Media、The Brookings Institution、The White House、

      科技新報、經濟部、聯合報

      當AI 成為永續工具:治理成熟度決定長期價值

      在永續揭露與合規要求持續增加的情況下,企業永續團隊正面臨前所未有的工作壓力:一方面需快速回應多國法規與投資人要求,另一方面又必須在資料分散、內部資源有限的情況下,確保揭露內容具備一致性與可稽核性。在此背景下,AI逐漸被視為協助永續團隊維持運作效率與品質的重要工具。

      BSR(Business for Social Responsibility)於2025年底訪談20家跨地區、跨產業的永續團隊。受訪主管普遍預期,AI將在未來12個月內顯著改變其工作方式。從訪談中可觀察到,AI大致上可在四個面向協助永續團隊提升效率與品質:

      • 生產力與溝通

      協助撰寫報告摘要、郵件與利害關係人回覆,並依不同受眾調整語氣與重點;也能快速彙整與對比外部資訊,用於法規摘要、同業標竿與內部簡報,縮短寫作、編輯與校閱時間。有部分受訪團隊亦以AI模擬投資人或媒體提問,提早暴露揭露盲點並補強論述。

      • 資料收集與合規

      將分散的內外部資料結構化,協助依CSRD、CSDDD等框架產出揭露內容,並支援跨期比較與初步驗證(例如自動檢查缺漏、異常值與一致性),降低人工彙整成本與錯誤風險。

      • 策略與風險管理

      支援重要性議題盤點、情境規劃與壓力測試(結合實體風險資料辨識供應鏈與營運風險),以及趨勢監測(追蹤新聞、研究與利害關係人動態),協助團隊更快形成可追溯的判斷依據。

      • 利害關係人參與

      以AI驅動的客服或知識庫,回覆客戶、投資人與內部單位的永續提問並提供客製化資訊;讓團隊把時間留給更複雜的專案。

      不過,世界經濟論壇(WEF)指出,若把AI視為萬靈丹而無節制擴張使用量,可能導致能源需求與環境衝擊被低估,甚至超出地球所能承載的範圍(Planetary Boundaries)。這也意味,AI不僅是協助企業回應永續要求的工作,本身同樣需要被納入永續治理的對象。

      在實務層面,AI驅動的自動化確實能降低單位作業成本,但也可能引發「反彈效應」(Jevons paradox):當成本下降,整體使用量反而上升,抵消最初的資源節省,並進一步加劇能源需求。對企業而言,這不只是環境議題,更是管理問題,若缺乏對AI使用情境、頻率與規模的控管,企業可能在不自覺中推升能源需求、資料中心負荷與供應鏈壓力,讓「以AI提升效率」反而成為新的永續風險來源。

      因此,真正的關鍵不在於企業是否使用AI,而在於企業是否有能力管理自身對AI的使用方式。成功導入 AI 於永續工作的企業,往往已建立清楚的治理機制,將 AI 的開發與使用納入既有的治理與決策流程,包括:訂定以責任與人權為基礎的 AI 使用準則、建立透明與監督機制,以及確保相關應用符合日益增多的AI 法規要求。同時,永續、IT 與資料團隊之間的跨部門協作亦為關鍵要素,在部分企業中,永續主管或成員更進一步扮演「AI 推動者」的角色,主動橋接永續目標與技術執行之間的落差,使 AI 得以在受控且一致的框架下被運用。

      從收集資料、撰寫報告到回應利害關係人,AI確實為永續團隊帶來前所未有的效率提升。但唯有當企業能夠同時管理「用AI做永續」所衍生的長期影響,AI才不會成為侵蝕永續目標的隱性風險在AI時代,永續不只是做得更快,而是是否能在效率與責任之間,建立足夠成熟的治理能力。

      資料來源:BSR、World Economic Forum、Elsevier