Tous les comités d’audit doivent réfléchir à l’intelligence artificielle. Aucun ne peut fermer les yeux sur l’innovation accélérée que l’IA représente, son adoption généralisée, ses effets sur la productivité et son omniprésence. D’après notre récent sondage sur les perspectives des chefs de direction, la priorité opérationnelle des entreprises consiste à comprendre et à mettre en œuvre l’IA générative dans toute l’organisation afin d’atteindre les objectifs de croissance des trois prochaines années1. Les entreprises adoptent de plus en plus l’IA agentique, celle qui sait exécuter des tâches presque sans intervention humaine : 86 % des dirigeants en font une principale priorité d’investissement pour leur entreprise2. Cela a une incidence sur les processus, les systèmes et les contrôles à l’échelle de l’entreprise, ainsi que la manière de tenir les personnes informées. C’est pourquoi les comités d’audit doivent discuter de l’IA lors de leurs réunions, et ce, que leur mandat englobe la surveillance de toute la gestion des risques de l’entreprise ou qu’il soit plus traditionnel et se concentre sur la fonction finance.
Every audit committee needs to be thinking about AI. Its pace of innovation, rate of adoption, impacts on productivity, and pervasiveness make it impossible to ignore. According to our recent CEO Outlook survey, understanding and implementing generative AI across the enterprise is the top operational priority for organizations to achieve their growth objectives over the next three years.1 Agentic AI—which can perform tasks with limited human intervention—is increasingly being adopted by organizations, with 86 per cent of business leaders citing agentic AI as a top investment priority for their organization.2 This is affecting processes, systems and controls across the organization and how humans are being kept in the loop. As such, AI should be on the agenda of audit committees, whether their mandate involves oversight of risk management for the broader organization or entails a more traditional focus on the financial function.
of leaders are concerned about sensitive info going into public tools, with 62% of employees surveyed use publicly available tools and 28% use enterprise versions3
Les comités d’audit doivent s’affairer à comprendre quelles parties du processus d’information financière sont touchées par l’IA et quels sont les risques associés à son utilisation. Selon leur mandat, certains comités pourraient même devoir s’informer de l’utilisation de l’IA dans toute l’organisation. Peu importe le rayon d’influence du comité, son inventaire doit tenir compte de l’utilisation de l’IA dans les applications en cours de développement et de l’IA qui s’installe dans les technologies déjà en usage par la voie des mises à niveau.
Les entreprises devraient aussi s’assurer que les membres du personnel ne se servent pas d’outils fondés sur l’IA non autorisés, car ces derniers ne conviennent pas nécessairement à l’organisation ou aux tâches qui leur sont confiées et risquent de produire des résultats erronés, d’accroître les risques liés à la cybersécurité, de compromettre la sécurité et la confidentialité des données et de nuire aux avantages concurrentiels.
Les entreprises ont tout intérêt à renforcer la gouvernance de leurs TI en encourageant leurs employés à utiliser des outils autorisés et adaptés à leurs rôles et responsabilités. Dans le cadre d’une stratégie plus vaste de gestion des risques, certaines entreprises explorent des mesures, comme des attestations décernées à leurs employés et des contrôles techniques, pour s’assurer que seules des solutions d’IA approuvées et conformes soient accessibles sur les appareils fournis au travail. Ce type de mesures pourrait contribuer à l’instauration d’un environnement bien géré et sécurisé pour l’adoption de l’IA et appuierait en même temps les objectifs organisationnels et les exigences de conformité.
Pour que ces mesures de gouvernance ne s’arrêtent pas là, il importe aussi que les comités d’audit discutent avec la direction du caractère approprié des outils d’IA dans la pratique et de leur surveillance. Il convient d’interroger la direction sur la manière dont elle s’assure que les outils d’IA sont adaptés à leur usage et que leurs résultats sont appropriés sur le plan comptable et sur le plan éthique. Les outils utilisés pour les ressources humaines, par exemple dans le processus de recrutement, risquent d’être entachés de parti pris; ils doivent donc être surveillés et rectifiés. Comme la plupart des outils sont nouveaux, il faut soumettre les résultats à l’examen et au jugement d’un être humain et corriger les outils qui commettent des erreurs. La direction doit démontrer au comité d’audit que des contrôles stricts ont été mis en place pour gérer les risques découlant de ces outils et des modifications apportées aux systèmes et aux processus par suite de l’intégration de l’IA.
It will be challenging for governance to be adapted to every innovation or implementation of AI, but a well-designed foundational framework of general policies regarding the use of AI can provide adequate risk assessment and governance – while being generic enough to offer guidance through different iterations.
AI literacy should be a central tenet of this framework and evidence suggests that there’s room to improve this at Canadian organizations. Canada ranks 44th out of 47 countries in AI literacy; only 24 per cent of Canadian respondents say they’ve received training in AI; and fewer than half (47 per cent) believe they can effectively use AI tools, according to the KPMG International and University of Melbourne research report Trust, attitudes and use of artificial intelligence: A global study 2025.6
Pour que leur surveillance des risques et des occasions liés à l’IA soit exhaustive, les comités d’audit devraient s’intéresser non seulement aux pratiques internes de l’entreprise, mais considérer également l’usage que les parties externes, comme les auditeurs, font de l’IA. Le comité d’audit devrait demander à l’auditeur externe comment il utilise et supervise l’IA dans le cadre de sa pratique et dans quelle mesure l’utilisation de l’IA par l’entreprise influe sur son travail – en mettant l’accent sur l’explicabilité des résultats plutôt que de les accepter d’emblée. Le comité peut par exemple explorer l’évaluation des éléments probants réunis par l’IA en demandant à l’auditeur externe de lui expliquer l’objectif du modèle, la provenance des données d’entrée, les hypothèses et les limites, et de lui démontrer la validation des résultats et leur examen par un être humain. Le comité devrait aussi confirmer que l’auditeur forme son personnel sur le principe d’explicabilité, l’utilisation responsable de l’IA et les politiques de l’entreprise pour que les compétences en matière d’IA restent actuelles.
It will be challenging for governance to be adapted to every innovation or implementation of AI, but a well-designed foundational framework of general policies regarding the use of AI can provide adequate risk assessment and governance – while being generic enough to offer guidance through different iterations.
AI literacy should be a central tenet of this framework and evidence suggests that there’s room to improve this at Canadian organizations. Canada ranks 44th out of 47 countries in AI literacy; only 24 per cent of Canadian respondents say they’ve received training in AI; and fewer than half (47 per cent) believe they can effectively use AI tools, according to the KPMG International and University of Melbourne research report Trust, attitudes and use of artificial intelligence: A global study 2025.6
Puisque l’IA a le potentiel d’apporter de nouveaux défis à la cybersécurité, les mesures de protection des données organisationnelles et des renseignements personnels deviennent primordiales. Avec certaines applications de l’IA, par exemple, les données sont stockées et traitées ailleurs qu’à l’emplacement de l’entreprise. Le comité d’audit devrait vérifier que la direction adapte les pratiques en matière de cybersécurité et de confidentialité pour tenir compte de l’IA. La direction devrait savoir où les données sont stockées et, si elles quittent l’emplacement de l’entreprise, elle doit évaluer périodiquement la sécurité du lieu de stockage externe. La direction doit aussi savoir si un fournisseur d’IA externe utilise les données de l’entreprise pour entraîner ou perfectionner ses modèles; le cas échéant, elle doit connaître les modalités de partage des données ainsi que les mesures de protection mises en place, et vérifier si les pratiques du fournisseur respectent les exigences de l’entreprise quant à la confidentialité, à la sécurité et à la propriété intellectuelle.
De manière générale, s’agissant d’IA, le risque lié aux tiers augmente. De grandes sociétés de technologie intègrent l’IA à leurs produits, de nombreux nouveaux fournisseurs proposent des solutions d’IA et bon nombre de fournisseurs d’autres services utilisent l’IA dans leurs activités. Le comité d’audit devrait interroger la direction pour savoir comment les nouveaux fournisseurs d’IA sont évalués et comment l’IA utilisée dans les activités des tiers est surveillée. Le profil de risque et la position concurrentielle des entreprises sont appelés à évoluer encore à mesure que l’IA se généralise dans l’industrie.
La plupart des pays et des organismes de réglementation des valeurs mobilières passent en revue la réglementation et les obligations d’information en ce qui concerne l’IA, mais jusqu’à présent, bien peu de règles officielles ont été promulguées. Le Règlement sur l’intelligence artificielle de l’Union européenne est entré en vigueur le 1er août 2024. Il interdit certaines utilisations de l’IA et en encadre d’autres, en fonction de leur niveau de risque, en rendant obligatoires certaines pratiques telles que la gestion des risques, la gouvernance des données, la tenue de registres et la documentation, de même que le contrôle humain.
Pour sa part, la Securities and Exchange Commission (« SEC ») n’a pas encore publié de règle définitive sur l’IA, mais elle s’attend à ce que les risques et les événements significatifs soient divulgués comme le prévoient déjà les cadres d’information actuels. La SEC a d’ailleurs mis en garde les sociétés contre les déclarations trompeuses concernant leur utilisation de l’IA. Au Canada, le gouvernement fédéral a mis en place un code de conduite volontaire pour encadrer les systèmes d’IA générative avancés. Le personnel des Autorités canadiennes en valeurs mobilières (« ACVM ») a pour sa part publié un Avis qui n’impose pas de nouvelles obligations, mais fournit des indications sur l’application à l’IA des lois sur les valeurs mobilières déjà en vigueur. Les comités d’audit devront s’assurer que la direction reste au courant des changements apportés à la réglementation et, le cas échéant, que l’entreprise les respecte.
De son côté, le Conseil canadien sur la reddition de comptes (« CCRC ») est l’auteur d’un rapport sur l’utilisation de l’IA en audit. Le rapport fait le point sur la nécessité d’« équilibrer l’innovation et le risque », tâche ardue et délicate qui attend les conseils d’administration, les comités d’audit et les équipes de direction quand il s’agit de gouvernance de l’IA5. L’IA entraîne avec elle de nombreux risques qu’il faut gérer, mais la crainte de ces risques ne doit pas occulter les possibilités que l’IA fait naître.
It will be challenging for governance to be adapted to every innovation or implementation of AI, but a well-designed foundational framework of general policies regarding the use of AI can provide adequate risk assessment and governance – while being generic enough to offer guidance through different iterations.
AI literacy should be a central tenet of this framework and evidence suggests that there’s room to improve this at Canadian organizations. Canada ranks 44th out of 47 countries in AI literacy; only 24 per cent of Canadian respondents say they’ve received training in AI; and fewer than half (47 per cent) believe they can effectively use AI tools, according to the KPMG International and University of Melbourne research report Trust, attitudes and use of artificial intelligence: A global study 2025.6
83% of employees want to upskill; 82% want employer-provided training—but only ~48% feel they get sufficient training.7
Il ne sera pas facile d’adapter la gouvernance à chaque innovation ou application de l’IA, mais un cadre de base bien conçu, comprenant des politiques générales, pourra servir de point de départ pour l’évaluation des risques et leur saine gouvernance. Élaboré dans une visée globale, il se prêtera aisément à des améliorations successives.
La littéracie en IA devrait être au cœur de ce cadre global; or les enquêtes démontrent que les entreprises canadiennes ont encore des progrès à faire à ce chapitre. D’après une étude de KPMG International et de l’Université de Melbourne, intitulée Trust, attitudes and use of artificial intelligence: A global study 2025, le Canada se classe au 44e rang sur 47 pays en matière de littéracie en IA. Seuls 24 % des répondants canadiens disent avoir reçu une formation sur l’IA, et moins de la moitié (47 %) croient pouvoir utiliser efficacement les outils d’IA6.
La formation en IA doit dépasser les simples instructions sur l’utilisation d’un outil donné; elle doit être adaptée aux différentes fonctions et aux multiples profils de risque de l’organisation. Toute formation devrait comprendre un volet sur les risques que l’IA représente et les politiques de l’entreprise quant à son utilisation efficace et acceptable, de même qu’une analyse de la contribution possible de l’IA aux grands objectifs de l’entreprise. La formation devrait aussi être adaptée sur mesure aux besoins des différents services de l’entreprise, chacun ayant accès à des types de données qui lui sont propres. Les mêmes outils seront en effet utilisés différemment; pour être optimal, leur usage devra être encadré par des procédures et des précautions particulières.
Pour superviser l’IA correctement au sein de l’entreprise, le comité d’audit devrait interroger les membres de la direction sur les moyens mis en œuvre pour se former eux-mêmes et former les employés, ainsi que sur le suivi des résultats. Il doit aussi pouvoir évaluer le niveau de connaissances de ses membres, déterminer si une formation supplémentaire est nécessaire et même envisager de recourir au recrutement pour augmenter le niveau de littéracie en IA.
L’IA est partout et exige notre attention; mais il faut d’abord la comprendre.
Risques et occasions liés à l’IA au cœur de l’ordre du jour des comités d’audit
Découvrez la série Accélération
Ressources et analyses
Communiquez avec nous
- KPMG au Canada, « La productivité sous la loupe », consulté le 21 octobre 2025.
- KPMG au Canada, « Les entreprises du Canada recourent à l’IA agentique », consulté le 7 novembre 2025.
- KPMG au Canada, « Répertoire sur l’adoption de l’IA générative », consulté le 28 novembre 2025.
- KPMG au Canada, « Répertoire sur l’adoption de l’IA générative », consulté le 28 novembre 2025.
- Conseil canadien sur la reddition de comptes, « L’utilisation de l’intelligence artificielle dans l’audit : équilibrer l’innovation et le risque », consulté le 29 octobre 2025.
- KPMG au Canada, « Confiance et formation en matière d’IA : le Canada à la traîne », consulté le 7 novembre 2025.
- KPMG au Canada, « Répertoire sur l’adoption de l’IA générative », consulté le 28 novembre 2025.
Stephanie Terrill
Associée directrice canadienne, Transformation numérique et leader nationale, Services-conseils-Management
KPMG in Canada