L’IA apporte son lot de nouveaux outils – et de nouveaux risques
Les auteurs de cybermenaces ont de plus en plus recours à l’IA pour cibler et adapter leurs attaques, et rechercher de nouvelles failles. Ils génèrent des hypertrucages avancés sous forme d’images, de vidéos et de voix, qu’ils utilisent pour inciter les gens à les aider. Par exemple, des utilisateurs ont été la cible de courriels et d’appels sophistiqués générés par l’IA dans le but de compromettre leurs comptes de courriel. Des centres d’appels de banques ont également été visés par des tentatives de collecte de renseignements sur leurs clients.Ces types d’attaques devraient s’intensifier considérablement, et c’est pourquoi la direction devra s’assurer de se tenir au fait des techniques d’attaque les plus récentes et des nombreux outils et services à sa disposition pour les détecter et les atténuer.
Des outils de pointe sont nécessaires pour lutter contre ces attaques. Si l’IA sert de plus en plus les auteurs des cybermenaces, elle aide également les organisations dans le cadre de la cyberdéfense. L’IA est capable de passer au crible d’énormes ensembles de données en temps réel, d’en tirer des renseignements exploitables et d’être entraînée à appliquer automatiquement des mesures défensives. Elle est utilisée pour améliorer la détection des incidents, évaluer les failles, gérer les accès et évaluer les risques liés aux tiers. Toutefois, l’IA comporte son propre lot de risques et révèle un nouvel angle d’attaque aux auteurs de menaces. Les comités d’audit doivent s’assurer que leur organisation utilise l’IA de façon sécuritaire et en atténuant les nouveaux risques liés à la confidentialité, à la réputation, à la réglementation et à la cybersécurité.
Dans notre sondage intitulé Perspectives des chefs de la direction en 2024, 80 % des chefs de la direction canadiens conviennent que la façon d’intégrer l’IA repose essentiellement sur l’établissement d’une culture axée sur la cybersécurité1.
L’IA doit être spécifiquement conçue pour la tâche de cybersécurité à accomplir, et seules des données de grande qualité doivent être utilisées pour entraîner les modèles. Des protocoles rigoureux d’intégrité des données et de protection des renseignements personnels doivent être en place, et il convient de contrôler l’accès aux données et aux algorithmes. Les comités d’audit devraient interroger la direction sur la façon dont elle gère l’utilisation non autorisée et non régie de l’IA par le personnel en milieu de travail et sur la façon dont elle assure le suivi de la myriade de règlements en évolution qui régissent l’IA et s’y conforme. Pour développer des applications d’IA sécurisées, les organisations devront perfectionner leurs compétences ou recourir à l’externalisation, tout comme les comités d’audit chargés de s’assurer que la direction a correctement évalué la sécurité de l’IA.