Comment implémenter en toute sécurité des systèmes d’IA
20 mars 2024
20 mars 2024
Par John Knechtel
Un grand merci à EY Canada, qui a fourni l’espace de l’événement à Vector pour l’accueillir.
L’intégration de l’IA dans les systèmes de gestion établis sera la pierre angulaire du succès pour les entreprises canadiennes aspirant à un leadership mondial dans la croissance propulsée par l’IA.
C’était le consensus des participants à une série d’ateliers du Vector Institute où des professionnels des services financiers discutaient des voies vers la mise en œuvre sécuritaire des systèmes d’IA et d’apprentissage automatique (ML). Depuis 2022, le projet de leadership d’opinion Managing Al Risk de l’Institut Vector a facilité une série de discussions approfondies sur les défis actuels pour l’adoption des modèles d’IA et d’apprentissage automatique par le secteur privé, et a aidé à développer les principes de confiance et de sécurité en IA de Vector.
Alors, comment les professionnels canadiens des services financiers — où l’industrie est reconnue internationalement pour sa gestion des risques solide — envisagent-ils une mise en œuvre sécuritaire de l’IA? Leur vision était, en un mot, pragmatique. Les participants ont estimé que précisément parce que l’IA est si puissante, son adoption exige l’adaptation, et non la réinvention, des opérations normales.
Plusieurs personnes ont souligné que nous avons déjà vu de nouvelles technologies, comme les PC, les feuilles de calcul et Internet, transformer les affaires auparavant. « Ce n’est pas un problème nouveau », a déclaré un participant.
Ce qui est nouveau, c’est la rapidité et la facilité avec lesquelles l’IA se répand « partout, tout en même temps », comme l’a dit un participant. « C’est un de ces trucs où tout le monde a la chance de le toucher. Il n’y a pas de barrières, tu peux juste commencer », dit un autre. Les participants ont souligné que cette dynamique — une technologie qui se répand rapidement et s’intègre de façon invisible — façonne la façon dont les entreprises interagiront avec l’IA.
Jusqu’à présent, l’IA a été le domaine des experts techniques, des personnes qui comprennent l’apprentissage automatique comme les informaticiens et les mathématiciens. C’était un domaine très restreint. Maintenant, avec l’IA générative, « vous la mettez dans le bureau de absolument tous les employés », a déclaré un participant. « De cette façon, c’est similaire à la transformation qu’on a eue avec Excel par exemple, où tout à coup, des employés sans aucune formation en informatique sont maintenant capables de coder. »
La grande percée dans le paradigme des TI centralisées est survenue lorsque les gestionnaires ont réalisé que les gens faisaient des macros sur Excel qui étaient réellement utiles. Lorsque Excel a été largement adopté dans les années 90, une banque canadienne a découvert que — sans que personne au siège ne le sache — une division internationale avait discrètement construit une application Excel critique. L’application comptait plus de 5 000 utilisateurs et était essentielle au fonctionnement quotidien de la division, car ils se sont en fait restructurés autour d’elle : si cette application n’était pas là, tout à coup ils n’avaient plus assez de personnel pour gérer la charge de travail.
« Et cela comporte beaucoup d’avantages, mais aussi beaucoup de risques parce qu’ils ne savent pas vraiment ce qu’ils font », a-t-il dit. « Ce sont des experts dans leur domaine. Ils ne sont pas experts en informatique, donc ils ne connaissent pas les meilleures pratiques. Ils peuvent ne pas savoir quelles règles s’appliquent, par exemple, à la politique de l’entreprise. Et tu ne sais pas qui ils sont d’un point de vue de gouvernance. »
Avec ces préoccupations en tête, les participants ont discuté en termes pratiques de la manière d’obtenir les avantages potentiels de la démocratisation de l’IA tout en gérant les risques. Le consensus était qu’une approche pragmatique et axée sur les résultats créera le plus de valeur. « Nous n’avons pas besoin de réinventer la roue », a noté une personne. Tout au long des ateliers, les participants ont avancé l’idée que les entreprises vont réussir grâce à ce qu’on appelait des « vertus à l’ancienne » : auditer ce que font les gens, tester des projets pour la valeur d’affaires et affirmer les systèmes existants de gestion des risques et de gouvernance.
Voici quelques-unes des approches proposées par les participants à l’atelier, ce qu’une personne a appelé les « vérités maison » de l’adoption de l’IA.
En esquissant ce qu’ils considéraient comme un dilemme clé, les participants ont discuté de la façon dont les technologies d’IA avaient captivé l’imagination de leur personnel et inspiré de nombreuses idées que les gens développent eux-mêmes. « Nous risquons de prendre de l’avance sur nos skis », a déclaré un participant.
La puissante capacité opérationnelle de la technologie crée à elle seule des risques, ont noté les participants, alors que le battage médiatique se propage dans l’organisation. « Si vous avez des attentes déraisonnables, » a dit un participant, « vous allez gaspiller beaucoup de ressources. »
Avec des employés largement inspirés par l’IA et cherchant des moyens de l’utiliser, le premier défi sera simplement de savoir qui fait quoi avec l’IA à travers l’organisation. « Si vous pensez à l’entreprise et que vous essayez de trouver ces innovateurs, c’est vraiment difficile », a déclaré un participant. « Si vous pensez aux trucs informatiques traditionnels, bien sûr, vous parcourez l’organigramme, vous voyez où est le département TI, et vous trouverez où sont les programmeurs. Mais ces nouveaux innovateurs de l’IA ne sont pas dans le département TI — ils sont partout. »
Suivre un portefeuille de projets d’IA en pleine prolifération rapide, ont proposé plusieurs participants, appelle à une approche proactive en collaboration avec les équipes de gestion des risques et de TI. Une suggestion était de numériser l’activité à travers les sondages et les canaux de communication existants pour les employés. La mise à jour des pratiques informatiques pour les utilisateurs finaux afin de s’assurer que l’activité et les rapports de l’IA sont inclus dans les règles en a été une autre.
Puisque l’IA peut accomplir tellement de choses, une grande partie des discussions portait sur la manière d’assurer que l’adoption de l’IA ait une valeur concrète pour l’entreprise. « Nous devons nous concentrer sur les cas d’utilisation », dit l’un d’eux. « On doit se demander 'Qu’est-ce qu’on essaie de faire?' plutôt que des gens au hasard qui essaient des trucs au hasard avec des outils d’IA. »
Un thème récurrent était l’importance d’une mentalité axée sur les résultats. « On est vraiment concentrés sur les aspects pragmatiques », a dit l’un d’eux. Les participants ont donc mis en lumière ce qu’ils ont qualifié de risque crucial souvent négligé — ce que l’un d’eux a appelé le « risque de ne pas offrir de valeur aux clients » — et ont discuté de la manière dont les projets d’IA pourraient être surveillés pour les résultats d’affaires.
Tout au long des ateliers, les participants ont souligné la nécessité d’une stratégie de gestion des risques agile et informée par l’IA.
Le potentiel de perturbation du marché était un point central majeur. Les participants ont souligné que l’IA donnera un avantage concurrentiel aux entreprises qui sont le mieux placées pour l’intégrer à leurs opérations. « Intégrer l’IA n’est pas une question de remplacer l’effort humain, mais de l’augmenter. Cela entraînera un changement important sur le marché où les entreprises utilisant l’IA surpasseront celles qui ne le font pas », a remarqué un participant. D’autres ont décrit comment le choix de projets d’IA conçus pour offrir des résultats concrets — comme une meilleure efficacité opérationnelle, de meilleurs produits ou une expérience client plus personnalisée — permettra aux entreprises de naviguer les perturbations du marché à leur avantage.
En discutant des risques de réputation liés à l’adoption de l’IA, les participants ont souligné que l’intégration précoce de la sécurité dans un projet offre un cadre pour être transparent sur l’utilisation de l’IA, assurer la confidentialité et s’engager de manière éthique avec la technologie. Les participants ont convenu que seule une approche proactive et agressive de la conception du projet peut apporter la clarté nécessaire pour naviguer en toute sécurité. « Nous devons toujours nous demander : qu’est-ce que l’IA pourrait faire pour nous exposer au risque de ne pas respecter nos principes? » a demandé un participant. « Même si on a des données valides collectées de façon responsable, l’IA va juste faire son travail. Un point de données conforme pourrait ne pas l’être après avoir été affilié à d’autres données. »
De même, les participants ont discuté de la manière dont la conception proactive de la sécurité peut aider à assurer qu’un produit prospérera dans n’importe quel contexte réglementaire : « Nous ne savons pas vraiment où la roue va s’arrêter », a déclaré un participant. « Ça crée des risques. Tu dois prendre de l’avance. »
Dans le domaine de la gouvernance, les participants ont envisagé des moyens dont, plutôt que de poursuivre des changements majeurs, l’accent pourrait se porter sur l’adaptation des systèmes et outils existants. Mettre en œuvre l’IA « est simplement une bonne gestion du changement », a déclaré un participant. Les participants ont suggéré de nommer un groupe interfonctionnel pour examiner les contrôles existants comme le code de conduite, les politiques, les systèmes et les logiciels afin de déterminer où des améliorations peuvent être apportées.
Tout en affirmant les fondamentaux de la gouvernance et de la gestion des risques, les participants ont également discuté de la façon dont l’IA introduit de nouveaux défis. Il est nécessaire d’aligner et d’intégrer les systèmes et les silos pour réaliser des évaluations complètes de la conformité à la vie privée, par exemple. Et ils partageaient l’opinion que, telle qu’elle est actuellement configurée, la direction d’entreprise manque souvent de ces capacités clés. « Nous n’avons pas vraiment la capacité d’évaluer les risques liés à l’IA », a déclaré un participant, « et nous n’avons pas de processus pour appliquer des contrôles à l’échelle de l’entreprise pour tout ce qui se passe en matière d’IA. »
Le défi de mettre en œuvre les technologies d’IA de façon sécuritaire et productive — et de mettre à profit leur puissance pour faire avancer l’entreprise — nécessitera clairement une capacité organisationnelle substantielle au-delà de la maîtrise technique de l’IA. Le succès exigera une approche globale de la gouvernance de l’IA, incluant :
Nous vous invitons à considérer ces piliers lors de la conception de la gouvernance de votre stratégie d’IA.