Comment les PME peuvent gérer les opportunités et les risques liés au déploiement de l’IA
19 juillet 2023
19 juillet 2023
Par Ian Gormely
L’année écoulée a vu un changement massif dans la perception publique de l’IA et des inquiétudes légitimes subsistent quant au développement rapide de modèles d’IA puissants. L’IA n’est plus quelque chose utilisé uniquement par les entreprises technologiques. L’adoption de l’IA se généralise de plus en plus dans de multiples industries et secteurs, ainsi qu’auprès du grand public, avec des modèles d’IA générative en évolution rapide.
Compte tenu de ce point d’inflexion crucial, le Vector Institute a choisi d’utiliser son récent panel Masterclass lors de la conférence Collision de cette année pour non seulement mettre en avant les opportunités économiques pour les petites et moyennes entreprises (PME) qui tirent parti de l’IA, mais aussi pour aider ces entreprises à naviguer les avantages et les risques à ce moment crucial.




Intitulée « IA responsable pour les PME : Perspectives de leaders en IA », la session était animée par Deval Pandya, vice-présidente de l’ingénierie IA chez Vector, avec Sheila McIlraith, membre du corps professoral de Vector, également professeure au département d’informatique de l’Université de Toronto et directrice associée et responsable de la recherche à l’Institut Schwartz Reisman pour la technologie et la société, James Stewart, PDG et fondateur de TrojAI, ainsi que Mardi Witzel, vice-présidente des programmes de gouvernance de l’IA chez NuEnergy.ai et membre du conseil d’administration de PolyML, complétant le panel.
« Nous sommes dans un moment véritablement transformateur. C’est une période vraiment excitante... mais aussi un moment pour un peu de soin et un peu de risque... On est un peu dans le Far West. »
Shelia McIiraith
Professeur au département d’informatique de l’Université de Toronto et directeur associé et responsable de la recherche à l’Institut Schwartz Reisman pour la technologie et la société
Jusqu’en novembre dernier, les PME avaient souvent du mal à trouver un cas d’utilisation pour leur entreprise, a indiqué Witzel. « C’est ce qui a changé avec l’IA générative. » Maintenant, elle dit qu’il est facile pour les entreprises de voir les cas d’utilisation les plus faciles, un développement qui mènera à « un changement culturel ascendant ».
Pour que cela se produise, cependant, les entreprises doivent avoir le contrôle de leurs données. « Ce sont vos données qui vous permettent d’en tirer des informations, et l’IA est essentiellement l’outil qui vous permet de les exploiter. » Elle a mentionné un fabricant de pièces automobiles qui a utilisé l’IA pour améliorer l’efficacité de la soudage et un fournisseur d’électricité qui a construit un chatbot de service à la clientèle compatible avec l’IA comme exemples d’IA, comme exemples d’entreprises ontariennes qui exploitent déjà cette technologie pour améliorer leurs résultats financiers.
En effet, alors que l’IA devient de plus en plus un facteur de différenciation concurrentielle, Pandya a émis l’hypothèse que l’un des plus grands risques pour les PME pourrait être de ne pas intégrer la technologie dans les flux de travail. Mais tous s’entendaient pour dire qu’une précipitation à adopter l’IA dans les entreprises pourrait perpétuer des enjeux de sécurité et d’équité, laissant les entreprises de toutes tailles vulnérables à des risques réputationnels et financiers.
Stewart, dont l’entreprise aide ses clients à protéger leurs systèmes d’IA, affirme déjà voir toute la gamme de réactions à l’intégration des outils d’IA générative comme ChatGPT. Certaines entreprises l’interdisent purement et simple, tandis que d’autres encouragent les employés à expérimenter des outils d’IA pour trouver des domaines d’avantage concurrentiel.
Mais il ne voit aucune des deux comme la meilleure approche. « Pour moi, le risque se résume à atténuer les dommages potentiels », a-t-il dit, ce qui peut se faire en quantifiant le biais, l’équité, l’interprétabilité, l’explicabilité, la robustesse, la sécurité et la vie privée d’un modèle.
Bien que McIlraith, Witzel et Stewart s’accordent tous à dire que des garde-fous sont nécessaires pour éviter que les plus grands risques de la technologie ne se réalisent, ils avaient des avis divergents quant à qui et comment ils seraient érigés, les décideurs politiques, les régulateurs gouvernementaux, les développeurs d’IA et les entreprises individuelles étant tous cités comme des voies potentielles de réglementation.
En fin de compte, les trois panélistes ont convenu qu’il incombe aux entreprises de s’informer pendant la mise en œuvre de l’IA. Pandya a cité les principes récemment publiés par Vector sur la confiance et la sécurité en IA, que les PME peuvent utiliser comme guide pour élaborer leur propre code de conduite et leurs propres politiques d’IA.
« Tu as le devoir de veiller à utiliser ces technologies de façon responsable. C’est à l’entreprise d’équilibrer le risque avec l’innovation. »
James Stewart
PDG et fondateur de TrojAI
Pour sa part, Vector continuera de collaborer avec les gouvernements, les décideurs politiques et les parties prenantes pour établir des garde-fous et guider une adoption responsable. Bien qu’il y aura des obstacles en cours de route, comme c’est le cas avec toute nouvelle technologie, McIlraith reste optimiste. « On va trouver une solution. »