Comment les PME peuvent-elles gérer les opportunités et les risques liés au déploiement de l'IA ?

19 juillet 2023

La masterclass de la conférence Collision de Vector a mis l'accent sur les opportunités économiques pour les PME qui exploitent l'IA, tout en suggérant des moyens pour ces entreprises de gérer les risques potentiels.

Par Ian Gormely

L'année dernière, la perception de l'IA par le public a fortement évolué et le développement rapide de modèles d'IA puissants suscite des inquiétudes légitimes. L'IA n'est plus réservée aux seules entreprises technologiques. L'IA est de plus en plus largement adoptée dans de multiples industries et secteurs, ainsi que par le grand public, avec des modèles d'IA générative qui évoluent rapidement.  

Compte tenu de ce point d'inflexion crucial, l'Institut Vecteur a choisi d'utiliser son récent panel Masterclass lors de la conférence Collision de cette année pour non seulement souligner les opportunités économiques pour les petites et moyennes entreprises (PME) qui exploitent l'IA, mais aussi pour aider ces entreprises à naviguer entre les avantages et les risques à ce moment critique.

L'IA responsable pour les PME : Points de vue des leaders de l'IA

Intitulée "L'IA responsable pour les PME : Insights from AI leaders", la session était dirigée par Deval Pandya, vice-président de l'ingénierie de l'IA chez Vector, avec Sheila McIlraith, membre du corps professoral de Vector, qui est également professeur au département d'informatique de l'Université de Toronto et directeur associé et responsable de la recherche à l'Institut Schwartz Reisman pour la technologie et la société, James Stewart, PDG et fondateur de TrojAI, et Mardi Witzel, vice-président des programmes de gouvernance de l'IA chez NuEnergy.ai et membre du conseil d'administration de PolyML, qui complétaient le panel. 

Blob

"Nous vivons une véritable période de transformation. C'est une période très excitante... mais aussi une période de prudence et de risque... nous sommes un peu dans le Far West".

Shelia McIiraith

Professeur au département d'informatique de l'université de Toronto et directeur associé et responsable de la recherche à l'institut Schwartz Reisman pour la technologie et la société.

Jusqu'en novembre dernier, les PME avaient souvent du mal à trouver un cas d'utilisation pour leur entreprise, a déclaré M. Witzel. "C'est ce qui a changé avec l'IA générative. Selon elle, il est désormais facile pour les entreprises d'identifier les cas d'utilisation les plus prometteurs, ce qui entraînera "un changement culturel de la base vers le sommet". 

Mais pour cela, les entreprises doivent maîtriser leurs données. "Ce sont vos données qui vous permettent de tirer des enseignements, et l'IA est essentiellement l'outil qui vous permet de les exploiter." Elle a cité en exemple un fabricant de pièces automobiles qui a utilisé l'IA pour améliorer l'efficacité du soudage et une entreprise de services publics qui a mis au point un chatbot de service à la clientèle basé sur l'IA comme des exemples d'entreprises ontariennes qui tirent déjà parti de la technologie pour améliorer leurs résultats. 

En effet, alors que l'IA devient de plus en plus un facteur de différenciation concurrentielle, M. Pandya a estimé que l'un des plus grands risques pour les PME pourrait être de ne pas intégrer la technologie dans les flux de travail. Cependant, tous les participants s'accordent à dire que l'adoption précipitée de l'IA dans les entreprises pourrait perpétuer les problèmes de sécurité et d'équité, laissant les entreprises de toutes tailles vulnérables aux risques financiers et d'atteinte à la réputation. 

M. Stewart, dont la société aide ses clients à protéger leurs systèmes d'IA, affirme qu'il a déjà observé toute la gamme des réactions à la généralisation des outils d'IA générative tels que ChatGPT. Certaines entreprises l'interdisent purement et simplement, tandis que d'autres encouragent leurs employés à expérimenter les outils d'IA afin de trouver des domaines où ils ont un avantage concurrentiel. 

Mais il considère qu'aucune de ces deux approches n'est la meilleure. "Pour moi, le risque se résume à l'atténuation des dommages possibles", a-t-il déclaré, ce qui peut être fait en quantifiant la partialité, l'équité, l'interprétabilité, l'explicabilité, la robustesse, la sécurité et la protection de la vie privée d'un modèle. 

Si McIlraith, Witzel et Stewart s'accordent à dire que des garde-fous sont nécessaires pour éviter que les plus grands risques de la technologie ne se concrétisent, ils ne sont pas tous du même avis quant à savoir qui et comment les ériger : les décideurs politiques, les régulateurs gouvernementaux, les développeurs d'IA et les entreprises individuelles sont tous cités comme des voies potentielles de régulation. 

En fin de compte, les trois panélistes se sont accordés sur le fait qu'il incombait aux entreprises de se former au fur et à mesure qu'elles mettaient en œuvre l'IA. M. Pandya a attiré l'attention sur les principes de confiance et de sécurité en matière d'IA récemment publiés par Vector, que les PME peuvent utiliser comme guide pour élaborer leur propre code de conduite et leurs politiques en matière d'IA.

Blob
Blob

"Vous avez le devoir de vous assurer que vous utilisez ces technologies de manière responsable. C'est à l'entreprise de trouver un équilibre entre le risque et l'innovation.

James Stewart

PDG et fondateur de TrojAI

Pour sa part, Vector continuera à travailler avec les gouvernements, les décideurs politiques et les parties prenantes afin d'établir des garde-fous et de guider une adoption responsable. Même si le chemin sera semé d'embûches, comme c'est le cas pour toute nouvelle technologie, M. McIlraith reste optimiste. "Nous trouverons une solution. 

En rapport :

Recherche
Une IA digne de confiance

Des experts de renommée mondiale en matière de confiance et de sécurité de l'IA publient un article majeur sur la gestion des risques liés à l'IA dans la revue Science

Des protocoles normalisés sont essentiels pour un déploiement responsable des modèles linguistiques

Les inconnues connues : Geoff Pleiss, chercheur chez Vector, se penche sur l'incertitude pour rendre les modèles de ML plus précis.