Des experts de confiance et de sécurité en IA de renommée mondiale publient un article majeur sur la gestion des risques liés à l’IA dans la revue Science

21 mai 2024

Recherche 2024Recherche 2024 IA fiable

 – Met en valeur une expertise inégalée en matière de confiance et de sécurité en IA au Canada, incluant cinq experts du Vector Institute

– Fournit des recommandations importantes et opportunes alors que les dirigeants mondiaux des politiques et des entreprises se réunissent en Corée du Sud pour le Sommet sur la sécurité de l’IA

Toronto, 21 mai – Cinq chercheurs de Vector font partie des 25 coauteurs d’un article appelant à de nouvelles priorités en gouvernance et en R&D pour les systèmes avancés d’IA. « Managing Extreme AI Risks While Rapid Progress » a été publié dans la revue Science. La publication coïncide avec le Sommet sur la sécurité de l’IA en Corée du Sud 2024, tenu à Séoul, en Corée du Sud, les 21 et 22 mai, qui réunira des experts/parties prenantes mondiales en affaires, technologies et politiques pour discuter des cadres de gouvernance de l’IA.

Geoffrey Hinton, conseiller scientifique en chef de l’Institut Vector, les membres du corps professoral de Vector Jeff Clune, Gillian Hadfield, Sheila McIlraith et Tegan Maharaj, affiliée au corps professoral de Vector, font partie des coauteurs du document de consensus. Ils y exposent les risques potentiels des systèmes d’IA avancés, proposant des priorités pour la R&D et la gouvernance de l’IA afin de prévenir les préjudices sociaux, les usages malveillants et la perte de contrôle humain sur les systèmes d’IA.

« Félicitations à nos collègues pour cet article opportun publié dans Science », déclare Daniel Roy, directeur de la recherche chez Vector et membre du corps professoral. « Alors que les dirigeants mondiaux et les décideurs politiques se réunissent à Séoul pour le Sommet sur la sécurité de l’IA de cette semaine, je ne doute pas que cette bourse offrira une base solide pour des conversations productives et que leurs recommandations constitueront un excellent point de départ pour des progrès futurs. »

L’article détaille le rythme accéléré de l’IA alors que les entreprises s’efforcent de développer des systèmes d’IA qui égalent ou dépassent les capacités humaines. Une telle percée pourrait produire de grands bénéfices pour la société, mais elle pourrait aussi entraîner de nouveaux risques à grande échelle, notamment l’injustice sociale, l’activité criminelle, la surveillance, la guerre automatisée et la perte de contrôle humain. Si elle n’est pas maîtrisée, les auteurs croient que l’avancée de l’IA pourrait entraîner d’importants dommages, voire l’extinction.

Recommandations avancées dans l’article

  • Une réorientation de la R&D technique en IA au sein des grandes entreprises technologiques et des bailleurs de fonds publics, où une plus grande proportion de leurs budgets est allouée aux efforts de confiance et de sécurité en IA. 
  • La coopération internationale et les accords sur la gouvernance de l’IA afin de répondre à la dynamique concurrentielle entre les nations.
  • La mise en œuvre de normes mondiales de sécurité pour les systèmes d’IA, avec une responsabilité légale en cas de violation. 
  • La création d’institutions nationales de gouvernance de l’IA dotées de l’expertise technique et de l’autorité pour appliquer rapidement les normes et règlements. 

Une version antérieure, intitulée « Gérer les risques de l’IA à une ère de progrès rapide », a été publiée en novembre dernier sur le site de préimpression en libre accès arXiv. Cela a suscité une attention médiatique importante et des appels à l’action. 

« Le Canada, et Vector en particulier, possède une expertise exceptionnelle en matière de confiance et de sécurité en IA », affirme Tony Gaffney, président et chef de la direction de l’Institut Vector. « Nous accueillons certains des chercheurs les plus en vue au monde qui fournissent des orientations claires sur ce sujet dans ce document de consensus. Leurs recommandations seront sur la table en Corée du Sud lorsque j’assisterai au Forum mondial de l’IA. En particulier, les meilleures pratiques de gouvernance sont essentielles pour garantir que ce que l’IA permet puisse être digne de confiance, sécuritaire et aligné avec les valeurs humaines. »

À propos de l’Institut Vector

Lancé en 2017, l’Institut Vector collabore avec l’industrie, les institutions, les startups et les gouvernements pour développer les talents en IA et promouvoir l’excellence en recherche afin de développer et soutenir l’innovation basée sur l’IA afin de favoriser la croissance économique et d’améliorer la vie des Canadiens. Vector vise à faire progresser la recherche en IA, à accroître l’adoption dans l’industrie et la santé grâce à des programmes de talent, de commercialisation et d’application, et à orienter le Canada vers une utilisation responsable de l’IA. Les programmes pour l’industrie, dirigés par les meilleurs praticiens de l’IA, offrent des bases pour des applications dans les produits et procédés, des conseils spécifiques à l’entreprise, de la formation pour les professionnels et des liens avec des talents prêts pour le marché du travail. Vector est financé par la province de l’Ontario, le gouvernement du Canada via la Stratégie pancanadienne de l’IA, ainsi que par des commanditaires industriels de premier plan dans plusieurs secteurs de l’industrie canadienne.

Pour les demandes des médias : media@vectorinsitute.ai

À lire aussi :

2026
Réflexions
Recherche
Recherche 2026

La nouvelle cartographie de l’invisible

Les femmes écrivent sur un tableau blanc. Il y a un homme à sa gauche qui regarde le tableau.
2025
Recherche
Recherche 2025

Les chercheurs en vecteurs font avancer les frontières de l’IA avec 80 articles au NeurIPS 2025

2025
Apprentissage automatique
Recherche
Recherche 2025

Quand l’IA intelligente devient trop intelligente : Principaux enseignements de l’atelier 2025 sur la sécurité et la vie privée en apprentissage automatique de Vector