Les principes de confiance et de sécurité en IA de l’Institut Vector

14 juin 2023

IA fiable d’Insights 2023

Depuis la création du Vector Institute, sa communauté partage un engagement fort envers le développement d’IA à la fois sécuritaire et digne de confiance. C’est au cœur de notre existence. Aujourd’hui, des modèles d’IA générative puissants et facilement accessibles ont révélé au grand public les risques à court terme et existentiels de l’IA. Alors que le rythme du développement de l’IA s’accélère, les décideurs politiques et les experts en IA du monde entier cherchent à développer des garde-fous communs pour guider le développement futur de cette technologie. 

En tant que centre central de l’écosystème canadien de l’IA, Vector a distillé six principes de confiance et de sécurité en IA pour des organisations canadiennes et internationales qui reflètent le dialogue continu, les valeurs partagées et les meilleures pratiques des entreprises, gouvernements et communautés de recherche mondialement reconnues avec lesquels nous travaillons. 

Suivre ces principes, de la recherche jusqu’à la mise en œuvre et/ou la commercialisation, aidera à garantir que les systèmes d’IA sont sûrs et dignes de confiance. Vector mettra à jour son propre code de conduite afin de s’assurer que ces principes continuent de façonner le travail de l’institut. 

Vector croit que ces principes de confiance et de sécurité peuvent guider d’autres organisations qui développent leur propre code de conduite et politiques d’IA. Ils constituent un point de départ pour les organisations au début de leur parcours en IA, tandis que les organisations plus établies peuvent les développer pour mieux répondre à leurs besoins.  

En adoptant ces principes, les organisations qui développent leurs propres politiques d’IA à travers le monde montreront leur engagement à exploiter la puissance de l’IA comme moyen pour des fins démocratiques. 

Un engagement fort envers ces principes à travers l’écosystème canadien de l’IA renforcerait le leadership mondial du pays dans le développement et le déploiement responsables de l’IA.

Principes fondamentaux pour l’IA

La capacité unique du Vector Institute à réunir les parties prenantes de tous les domaines, institutions et secteurs industriels de l’IA offre à l’institut une perspective novatrice sur les tendances et les défis liés à la mise en œuvre de l’IA.

Ces principes s’appuient sur des thèmes internationaux recueillis dans plusieurs secteurs afin de refléter les valeurs des praticiens de l’IA dans l’écosystème de Vector, à travers le Canada et dans le monde :

1. L’IA devrait bénéficier aux humains et à la planète.

Nous nous engageons à développer une IA qui favorise une croissance inclusive, un développement durable et le bien-être de la société. Le développement et le déploiement responsables des systèmes d’IA doivent tenir compte d’un accès équitable à ceux-ci ainsi que de leur impact sur la main-d’œuvre, l’éducation, la concurrence sur le marché, l’environnement et d’autres sphères de la société. Cet engagement implique un refus explicite de développer des IA nuisibles telles que des systèmes d’armes autonomes létaux et des méthodes manipulatrices pour stimuler l’engagement, y compris la coercition politique.

2. Les systèmes d’IA devraient être conçus pour refléter les valeurs démocratiques.

Nous nous engageons à intégrer des garanties appropriées dans les systèmes d’IA afin de garantir qu’ils respectent les droits humains, l’état de droit, l’équité, la diversité et l’inclusion, et contribuent à une société juste et équitable. Les systèmes d’IA doivent respecter les lois et règlements et s’aligner sur les exigences multi-juridictionnelles qui soutiennent l’interopérabilité internationale pour les systèmes d’IA.

3. Les systèmes d’IA doivent refléter les intérêts en matière de vie privée et de sécurité des individus.

Nous reconnaissons l’importance fondamentale de la vie privée et de la sécurité, et nous nous engageons à faire en sorte que les systèmes d’IA reflètent ces valeurs de manière appropriée pour leurs usages prévus.

4. Les systèmes d’IA doivent rester robustes, sécuritaires et protégés tout au long de leur cycle de vie.

Nous reconnaissons que maintenir des systèmes d’IA sûrs et fiables nécessite une évaluation et une gestion continues de leurs risques. Cela signifie mettre en œuvre la responsabilité tout au long de la chaîne de valeur tout au long du cycle de vie d’un système d’IA.

5. La supervision des systèmes d’IA devrait inclure une divulgation responsable.

Nous reconnaissons que les citoyens et les consommateurs doivent être capables de comprendre les résultats basés sur l’IA et de les remettre en question. Cela exige une transparence responsable et une divulgation de l’information sur les systèmes d’IA – ainsi qu’un soutien à la littératie en IA – pour toutes les parties prenantes.

6. Les organisations devraient être responsables.

Nous reconnaissons que les organisations doivent être responsables tout au long du cycle de vie des systèmes d’IA qu’elles déploient ou exploitent conformément à ces principes, et que la législation gouvernementale et les cadres réglementaires sont nécessaires.

Méthodologie

Les premiers principes du Vector Institute pour l’IA s’appuient sur l’approche de l’IA éthique développée par l’OCDE. En plus des principes de confiance et de sécurité, des définitions claires sont également nécessaires pour un déploiement responsable des systèmes d’IA. Pour commencer, l’Institut Vector reconnaît la définition d’un système d’IA par l’Organisation de coopération et de développement économiques (OCDE). En date de mai 2023, l’OCDE définit un système d’IA comme suit :

« Un système d’IA est un système basé sur une machine capable d’influencer l’environnement en produisant un résultat (prédictions, recommandations ou décisions) pour un ensemble donné d’objectifs. Il utilise des données et des entrées basées sur la machine et/ou l’humain pour (i) percevoir des environnements réels et/ou virtuels; (ii) abstraire ces perceptions en modèles par analyse automatisée (par exemple, avec apprentissage automatique), ou manuellement; et (iii) utiliser l’inférence par modèle pour formuler des options de résultats. Les systèmes d’IA sont conçus pour fonctionner avec différents niveaux d’autonomie. »

Vector reconnaît également que les définitions largement acceptées des systèmes d’IA pourraient être révisées au fil du temps. Nous avons constaté comment le développement rapide des modèles d’IA peut changer à la fois l’analyse des experts et l’opinion publique sur les risques liés à l’IA. Dans le cadre du projet Managing AI Risk de Vector, nous avons collaboré avec de nombreuses organisations et organismes de réglementation pour évaluer plusieurs types de risques liés à l’IA. Ces discussions ont enrichi le langage des risques et de l’impact dans les principes. 

La nature dynamique de ce défi exige que les entreprises et organisations soient prêtes à réviser leurs principes en répondant à l’évolution de la technologie de l’IA.

  1. Selon un livre blanc du Berkman Klein Center for Internet and Society à Harvard, la déclaration des principes de l’IA par l’OCDE est l’une des approches les plus équilibrées pour articuler des principes éthiques et fondés sur les droits pour l’IA. 
  2. À mesure que la technologie IA évolue, les définitions sont mises à jour au besoin. En mai 2023, l’OCDE était en train de réviser sa définition des systèmes d’IA.

À lire aussi :

2026
Réflexions
Recherche
Recherche 2026

La nouvelle cartographie de l’invisible

Logo vectoriel
2025
Réflexions

Une nouvelle étude révèle l’impact économique de 100 milliards de dollars de l’IA à travers le Canada, avec l’Ontario en tête

2025
Réflexions
Partenariat
Histoires de réussite

Pourquoi le partenariat du leader bancaire en IA CIBC avec le Vector Institute continue de croître