Les principes de confiance et de sécurité de l'IA de l'Institut Vecteur

14 juin 2023

2023 Perspectives L'IA digne de confiance

Depuis la création de l'Institut Vecteur, sa communauté partage un engagement fort en faveur du développement d'une IA à la fois sûre et digne de confiance. Cet engagement est au cœur de notre existence. Aujourd'hui, des modèles d'IA générative puissants et facilement accessibles ont révélé au grand public les risques à court terme et les risques existentiels de l'IA. Alors que le rythme de développement de l'IA s'accélère, les décideurs politiques et les experts en IA du monde entier cherchent à développer des garde-fous communs pour aider à guider le développement futur de cette technologie. 

En tant que plaque tournante de l'écosystème canadien de l'IA, Vector a élaboré six principes de confiance et de sécurité en matière d'IA à l'intention des organisations canadiennes et internationales. Ces principes reflètent le dialogue continu, les valeurs partagées et les meilleures pratiques des entreprises, des gouvernements et des communautés de recherche de renommée mondiale avec lesquels nous travaillons. 

Le respect de ces principes, depuis la recherche jusqu'à la mise en œuvre et/ou la commercialisation, contribuera à garantir que les systèmes d'IA sont sûrs et dignes de confiance. Vector mettra à jour son propre code de conduite afin de s'assurer que ces principes continuent à façonner le travail de l'institut. 

Vector estime que ces principes de confiance et de sécurité peuvent guider d'autres organisations dans l'élaboration de leur propre code de conduite et de leurs politiques en matière d'IA. Ils constituent un point de départ pour les organisations qui débutent dans le domaine de l'IA, tandis que les organisations plus établies peuvent s'en inspirer pour répondre au mieux à leurs besoins.  

En adoptant ces principes, les organisations qui élaborent leurs propres politiques en matière d'IA dans le monde entier signaleront leur engagement à exploiter le pouvoir de l'IA comme un moyen de parvenir à des fins démocratiques. 

Un engagement fort en faveur de ces principes dans l'ensemble de l'écosystème canadien de l'IA permettrait au pays d'étendre son leadership mondial en matière de développement et de déploiement responsables de l'IA.

Premiers principes de l'IA

La capacité unique de l'Institut Vecteur à rassembler les parties prenantes dans tous les domaines de l'IA, les institutions et les secteurs industriels lui confère une nouvelle perspective sur les tendances et les défis liés à la mise en œuvre de l'IA.

Ces principes s'appuient sur des thèmes internationaux recueillis dans de multiples secteurs afin de refléter les valeurs des praticiens de l'IA dans l'écosystème de Vector, au Canada et dans le monde entier :

1. L'IA doit profiter aux humains et à la planète.

Nous nous engageons à développer une IA qui favorise la croissance inclusive, le développement durable et le bien-être de la société. Le développement et le déploiement responsables des systèmes d'IA doivent prendre en compte l'accès équitable à ces systèmes ainsi que leur impact sur la main-d'œuvre, l'éducation, la concurrence sur le marché, l'environnement et d'autres sphères de la société. Cet engagement implique un refus explicite de développer des systèmes d'IA nuisibles tels que les systèmes d'armes autonomes létaux et les méthodes de manipulation visant à susciter l'engagement, y compris la coercition politique.

2. Les systèmes d'IA devraient être conçus pour refléter les valeurs démocratiques.

Nous nous engageons à intégrer des garanties appropriées dans les systèmes d'IA afin de nous assurer qu'ils respectent les droits de l'homme, l'État de droit, l'équité, la diversité et l'inclusion, et qu'ils contribuent à une société juste et équitable. Les systèmes d'IA doivent être conformes aux lois et réglementations et s'aligner sur les exigences multijuridictionnelles qui soutiennent l'interopérabilité internationale des systèmes d'IA.

3. Les systèmes d'IA doivent tenir compte des intérêts des individus en matière de protection de la vie privée et de sécurité.

Nous reconnaissons l'importance fondamentale de la protection de la vie privée et de la sécurité, et nous nous engageons à veiller à ce que les systèmes d'IA reflètent ces valeurs de manière appropriée pour les usages auxquels ils sont destinés.

4. Les systèmes d'IA doivent rester robustes, sûrs et sécurisés tout au long de leur cycle de vie.

Nous reconnaissons que le maintien de systèmes d'IA sûrs et dignes de confiance nécessite une évaluation et une gestion continues de leurs risques. Cela signifie qu'il faut assumer la responsabilité de la chaîne de valeur tout au long du cycle de vie d'un système d'IA.

5. La surveillance du système d'IA devrait inclure une divulgation responsable.

Nous reconnaissons que les citoyens et les consommateurs doivent être en mesure de comprendre les résultats de l'IA et de les remettre en question. Cela nécessite une transparence et une divulgation responsables des informations sur les systèmes d'IA, ainsi qu'un soutien à la formation à l'IA, pour toutes les parties prenantes.

6. Les organisations doivent être responsables.

Nous reconnaissons que les organisations doivent être responsables tout au long du cycle de vie des systèmes d'IA qu'elles déploient ou exploitent conformément à ces principes, et qu'une législation gouvernementale et des cadres réglementaires sont nécessaires.

Méthodologie

Les premiers principes de l'Institut Vecteur pour l'IA s'appuient sur l'approche de l'IA éthique développée par l'OCDE. Outre les principes de confiance et de sécurité, des définitions claires sont également nécessaires au déploiement responsable des systèmes d'IA. Comme point de départ, l'Institut Vecteur reconnaît la définition d'un système d'IA de l'Organisation de coopération et de développement économiques (OCDE). En mai 2023, l'OCDE définit un système d'IA comme suit :

"Un système d'IA est un système basé sur une machine qui est capable d'influencer l'environnement en produisant un résultat (prédictions, recommandations ou décisions) pour un ensemble donné d'objectifs. Il utilise des données et des entrées basées sur des machines et/ou des humains pour (i) percevoir des environnements réels et/ou virtuels ; (ii) abstraire ces perceptions en modèles par le biais d'une analyse automatisée (par exemple, avec l'apprentissage automatique) ou manuelle ; et (iii) utiliser l'inférence du modèle pour formuler des options de résultats. Les systèmes d'IA sont conçus pour fonctionner avec différents niveaux d'autonomie".

Vector reconnaît également que les définitions largement acceptées des systèmes d'IA peuvent être révisées au fil du temps. Nous avons vu comment le développement rapide de modèles d'IA peut modifier à la fois le point de vue des experts et l'opinion publique sur les risques de l'IA. Dans le cadre du projet Managing AI Risk de Vector, nous avons collaboré avec de nombreuses organisations et autorités de réglementation pour évaluer plusieurs types de risques liés à l'IA. Ces discussions ont permis de formuler les risques et l'impact dans les principes. 

La nature dynamique de ce défi exige que les entreprises et les organisations soient prêtes à réviser leurs principes pour répondre à la nature changeante de la technologie de l'IA.

  1. Selon un livre blanc du Berkman Klein Center for Internet and Society de Harvard, la déclaration de principes de l'OCDE sur l'IA est l'une des approches les plus équilibrées pour formuler des principes éthiques et fondés sur les droits pour l'IA. 
  2. Au fur et à mesure que la technologie de l'IA se développe, les définitions sont mises à jour si nécessaire. En mai 2023, l'OCDE était en train de réviser sa définition des systèmes d'IA.

En rapport :

Photo de Wenhu Chen, membre de la faculté Vector
2024
Perspectives
Recherche
Recherche 2024

Wenhu Chen, chercheur en sciences vectorielles, sur l'amélioration et l'étalonnage des modèles de fondation

Vector Membre de la faculté Gautam Kamath
2024
Perspectives
Recherche
Recherche 2024

Gautam Kamath, chercheur spécialisé dans les vecteurs, analyse les derniers développements en matière de robustesse et de protection de la vie privée.

2024
Recherche
Recherche 2024
Une IA digne de confiance

Des experts de renommée mondiale en matière de confiance et de sécurité de l'IA publient un article majeur sur la gestion des risques liés à l'IA dans la revue Science