Les principes de confiance et de sécurité de l'IA de l'Institut Vecteur
14 juin 2023
14 juin 2023
Depuis la création de l'Institut Vecteur, sa communauté partage un engagement fort en faveur du développement d'une IA à la fois sûre et digne de confiance. Cet engagement est au cœur de notre existence. Aujourd'hui, des modèles d'IA générative puissants et facilement accessibles ont révélé au grand public les risques à court terme et les risques existentiels de l'IA. Alors que le rythme de développement de l'IA s'accélère, les décideurs politiques et les experts en IA du monde entier cherchent à développer des garde-fous communs pour aider à guider le développement futur de cette technologie.
En tant que plaque tournante de l'écosystème canadien de l'IA, Vector a élaboré six principes de confiance et de sécurité en matière d'IA à l'intention des organisations canadiennes et internationales. Ces principes reflètent le dialogue continu, les valeurs partagées et les meilleures pratiques des entreprises, des gouvernements et des communautés de recherche de renommée mondiale avec lesquels nous travaillons.
Le respect de ces principes, depuis la recherche jusqu'à la mise en œuvre et/ou la commercialisation, contribuera à garantir que les systèmes d'IA sont sûrs et dignes de confiance. Vector mettra à jour son propre code de conduite afin de s'assurer que ces principes continuent à façonner le travail de l'institut.
Vector estime que ces principes de confiance et de sécurité peuvent guider d'autres organisations dans l'élaboration de leur propre code de conduite et de leurs politiques en matière d'IA. Ils constituent un point de départ pour les organisations qui débutent dans le domaine de l'IA, tandis que les organisations plus établies peuvent s'en inspirer pour répondre au mieux à leurs besoins.
En adoptant ces principes, les organisations qui élaborent leurs propres politiques en matière d'IA dans le monde entier signaleront leur engagement à exploiter le pouvoir de l'IA comme un moyen de parvenir à des fins démocratiques.
Un engagement fort en faveur de ces principes dans l'ensemble de l'écosystème canadien de l'IA permettrait au pays d'étendre son leadership mondial en matière de développement et de déploiement responsables de l'IA.
La capacité unique de l'Institut Vecteur à rassembler les parties prenantes dans tous les domaines de l'IA, les institutions et les secteurs industriels lui confère une nouvelle perspective sur les tendances et les défis liés à la mise en œuvre de l'IA.
Ces principes s'appuient sur des thèmes internationaux recueillis dans de multiples secteurs afin de refléter les valeurs des praticiens de l'IA dans l'écosystème de Vector, au Canada et dans le monde entier :
Nous nous engageons à développer une IA qui favorise la croissance inclusive, le développement durable et le bien-être de la société. Le développement et le déploiement responsables des systèmes d'IA doivent prendre en compte l'accès équitable à ces systèmes ainsi que leur impact sur la main-d'œuvre, l'éducation, la concurrence sur le marché, l'environnement et d'autres sphères de la société. Cet engagement implique un refus explicite de développer des systèmes d'IA nuisibles tels que les systèmes d'armes autonomes létaux et les méthodes de manipulation visant à susciter l'engagement, y compris la coercition politique.
Nous nous engageons à intégrer des garanties appropriées dans les systèmes d'IA afin de nous assurer qu'ils respectent les droits de l'homme, l'État de droit, l'équité, la diversité et l'inclusion, et qu'ils contribuent à une société juste et équitable. Les systèmes d'IA doivent être conformes aux lois et réglementations et s'aligner sur les exigences multijuridictionnelles qui soutiennent l'interopérabilité internationale des systèmes d'IA.
Nous reconnaissons l'importance fondamentale de la protection de la vie privée et de la sécurité, et nous nous engageons à veiller à ce que les systèmes d'IA reflètent ces valeurs de manière appropriée pour les usages auxquels ils sont destinés.
Nous reconnaissons que le maintien de systèmes d'IA sûrs et dignes de confiance nécessite une évaluation et une gestion continues de leurs risques. Cela signifie qu'il faut assumer la responsabilité de la chaîne de valeur tout au long du cycle de vie d'un système d'IA.
Nous reconnaissons que les citoyens et les consommateurs doivent être en mesure de comprendre les résultats de l'IA et de les remettre en question. Cela nécessite une transparence et une divulgation responsables des informations sur les systèmes d'IA, ainsi qu'un soutien à la formation à l'IA, pour toutes les parties prenantes.
Nous reconnaissons que les organisations doivent être responsables tout au long du cycle de vie des systèmes d'IA qu'elles déploient ou exploitent conformément à ces principes, et qu'une législation gouvernementale et des cadres réglementaires sont nécessaires.
Les premiers principes de l'Institut Vecteur pour l'IA s'appuient sur l'approche de l'IA éthique développée par l'OCDE. Outre les principes de confiance et de sécurité, des définitions claires sont également nécessaires au déploiement responsable des systèmes d'IA. Comme point de départ, l'Institut Vecteur reconnaît la définition d'un système d'IA de l'Organisation de coopération et de développement économiques (OCDE). En mai 2023, l'OCDE définit un système d'IA comme suit :
"Un système d'IA est un système basé sur une machine qui est capable d'influencer l'environnement en produisant un résultat (prédictions, recommandations ou décisions) pour un ensemble donné d'objectifs. Il utilise des données et des entrées basées sur des machines et/ou des humains pour (i) percevoir des environnements réels et/ou virtuels ; (ii) abstraire ces perceptions en modèles par le biais d'une analyse automatisée (par exemple, avec l'apprentissage automatique) ou manuelle ; et (iii) utiliser l'inférence du modèle pour formuler des options de résultats. Les systèmes d'IA sont conçus pour fonctionner avec différents niveaux d'autonomie".
Vector reconnaît également que les définitions largement acceptées des systèmes d'IA peuvent être révisées au fil du temps. Nous avons vu comment le développement rapide de modèles d'IA peut modifier à la fois le point de vue des experts et l'opinion publique sur les risques de l'IA. Dans le cadre du projet Managing AI Risk de Vector, nous avons collaboré avec de nombreuses organisations et autorités de réglementation pour évaluer plusieurs types de risques liés à l'IA. Ces discussions ont permis de formuler les risques et l'impact dans les principes.
La nature dynamique de ce défi exige que les entreprises et les organisations soient prêtes à réviser leurs principes pour répondre à la nature changeante de la technologie de l'IA.