Résumé de la Journée d’analyse de CIBC : Comprendre et mettre en pratique une IA fiable
1er juin 2022
1er juin 2022
Par Jonathan Woods
1er juin 2022
L’IA fiable est un sujet en évolution, mais crucial, pour les organisations utilisant l’IA aujourd’hui. Le 29 mai, la CIBC a organisé une discussion au feu intitulée Recherche sur l’IA : IA fiable & MLOps pour approfondir ce sujet. La discussion comprenait trois intervenants :
L’événement faisait partie de la série Journée de l’analytique du CIBC, un forum interne où divers employés dans les domaines des données et de l’analytique se réunissent pour partager les meilleures pratiques et les enseignements clés, présenter des travaux analytiques et des projets, et apprendre dans un environnement interactif. Avec 70 membres de l’équipe CIBC présents, cette discussion dynamique a abordé les notions générales de l’IA fiable, les approches face aux défis communs et comment MLOps et l’opérationnalisation s’intègrent. Voici quelques-unes des réflexions partagées lors de la conversation :
Qu’est-ce que l’IA fiable?
Les systèmes d’IA peuvent introduire de nouveaux risques uniques pour les entreprises qui les utilisent. S’ils ne sont pas contrôlés, les défis spécifiques à l’IA liés aux biais, à la vie privée, à la sécurité, à l’explicabilité et à la robustesse, peuvent nuire aux entreprises, aux clients et à la société en général. L’IA digne de confiance désigne l’ensemble des principes et pratiques destinés à tenir compte de ces nouveaux risques et à guider le développement éthique et la gestion des systèmes d’IA.
« De manière générale, l’IA de confiance est une IA développée selon des principes qui favorisent la confiance entre toutes les parties prenantes impliquées », a déclaré Anne. « Cependant, il n’existe pas de définition standard, universellement acceptée de l’IA de confiance. »
Bien que les meilleures pratiques existent, la responsabilité de déterminer exactement ce qui satisfait la notion d’IA fiable, quels risques précis elle cherche à atténuer, et comment elle est mise en œuvre pour s’assurer que l’IA ne nuise pas aux parties prenantes incombe principalement aux organisations qui l’utilisent.
La confiance est nécessaire à l’innovation en IA
Les progrès de l’IA dépendent du fait de gagner et de maintenir la confiance des parties prenantes quant à l’atténuation et à la surveillance des risques spécifiques à l’IA afin d’éviter des conséquences imprévues. Anne a expliqué : « Si l’IA n’est pas développée de manière fiable, si les gens ne lui font pas confiance, alors elle perd sa crédibilité. En fait, vous freinez l’innovation. L’IA digne de confiance, c’est de l’innovation. Si vous ne construisez pas l’IA de manière fiable, les dirigeants pourraient cesser de l’approuver. Les clients perdront confiance et passeront à une autre entreprise, ils vont partir en masse. »
Cette attention portée à de nombreux intervenants est essentielle. Pour que l’innovation continue, toutes les personnes touchées par un système d’IA doivent avoir une confiance implicite en lui. Anne a précisé : « Ce n’est pas seulement la confiance envers les clients, mais aussi les data scientists doivent faire confiance à l’IA, les régulateurs doivent faire confiance à l’IA, l’équipe d’affaires qui utilise le système d’IA doit lui faire confiance, ainsi que les cadres qui l’approuvent. »
Le défi « socio-technique » de l’IA fiable
L’IA fiable n’est pas une question strictement technique. Pandya a souligné qu’il s’agit d'« exigences éthiques » basées sur les valeurs humaines, en plus des ensembles de données, des architectures et des processus avec lesquels les équipes d’IA collaborent. Ces valeurs nécessitent une négociation sociale et ne peuvent pas toujours être définies unilatéralement par une seule équipe ou entreprise. Pour cette raison, déterminer les garde-fous techniques pour chaque cas d’utilisation de l’IA nécessite une réflexion rigoureuse sur ces valeurs, une diversité de perspectives et d’entrées, ainsi qu’une révision continue des hypothèses.
Un exemple parfait de ce défi est l’équité, un concept complexe en IA avec plusieurs définitions concurrentes. En général, l’équité consiste à s’assurer que les systèmes d’IA ne produisent pas de résultats biaisés ou discriminatoires pour des individus ou des groupes. Les intervenants ont convenu que l’équité est probablement le concept d’IA fiable le plus difficile à aborder, car il existe de nombreuses approches différentes, mais valides, de cette notion et qu’elles sont généralement négociées dans un contexte social plus large, au-delà d’une seule équipe ou entreprise.
Anne a dit : « La question la plus difficile [de l’IA fiable] en termes de perspectives les plus diverses et le plus de débats porte probablement sur l’équité, parce que c’est tellement social. Il y a des aspects sociaux et techniques dans l’équité. Il y aura beaucoup de débats sur la bonne façon de voir l’équité pour [chaque cas d’usage] donné, ainsi que sur la bonne définition et la bonne mesure. »
Comment les institutions financières se situent
Les deux intervenants ont classé les institutions financières comme très avancées dans certains aspects de l’IA fiable. « La responsabilité, la responsabilité et la vie privée sont probablement bien en avant dans les banques », a déclaré Anne. « Les banques ont [mis l’accent] sur plusieurs de ces principes peut-être depuis le début de la première banque en Italie. » Il a poursuivi : « En matière d’innovation, après les entreprises technologiques, c’est le secteur financier qui innove le plus en matière d’IA. » De même, Pandya a souligné que des enjeux comme « la vie privée et la sécurité ont longtemps été la colonne vertébrale de tout ce qui touche aux données dans l’industrie financière. »
Anne a ensuite énuméré les concepts sur lesquels les équipes du CIBC se concentrent. « La vie privée est la principale », a-t-il dit, faisant référence au travail de conception de la vie privée réalisé avec la confidentialité différentiel, l’apprentissage fédéré et l’anonymat k. Mais aussi, a-t-il dit, « il y a la sécurité et la sûreté, l’équité, la transparence et l’explicabilité, la robustesse et la fiabilité, ainsi que la responsabilité et la reddition de comptes. »
Fournisseurs de confiance et tiers
Les produits avec IA à l’intérieur posent un défi délicat pour les organisations qui achètent des produits et services auprès de fournisseurs tiers : comment les acheteurs peuvent-ils savoir que ces produits se mesurent à des dimensions clés de confiance comme l’équité, la confidentialité et la robustesse? Pour aggraver le défi, les fournisseurs peuvent résister à divulguer des détails pertinents s’ils estiment que la propriété intellectuelle est en danger.
Lors de l’approvisionnement, une communication claire avec les fournisseurs concernant les attentes est primordiale. Pandya a dit : « Vous devez partager quels sont les principes d’une IA fiable pour une organisation. » Anne accepta. « Nous [devons] communiquer nos normes pour l’IA fiable, notre ensemble minimum d’attentes en matière d’équité et d’explicabilité. Et ils devraient faire de même », a-t-il dit.
Cependant, un problème demeure, selon Anne : « Nous n’avons pas accès à leurs données d’évaluation ni à celles sur lesquelles ils ont entraîné leur algorithme. » Cela signifie que la diligence raisonnable doit inclure des questions explicites concernant ces données. Il a expliqué : « Alors on leur demande : 'Vos données sont-elles représentatives de la population? Quels indicateurs de performance en équité utilisez-vous? Pourquoi utilises-tu ceux-là? À quelle fréquence surveillez-vous votre modèle pour ces indicateurs? Que faites-vous une fois que votre indicateur d’équité dépasse un certain seuil acceptable? » En posant ces questions, nous essayons d’évaluer si leur processus d’évaluation de l’équité est similaire au nôtre — si cela nous convient — car sans accès aux données, nous ne pouvons pas faire ces calculs nous-mêmes. Nous devons compter sur eux. »
De plus, Pandya a exprimé son scepticisme quant au mérite des préoccupations concernant la PI : « Je pense que beaucoup d’entreprises ont une idée de ce qu’est la PI qui ne différencie pas du tout. Quand je pense aux avancées en apprentissage automatique et en apprentissage profond en particulier, tout est open source et très peu d’organisations en dehors du milieu universitaire développent vraiment de nouveaux algorithmes ou méthodes. Alors je pense que je reviendrais d’abord les défier : 'Est-ce vraiment une question de propriété intellectuelle ou n’êtes-vous tout simplement pas confiants que vos systèmes soient fiables ou non?' »
MLOps est la clé pour réaliser une IA fiable
MLOps ― un ensemble de pratiques pour le développement efficace de bout en bout de solutions d’apprentissage automatique fiables, évolutives et reproductibles ― « est le pont entre les principes [d’IA fiable] et la pratique », selon les mots de Pandya. Anne était d’accord : « MLOps rend possible l’IA fiable. » En fait, il est même allé jusqu’à dire que « la seule façon d’opérationnaliser une IA fiable à grande échelle est via MLOps. »
Il y a deux raisons principales à cela.
Premièrement, MLOps, qui s’intéresse à l’ensemble du pipeline d’apprentissage automatique, offre plus d’occasions de résoudre les problèmes de confiance et de mesurer les résultats que de se concentrer uniquement sur un modèle ou un ensemble de données. Anne a expliqué : « Un pipeline est composé de plusieurs composants. Vous avez donc un pipeline d’entraînement, qui comprend aussi l’extraction de données, le nettoyage des données, la formation et la validation. Disons maintenant que vous voulez intégrer les principes de l’IA de confiance dans un pipeline. Vous auriez un composant dans le pipeline qui effectue maintenant une évaluation de l’équité des données, en utilisant une métrique d’équité comme contrainte. Ensuite, tu pourras aussi penser à l’explicabilité. Vous pouvez concevoir un composant pour l’explicabilité, et l’intégrer à votre pipeline. »
Deuxièmement, a noté Pandya, MLOps introduit une nouvelle pratique de développement cruciale. Il a expliqué : « En DevOps, l’accent est mis sur l’intégration continue et le déploiement continu. Un élément clé supplémentaire pour MLOps est la surveillance et les tests continus. » Gérer les problèmes d’incertitude, de dérive des données et de conséquences imprévues – tous importants pour maintenir la confiance – ne peut être atteint que si les équipes suivent les systèmes et leurs résultats.
En conclusion sur l’événement, tous les participants ont salué la collaboration entre Vector et CIBC, rendue possible grâce au rôle de la banque en tant que commanditaire fondateur de Vector. Les conférenciers ont mis en lumière les travaux du bootcamp des techniques d’amélioration de la vie privée de Vector et du projet de leadership d’opinion collaboratif et multidisciplinaire Trustworthy AI. Ali Taiyeb, directeur de l’innovation industrielle chez Vector, a également souligné la participation de la CIBC au projet Dataset Shift, qui a permis d’obtenir des perspectives désormais approfondies et développées au sein de la CIBC. Taiyeb a également discuté du projet de prévision de Vector, résultats dont Andrew Brown, directeur exécutif d’Alternate Solutions Group et de Simplii Financial chez CIBC, a indiqué qu’ils feront l’objet d’une future session Analytics Edge. « C’est super de travailler avec Vector », dit Brown. « Nous partagerons nos leçons de ce que Vector nous a appris sur les techniques avancées de prévision, et cela devrait être utile à nos équipes au CIBC. »
La modératrice Ozge Yeloglu a conclu l’événement en exprimant l’appréciation mutuelle ressentie par les participants du projet de CIBC et Vector : « C’est toujours un plaisir de trouver de nouvelles idées, et pas nécessairement de la recherche pour la recherche, mais comment nous pouvons réellement appliquer ces éléments dans nos entreprises », a-t-elle déclaré. « C’est très précieux pour nous. »