Robustesse de l’apprentissage automatique : nouveaux défis et approches
29 mars 2022
29 mars 2022
Par Jonathan Woods
29 mars 2022
Cet article fait partie de notre série IA fiable. Dans le cadre de cette série, nous publierons un article par semaine autour de
Dans l’article de cette semaine, l’équipe d’innovation industrielle de Vector examine la robustesse des modèles, définit son importance dans la gouvernance, analyse cinq enjeux nouveaux présentés par les modèles d’apprentissage automatique, et offre des lignes directrices générales pour la gouvernance de la robustesse des modèles dans la pratique.
Pour de nombreuses organisations, transformer la promesse de l’apprentissage automatique (ML) pour de nouveaux produits et des opérations optimisées en réalité a été un défi. Les entreprises ont découvert que les applications d’apprentissage automatique diffèrent des logiciels traditionnels à plusieurs égards importants. La complexité des données, les coûts d’ingénierie et de calcul, ainsi que les nouvelles exigences de gouvernance ont tous ralenti l’adoption. La gouvernance et les contrôles ont posé un défi particulièrement difficile. L’incertitude entourant de nouveaux risques a été accentuée par certains échecs très publics utilisant l’apprentissage automatique, et il n’est pas surprenant que les organisations soient prudentes à propos de cette technologie. Étant donné que les normes sont encore en cours d’élaboration et que les erreurs peuvent entraîner de réelles conséquences réputationnelles et financières, il est logique de pécher par excès de prudence ― même si le coût d’opportunité de ne pas utiliser les systèmes d’apprentissage automatique où ils pourraient apporter de la valeur peut être important.
Une clé pour surmonter l’incertitude et aller de l’avant avec la mise en œuvre est une bonne gouvernance de l’apprentissage automatique. Heureusement, avec quelques ajustements, les cadres de risque existants pour les modèles non-ML peuvent être ajustés pour tenir compte des algorithmes d’apprentissage et de leurs caractéristiques uniques.
Cet article examine un élément de la gouvernance du risque des modèles ML : la robustesse des modèles. L’article définit son importance en gouvernance, analyse cinq enjeux nouveaux que les modèles d’apprentissage automatique présentent et propose des lignes directrices générales pour la gouvernance de robustesse des modèles dans la pratique. Cet article est principalement destiné aux professionnels non techniques afin de leur permettre de saisir des concepts clés, de participer au processus de gouvernance et de poser des questions éclairées en matière d’application responsable de l’apprentissage automatique. En fin de compte, ces connaissances peuvent permettre aux organisations de maximiser la valeur qu’elles tirent des systèmes d’apprentissage automatique.
Qu’est-ce que la robustesse des modèles?
La robustesse du modèle fait référence au degré de variation de la performance d’un modèle lors de l’utilisation de nouvelles données par rapport aux données d’entraînement. Idéalement, la performance ne devrait pas dévier de façon significative. La robustesse est importante pour plusieurs raisons. Premièrement, la confiance dans tout outil dépend d’une performance fiable. La confiance peut s’effriter lorsqu’un système d’apprentissage automatique fonctionne de manière imprévisible et difficile à comprendre. Deuxièmement, un écart par rapport à la performance anticipée peut indiquer des enjeux importants qui nécessitent une attention. Ces problèmes peuvent inclure des attaques malveillantes, des phénomènes non modélisés, des biais non détectés ou des changements importants dans les données. Pour s’assurer qu’un modèle fonctionne selon son objectif initial, il est essentiel de comprendre, de surveiller et de gérer la robustesse dans le cadre de la gouvernance des risques du modèle.
Comprendre et surveiller cinq éléments pour maintenir la robustesse du modèle ML
Atteindre la robustesse du modèle nécessite de comprendre et de gérer plusieurs défis techniques. Ci-dessous, nous définissons ces défis et énumérons les considérations pour chacun. Cette collection devrait fournir une liste de vérification fiable des éléments à consulter lors de la gestion de la robustesse du modèle.
Gérer la robustesse du modèle nécessite de comprendre des défis spécifiques liés à :
Qualité des données
La qualité des données peut avoir un effet significatif sur la performance du modèle. La qualité des données fait référence à la précision, à la complétude et à la clarté des données saisies dans un système d’apprentissage automatique. Plus le jeu de données est bas sur chacune de ces dimensions, plus le système est susceptible de s’écarter de sa performance habituelle. Plusieurs enjeux peuvent affecter la qualité des données. Les ensembles de données peuvent présenter un biais, ce qui conduit à des résultats de modèles qui favorisent ou défavorablement certains groupes de manière injuste. Les données plus anciennes peuvent capturer des motifs qui ont depuis évolué, ce qui conduit le modèle à produire des résultats qui ne sont plus pertinents. Des scénarios importants peuvent être sous-représentés ou ne pas être présents du tout dans les données d’entraînement, ce qui conduit à l’omission de fonctionnalités clés pour la performance. Les praticiens conscients de la nécessité de robustesse devraient commencer par la qualité des données, en s’assurant que la formation et les ensembles de données du monde réel sont complets, précis et pertinents. Ne pas le faire pourrait compromettre la fiabilité de la sortie du modèle.
Considérations : Envisagez de revoir et de mieux sélectionner l’ensemble de données original avant d’utiliser un modèle afin de vous assurer que l’ensemble de données est complet, pertinent et précis.
Décroissance du modèle
Avec le temps, la capacité prédictive d’un modèle peut se détériorer. Dans des industries dynamiques et des environnements en évolution, de nouvelles distributions de données peuvent apparaître, différentes des distributions historiques utilisées pour entraîner les modèles. Lorsque la différence est significative, elle peut affecter la fiabilité des prédictions d’un système. Cette différence entre les données d’entraînement et les données de test s’appelle le décalage de l’ensemble de données.
Quand c’est grave – peut-être à cause d’événements majeurs réels qui provoquent des changements soudains et significatifs dans le comportement des gens – il faut la corriger. Les techniques de correction du modèle ou le réentraînement du modèle avec des données plus récentes peuvent rétablir la précision du modèle. Une autre version de la décroissance est la dérive de concept, qui se produit lorsque la distribution des données reste la même, mais que notre interprétation de la relation entre deux caractéristiques ou plus dans les données change. Dans ce cas, un modèle peut produire des résultats précis selon ses entrées, mais qui ne sont plus pertinents.
Considérations : Surveillez et suivez tout changement dans la performance du modèle, et familiarisez-vous avec les techniques de correction qui pourraient permettre un recalibrage plus rapide et moins coûteux qu’une rééducation complète du modèle sur un ensemble de données mis à jour.
Stabilité des caractéristiques
Une caractéristique est une propriété individuelle ou une variable utilisée comme entrée dans un système d’apprentissage automatique. Considérons un modèle qui prédit les prix des logements. Les caractéristiques peuvent inclure l’emplacement de la maison, sa taille, le nombre de chambres, le prix de vente précédent ou tout autre nombre d’éléments. La variation fréquente de caractéristiques importantes peut affecter la stabilité d’un modèle. Des défis peuvent aussi survenir si des observations auparavant inédites mais pertinentes dépassent la plage observée dans les données d’entraînement.
Considérations : Lors de la surveillance d’un modèle, suivez délibérément les changements de caractéristiques comme indicateur de la stabilité du modèle.
Précision vs rappel
La précision est une mesure de l’exactitude dans le fonctionnement du modèle. Le rappel est une mesure de complétude ou de quantité. « Haute précision » signifie qu’un modèle offre des résultats nettement plus pertinents que des résultats non pertinents. « Rappel élevé » signifie qu’un modèle retourne la plupart des résultats pertinents disponibles. Il y a souvent un compromis entre la précision et le rappel lors de l’entraînement du modèle, et les praticiens doivent déterminer quel équilibre est le mieux adapté à chaque cas donné. Un mauvais équilibre peut affecter la robustesse du modèle.
Considérations : En général, la précision est importante lorsqu’un faux positif serait un problème critique (par exemple, dans un contexte bancaire, les fausses alertes de fraude peuvent générer un volume de travail qui peut submerger une équipe). Le rappel est important lorsqu’un faux négatif serait un problème critique (par exemple, disqualifier incorrectement les prospects marketing et entraîner des occasions de vente manquées). L’étalonnage de la précision par rapport au rappel devrait être fait pour chaque modèle.
Perturbations d’entrée
Dans certains cas, les modèles peuvent être trompés par des écarts dans les données d’entrée. Même de petites perturbations d’entrée peuvent provoquer des changements dans la sortie du système. Cela peut être exploité avec une intention malveillante. L'« empoisonnement des données » est un type d’attaque contre un système d’apprentissage automatique dans lequel les données utilisées pour entraîner un modèle sont intentionnellement contaminées afin de compromettre le processus d’apprentissage.
Considérations : Envisagez des stratégies d’atténuation, incluant un échantillonnage approfondi des données (y compris les valeurs aberrantes, les tendances, les distributions, etc.) et la construction d’un « jeu de données en or » – un ensemble de données validé avec des cas sélectionnés provenant de sources connues et pour lequel le comportement attendu est connu – afin d’assurer l’intégrité des entrées.
Comment les organisations peuvent gérer la robustesse du ML
Compte tenu des défis, comment les organisations peuvent-elles aborder et gouverner la robustesse? Voici quelques principes généraux que les organisations peuvent suivre :
En résumé
Les opérations et caractéristiques uniques des systèmes d’apprentissage automatique présentent de nouveaux risques qui doivent être gérés et nécessitent des ajustements à certains éléments de la gouvernance des risques modèles, y compris la robustesse. Heureusement, grâce à la sensibilisation et à l’analyse des nouveaux enjeux de robustesse posés par les modèles d’apprentissage automatique, les organisations peuvent y remédier et renforcer la confiance dans les modèles d’apprentissage automatique qu’elles déploient.