La nouvelle cartographie de l’invisible
22 janvier 2026
22 janvier 2026
Par John Knechtel
Du télescope au bilan – un récapitulatif de l’atelier Foundation Models for Science présente comment les scientifiques peuvent aider les entreprises à résoudre leurs problèmes de données les plus tenaces et à développer une IA qui fonctionne réellement.
Par un mardi frais à Toronto, alors que le soleil de novembre filtrait à travers les puits de lumière bien au-dessus, une salle comble au MaRS s’est rassemblée pour l’atelier Foundation Models for Science de l’Institut Vector. Les astrophysiciens, biologistes et chimistes présents dans l’auditoire étaient là pour s’attaquer à un problème concret : comment faire comprendre aux machines des phénomènes que même les humains viennent tout juste d’apprendre à percevoir.
L’histoire publique de l’IA s’est récemment concentrée sur des modèles, comme GPT-4, qui sont entraînés sur l’ensemble de l’internet ouvert pour imiter au mieux le langage humain. Mais dans les laboratoires où les médicaments sont conçus et dans les observatoires qui cartographient l’univers, Internet est en fait un désert. On ne peut pas se frayer un chemin jusqu’à la signature chimique d’un foie défaillant ni à la distance d’une galaxie située à treize milliards d’années-lumière. Ces vérités sont découvertes lentement, au prix de millions de dollars et de décennies de travail.
De façon appropriée, la journée a été axée sur la création d’une IA qui fonctionne même lorsque les données sont rares, les enjeux élevés et les sources déconnectées. Dans ce qui suit, nous examinerons trois défis récurrents dans ce contexte : le goulot d’étranglement des annotations, le fossé de confiance et le saut du laboratoire à la production.
Nolan Koblischke, doctorant en astrophysique à l’Université de Toronto, passe ses journées à chercher une aiguille galactique dans une botte de foin : des phénomènes célestes rares comme les lentilles gravitationnelles — des moments où la gravité d’une galaxie massive au premier plan agit comme une loupe cosmique, déformant la lumière d’un objet plus lointain en un anneau lumineux. Mais en astronomie, le problème central n’est pas un manque de données, mais un excès écrasant du mauvais type de données. Ces lentilles sont les « rares joyaux » de la cosmologie, apparaissant peut-être dans une image de télescope sur dix mille.
Traditionnellement, les trouver impliquait une quantité herculéenne de travail manuel. Des équipes de chercheurs sont assises devant des écrans, faisant défiler des millions de taches presque identiques, les étiquetant une par une. Pour les cadres, le schéma sera familier : vous avez un atout énorme — une archive d’images, une flotte de capteurs, une décennie de scans — mais il est pratiquement inutilisable parce que personne n’a eu le temps ni le budget de l’étiqueter à grande échelle.
L’équipe de Koblischke a décidé de supprimer ce goulot d’étranglement. Ils ont transmis 140 millions d’images galactiques à GPT-4o-mini et lui ont demandé des descriptions textuelles simples. Ensuite, ils ont utilisé une technique appelée apprentissage contrastif pour construire un pont entre le monde des pixels et le monde du langage. Au lieu de traiter les images et le texte comme des silos séparés, ils ont entraîné un modèle fondamental (AION-1) pour les placer dans un espace sémantique partagé où des images similaires finissent rapprochées, où les mots et expressions décrivant ces images sont attirés dans le même voisinage, et où des concepts non liés sont repoussés très loin.
En termes simples, ils ont enseigné au modèle un dictionnaire bilingue qui associe des images à la prose. Dans cet espace, une image d’une galaxie tourbillonnante et le mot « spirale » sont côte à côte; une image d’une masse lisse et sans caractéristiques et l’expression « galaxie elliptique » forment un autre amas.
Le bénéfice est ce que les chercheurs en IA appellent la recherche « zéro tir ». Parce que le modèle comprend la relation entre les motifs visuels et le langage, les astronomes n’ont plus à prédéfinir chaque catégorie qui leur tient à cœur. Un chercheur peut taper une toute nouvelle requête comme « anneau bleu déformé » ou « arc croissant mince près du noyau brillant », et le système fait apparaître instantanément les images qui vivent le plus près de cette description dans sa bibliothèque — même si personne n’a jamais entraîné un classificateur pour cette expression exacte.
Pour les entreprises, cela représente un changement fondamental. Au lieu d’investir des années dans l’étiquetage manuel et des taxonomies rigides, vous obtenez une interface ouverte en langage naturel pour vos données visuelles et transformez votre archive d’un enregistrement statique en un atout interactif et conversationnel que les spécialistes peuvent interroger avec leurs propres mots.
Le même schéma s’applique à toute industrie noyée d’images mais affamée d’étiquettes structurées. Dans le domaine de la santé, les radiologistes pourraient interroger des millions d’examens pour des expressions comme « petit nodule spiculé dans le poumon supérieur droit » sans pré-annoter chaque cas, car le modèle utilise un espace partagé image-texte pour trouver des correspondances proches. En fabrication, les ingénieurs pourraient chercher « fissure fine près de la soudure » ou « composant désaligné sur le convoyeur deux » et faire passer le système à travers les lignes de produits et les usines, simplement en décrivant le défaut qui les intéresse.
Les cadres peuvent tirer une leçon directe de ce travail : vos données visuelles non étiquetées sont l’un de vos plus grands atouts sous-utilisés. Au lieu de consacrer des ressources à des projets d’annotation exhaustifs, vous pouvez utiliser des modèles de fondation pour aligner images et langage dans un seul espace sémantique, offrir aux experts du domaine une barre de recherche qui parle leur vocabulaire, et débloquer des cas d’usage zéro — nouvelles requêtes, nouveaux produits, nouveaux types de défauts — sans reconstruire votre pile IA à chaque fois.
En d’autres mots, l’opportunité stratégique n’est pas seulement de voir plus dans vos images; C’est pour laisser votre organisation leur parler. Les gagnants ne seront pas les entreprises qui collectent le plus de photos, mais celles qui construisent des systèmes où un expert peut taper quelques mots et faire répondre toute l’histoire visuelle de l’entreprise.

Si les astronomes cartographient les confins de l’espace, l’industrie pharmaceutique cartographie l’intérieur microscopique du corps humain où un seul faux virage peut discrètement effacer des milliards de dollars en R&D. Justin Donnelly (PhD, biologie chimique) d’Axiom Bio a rappelé à la salle que le coût moyen pour mettre un seul médicament sur le marché est d’environ 2,5 milliards de dollars — et l’un des plus importants, Les causes les plus persistantes de ce coût sont les lésions hépatiques causées par des médicaments. C’est une réaction toxique qui reste souvent invisible jusqu’à ce qu’un médicament soit déjà avancé dans des essais cliniques, moment où il est le plus coûteux et le plus dommageable pour la réputation d’échouer.
Pour les dirigeants, le problème central est familier : les décisions cruciales prises sur des données minces. Dans ce cas, nous avons des étiquettes de toxicité claires pour seulement environ 2 000 composés. Ce n’est pas du tout suffisant pour réduire de façon fiable le risque d’un portefeuille de découverte complet si l’on considère l’IA comme un moteur traditionnel de « big data ».
L’approche de Donnelly reformule la question. Au lieu de demander au modèle de faire une simple décision oui/non sur la toxicité, il enseigne à l’IA à s’expliquer en termes biologiques. Son équipe entraîne un grand modèle d’IA puissant à partir de données expérimentales abondantes — environ 116 000 composés testés en laboratoire — pour prédire un ensemble de caractéristiques biologiques fondamentales à partir de la structure de chaque molécule. En termes simples, l’IA apprend à répondre : « Étant donné cette molécule, qu’est-ce qu’elle risque de faire aux cellules et aux tissus? » avant même de prononcer un verdict sur la sécurité.
Surtout, ce n’est que la première étape. Ces caractéristiques prédites sont ensuite intégrées à un second modèle, plus transparent, qui se comporte moins comme une boîte noire et plus comme un toxicologue senior. Quand un médicament de Pfizer appelé Lexipeptide a commencé à montrer une toxicité lors du développement, ce système en deux étapes n’a pas seulement déclenché un signal d’alarme; il a produit un post-mortem quantifié. Il a attribué le risque principalement au stress mitochondrial et à une forte concentration de médicaments, mettant clairement en lumière les leviers spécifiques que les chimistes auraient pu ajuster plus tôt. Tout aussi important, lorsque le modèle est incertain, il le dit explicitement : « Je n’ai pas assez de données sur ce mécanisme; Faites cette expérience ensuite. »
Cela transforme l’IA d’un oracle mystérieux en un compagnon de décision avec une trace d’audit. Au lieu d’un score binaire qui ne peut être défendu dans un comité de gouvernance, les dirigeants obtiennent :
Pour les secteurs à enjeux élevés au-delà de l’industrie pharmaceutique, le schéma est le même. Dans les services financiers, les banques commencent à utiliser des modèles tout aussi transparents pour aller au-delà des pointages de crédit à une ligne. Plutôt qu’un rejet générique, un système peut spécifier qu’un risque de prêt est, disons, déterminé à 60% par la volatilité du marché et à 40% par des ratios d’endettement/revenu, ce qui permet des décisions de prêt plus nuancées et conformes. Dans les infrastructures et l’énergie, des modèles qui expliquent si une défaillance prévue est causée par la fatigue du matériau ou un stress environnemental permettraient aux opérateurs de cibler l’entretien avec une précision chirurgicale plutôt que de s’appuyer sur des horaires larges et conservateurs.
Les cadres peuvent tirer une leçon directe : dans des environnements où une seule erreur de calcul peut mener à un effondrement systémique, vous ne pouvez pas vous permettre une IA qui ne fait que prédire; il faut une IA qui explique. Les mises en œuvre gagnantes seront celles qui :
En d’autres termes, l’avantage concurrentiel ne vient pas du fait d’être le premier à déployer un modèle puissant. Cela vient du fait d’avoir été le premier à déployer un système que vos scientifiques, agents de gestion des risques et régulateurs peuvent interroger, faire confiance et agir.

Si l’astronomie et la pharma s’occupent des galaxies et des molécules, les travaux de la professeure Vector Anna Goldenberg se concentrent sur quelque chose de plus proche : les signaux continus du corps humain. Scientifique principal en génétique et biologie du génome au SickKids Research Institute, la revendication principale de Goldenberg remet en question une hypothèse courante en santé et au-delà : chaque maladie, cas d’usage ou environnement est tellement différent qu’il faut repartir de zéro à chaque fois. Ses données suggèrent le contraire : sous la surface, le corps humain se comporte de manière étonnamment constante.
Son équipe étudie ce qu’elle appelle des « états physiologiques » — des schémas stables dans des données comme la fréquence cardiaque, le sommeil et les mouvements qui persistent dans le temps. Ce qui frappe, ce n’est pas seulement que ces États existent, mais qu’ils se transfèrent. Dans un projet, leurs modèles ont appris des états à partir de données portables sur des femmes enceintes, y compris les règles qualifiées de « sensation de contrôle » ou de « problèmes de sommeil ». Ces mêmes états se sont ensuite transférés avec une précision inattendue à un groupe complètement différent : les patients atteints de la maladie de Crohn.
Pour les cadres, le message est important : il se peut que vous n’ayez pas besoin d’un modèle sur mesure pour chaque sous-population ou condition. Si vous pouvez apprendre des états robustes et interprétables dans un contexte, vous pouvez souvent les réutiliser dans un autre.
Techniquement, l’équipe de Goldenberg emprunte une idée aux grands modèles de langage (LLM), mais l’applique aux signaux de séries temporelles plutôt qu’aux mots. Plutôt que de prédire le prochain mot d’une phrase, ils alimentent le modèle avec des « phrases » de données physiologiques au fil du temps :
Un modèle fondamental pour les données de séries temporelles apprend la « grammaire de la physiologie humaine »; Il découvre des « phrases » récurrentes de stress, de rétablissement, de stabilité et de détérioration.
Goldenberg propose une analogie industrielle : un technicien sait qu’une turbine vibrante dans un moteur à réaction et une pompe vibrante sur le plancher d’une usine peuvent souffrir de la même physique sous-jacente, même si elles sont situées dans des systèmes différents. Une fois que vous comprenez le schéma d’usure dans un environnement, vous pouvez le repérer dans un autre. De même, dans l’énergie et les services publics, les composants du réseau, les transformateurs et les postes de transformation émettent des données de séries temporelles qui reflètent la contrainte, la surcharge et la dégradation; Les états appris comme le fonctionnement stable, la surcharge naissante ou la contrainte thermique peuvent être réutilisés à travers différentes régions et types d’actifs.
La conclusion des dirigeants est claire : ne traitez pas chaque jeu de données, site ou gamme de produits comme un problème d’IA en développement réel. Investissez dans des modèles de fondation pour vos principaux signaux de séries temporelles — sorties de capteurs, appareils portables, journaux machines, flux de transactions — et concentrez-vous sur la découverte d’états réutilisables tels que santé vs stress, normal vs. anormal, et stable vs. dérive. Concevez votre stratégie d’IA pour que chaque nouveau déploiement puisse hériter de ce qui a été appris auparavant, et traitez les données opérationnelles comme un langage à modéliser, et non seulement comme un ensemble de métriques isolées. La véritable mesure du succès ne réside pas seulement dans la précision d’un pilote, mais aussi la facilité avec laquelle ces États appris traversent les unités d’affaires, les actifs et les conditions.
En d’autres termes, la vraie valeur n’est pas simplement de prédire un seul résultat de façon plus précise. Il construit une couche d’IA qui comprend la dynamique universelle de vos systèmes — de sorte que lorsqu’un nouveau produit, un nouveau groupe de patients ou une nouvelle classe d’actifs est en ligne, le modèle parle déjà assez bien son langage pour aider dès le premier jour.

Alors que le soleil se couchait sur University Avenue, les participants de la journée étaient mieux équipés pour travailler vers une forme d’IA plus disciplinée et honnête — une méthode qui montre que le goulot d’étranglement des annotations, le fossé de confiance et le saut du laboratoire à la production ne sont pas insurmontables.
La voie à suivre est une sorte de parcimonie disciplinée : utiliser la physique pour guider l’imagination de la machine, la causalité pour ancrer ses prédictions, et l’explicabilité pour s’assurer que, lorsque le modèle parle, il ait quelque chose de significatif à dire. Pour l’industrie — les sciences de la vie avec des données limitées, les fabricants de produits à enjeux élevés et les institutions financières sous surveillance — le message était clair : l’objectif n’est plus de construire une machine capable de voir les étoiles, mais une qui comprend pourquoi elles brillent.
L’atelier Foundation Models for Science a réuni une communauté diversifiée de chercheurs issus de l’apprentissage automatique, de la chimie, de la biologie et de domaines connexes pour explorer comment les modèles fondamentaux d’IA à grande échelle transforment la découverte scientifique et les méthodologies de recherche. Ce séminaire innovant d’une journée a été conçu pour combler les frontières disciplinaires, favorisant la collaboration entre les scientifiques computationnels et les experts du domaine qui sont des pionniers dans l’application de techniques avancées d’IA pour résoudre des défis scientifiques complexes. Grâce à un mélange dynamique de conférences éclair étudiantes, de présentations de recherche et d’une séance interactive de réseautage, les participants ont exploré des avancées de pointe dans l’utilisation de modèles fondamentaux pour accélérer les avancées scientifiques tout en bâtissant des liens significatifs au sein de cet écosystème de recherche en rapide évolution.
Voici la liste des conférenciers qui ont partagé leur expertise tout au long de la journée :
Notre communauté de recherche reconnue fait avancer des percées dans la science et l’application de l’IA.