Depuis fin 2022, ChatGPT a bouleversé en profondeur notre relation à la recherche sur le Web, à la façon d’apprendre, de communiquer et même d’écrire.
Le problème majeur des hallucinations
Pourtant, derrière chaque réponse des transformeurs génératifs préentraînés (le GPT de ChatGPT) se cache un risque. Ces grands modèles de langage, qui reposent sur l’architecture transformeur, inventée par Google, sont conçus pour fournir une réponse plausible, reposant sur un faisceau de probabilités. En revanche, ils ne savent pas toujours reconnaître qu’ils ne savent pas. Alors plutôt que de ne rien dire, ils vont « halluciner », ils vont donner une réponse non fondée sur des faits ou la réalité.
Un problème majeur qui touche même (et parfois surtout) les versions les plus avancées d’IA dites « raisonnantes », comme o3 et o4-mini, d’OpenAI. Or, ces systèmes « intelligents » sont de plus en plus utilisés dans des domaines où l’exactitude de la réponse est capitale : aide à la découverte de nouveaux médicaments, aide à la conception de nouvelles puces, analyse de données complexes, etc.
Apprendre aux IA à savoir qu’elles ne savent pas
Des chercheurs du MIT, au sein d’une jeune pousse, appelée Themis AI, viennent d’apporter une réponse. Ils aident le modèle à quantifier l’incertitude de sa réponse et à corriger les résultats fournis avant qu’il hallucine.
Pour cela, ils ont créé Capsa, une plate-forme qui peut fonctionner avec n’importe modèle de machine learning et corriger les résultats peu fiables en l’espace de quelques secondes. Capsa modifie le modèle d’IA et lui permet de détecter les formes récurrentes dans son traitement des données qui indique une ambiguïté, un ensemble incomplet ou un biais. « Il va alors améliorer le modèle », expliquait Daniela Rus, directrice du Computer Science and Artificial Intelligence Laboratory (CSAIL), du MIT et cofondatrice de Themis AI, au site du MIT.
© Illustration générée avec Gemini pour Les Numériques
Prédire l’échec, prévenir l’erreur
« Nous voulons permettre l’utilisation des IA dans les applications à hauts enjeux dans toutes les industries », précisait Alexander Amini, l’autre co-fondateur de la start-up. « Nous avons tous vu des exemples d’IA qui hallucinent ou font des erreurs. Alors que l’IA est déployée plus largement, ces erreurs pourraient mener à des conséquences dévastatrices. Themis permet à une IA de projeter et prédire ses propres erreurs, avant que ça n’arrive. »
Themis AI est d’ores et déjà en discussion avec des géants de l’industrie pharmaceutique ou des sociétés qui veulent construire de nouveaux semiconducteurs grâce à l’IA, mais hésitaient jusqu’à présent à confier leurs données à des intelligences qui pouvaient aboutir à des solutions erronées.
Une nouvelle étape vers les IA locales
Par ailleurs, cette nouvelle approche pourrait accélérer le déploiement d’IA locale, sur nos smartphones et PC, qui seront plus performantes, expliquait Stewart Jamieson, directeur de la technologie de Themis AI, au site du MIT. « Normalement, les plus petits modèles, qui fonctionnent sur nos téléphones ou nos systèmes embarqués, ne sont pas très précis comparés à ceux qui tournent sur un serveur. Mais désormais nous pouvons concilier le meilleur de deux mondes : la faible latence et l’efficacité du edge computing (quand les calculs sont réalisés localement ou au plus près de l’utilisateur, NDLR) sans sacrifier la qualité. »
Le chef de la technologie de Themis AI indiquait aussi qu’à l’avenir il prévoyait que la plupart des calculs seront effectués localement, et que dès qu’ils seront incertains du résultat, ils seront transférés à un serveur central.
La fin des hallucinations pour des IA encore plus performantes et omniprésentes ? Reste à voir ce qu’OpenAI et consorts, qui travaillent d’arrache-pied à ce problème, feront de ce travail. En attendant, soyez prudents et… doutez.
Envie de faire encore plus d’économies ? Découvrez nos codes promo sélectionnés pour vous.