Les hallucinations, mais de quoi parle-t-on ?
Pourquoi des IA sophistiquées y sont exposées ?
Quelles sont les conséquences de ces hallucinations ?
Nous vous disons tout dans cet article, en commençant par ce qu’est un LLM (Large Langage Model).
Petit rappel sur la nature des LLMs
Commençons par examiner donc ce qu’est un LLM.
Un LLM est un réseau de neurone spécialisé (très) profond, entraîné à partir de (très) grandes quantités d’information de façon à faire des prédictions de bonne qualité sur “le mot suivant”.
- C’est une merveilleuse machine à produire des textes de très bonne qualité syntaxique. C’est-à-dire qu’ils sont très bien formés et respectent les règles de grammaires de la langue dans laquelle ils opèrent.
- Par ailleurs, il n’est pas intelligent, si tant est que l’on puisse définir clairement cette notion. Pas plus qu’il ne possède des connaissances. A vrai dire, il ne “sait” rien, ce n’est pas une machine sémantique.
Entraînés la plupart du temps de façon non-supervisée, ils nécessitent de (très) grandes capacités de calcul mais peu d’opérations manuelles. Dans certains cas l’éditeur du LLM utilise ponctuellement de l’apprentissage semi-supervisé. Par exemple quand la qualité recherchée est de type mathématique.
Dans l’état actuel de la technologie, entraîner un LLM consiste à calculer entre quelques milliards (10^9) et quelques centaines de milliards (10^11) paramètres. Ce qui exige de mettre en œuvre des milliers de serveurs spécialisés pendant des semaines, voire des mois. En synthèse ce sont des dispositifs lourds et pas du tout temps réel.
Une fois entraîné, le LLM est sollicité par un “prompt” en langage naturel (la plupart du temps). Ce prompt définit le contexte et la mission qui est lui proposée par l’utilisateur humain ou informatique. De toute évidence, la qualité de ce prompt a un effet déterminant sur la qualité de la réponse du LLM.
Pour étendre ses compétences à des champs spécifiques, le LLM peut être complété par des bases de connaissances contextuelles à l’usage visé. Par exemple des notices utilisateurs ou des documents de référence (plan comptable, code du commerce, jurisprudence, etc.).
D’où vient le “savoir” des LLM ?
Pour se moquer (ou se rassurer), on traite parfois les LLMs de “perroquets stochastiques”.
Mais ce n’est pas exact, car les LLMs sont capables de moduler leurs réponses selon la formulation de la question. En plus, ils adaptent même la conduite du dialogue avec l’utilisateur.
Le LLM étant une machine syntaxique, comment se peut-il que ses réponses soient la plupart du temps censées, et pas juste statistiques (ou du jabberwocky) ?
Eh bien, cette connaissance provient des données utilisées par les LLMs.
Par exemple le web pour chatGPT, Mistral, Llama et bien d’autres. Il se trouve que le contenu du web (après un peu de nettoyage) est à peu près censé.
D’ailleurs, c’est bien ce que l’on éprouve soi-même lorsqu’on navigue sur la toile.
Après tout, un texte est une suite de mots et n’a pas de connaissances intrinsèques. C’est la façon dont il est construit qui évoque un sens au lecteur. Vous pouvez d’ailleurs lire un précédent article sur le langage à ce sujet.
Le pari (presque gagné) des LLMs est qu’il est possible de faire le chemin inverse. C’est-à-dire, remonter au sens à partir de la statistique des textes. Et cela de façon programmatique, non supervisée.
Pourquoi les LLMs nous semblent-ils magiques ?
Parce qu’ils utilisent le langage naturel, notre langage, celui que nous utilisons tous, depuis notre petite enfance.
Pas de clics, de formulaires à remplir, de “taper 1 pour continuer”…
Nous pouvons questionner, converser, argumenter avec un LLM. Même en faisant des fautes de grammaires et d’orthographes : ils s’approchent au plus près de l’expérience humaine.
D’ailleurs, ils sont parfois “multi-modaux” et savent générer des sons, des images et du code informatique.
Mais c’est bien leur capacité linguistique qui est bluffante pour le plus grand nombre : ils “nous » parlent.
Les Hallucinations : c’est quoi ?
Les hallucinations sont des réponses fausses ou trompeuses, qui semblent plausibles. Et les LLMs les exposent comme des faits certains.
Quelques exemples évocateurs :
- Annoncer un chiffre d’affaires sans avoir de données à ce sujet ;
- Inventer des citations fictives ;
- Inventer de faits historiques n’ayant jamais eu lieu ;
- Confondre des personnalités et/ou des événements ;
- Créer de faux noms de lieux ou de personnes, etc.
Notons que le mot “hallucination” est bien choisi pour ce qu’il nous évoque immédiatement, mais faisant allusion à un processus humain il contribue un peu à la confusion.
Certains lui préfèrent les termes de confabulation ou de dérive sémantique.
Quelles sont les causes des hallucinations ?
Selon ChatGPT :
Les hallucinations se produisent souvent parce que les modèles de langage, malgré leur entraînement sur de vastes ensembles de données, ne comprennent pas le monde de la même manière que les humains et peuvent combiner des informations de manière incorrecte ou imaginative.
ChatGPT
Cette réponse est intéressante par sa qualité formelle, mais aussi parce que chatGPT nous dit qu’il peut “comprendre le monde”, même d’une manière incorrecte. Cela dit, nous nous permettons de le contredire en affirmant qu’il ne comprend rien, mais qu’il calcule, ce qui est fort différent. Il s’en remettra.
Les LLMs ne sont pas “responsables” : programmes à faire de la bonne syntaxe, il ne savent rien, ce ne sont pas des machines sémantiques. En outre, ils ne savent pas qu’ils ne savent pas. Ils ne font que calculer des fonctions d’optimisation (“ quelle est la séquence de mots la plus probable ?”). Ce qui, à vrai dire est très différents de “quelle est la séquence de mots la plus exacte”.
D’autres causes participent également à la production d’hallucinations, notamment :
- des bases d’entraînement insuffisantes, biaisées, voire volontairement trompeuses ;
- un prompting ambigu, insuffisamment précis.
Une forme de convergence autour des hallucinations
A ce jour, les hallucinations font l’objet de très nombreux travaux scientifiques et techniques.
Malheureusement ou heureusement, ceux-ci semblent converger vers l’idée qu’elles sont inhérentes à la technologie des LLMs et qu’il va falloir apprendre à vivre avec.
Quelques contenus dont l’opinion convergent justement :
- Hallucination is Inevitable: An Innate Limitation of Large Language Models, de Ziwei Xu, Sanjay Jain et Mohan Kankanhalli ;
- Why Large Language Models Hallucinate de IBM Technologies ;
- LLM lies : hallucinations are not bugs, but features as adversarial examples , de Jia-Yu Yao, Kun-Peng Ning, Zhen-Hui Liu, Mu-Nan Ning, Yu-Yang Liu et Li Yuan.
Les hallucinations en milieu professionnel
A juste titre, l’IA générative (c’est-à-dire à base de LLM) est de plus en plus utilisée en milieu professionnel.
En particulier, pour proposer un accès conversationnel simple aux bases de connaissances du métier (voir les architectures RAG – en français Génération Augmentée de Récupération).
Mais ces solutions ne sont pas parfaites, et leurs erreurs peuvent avoir des conséquences significatives. Prenons une étude dans un contexte juridique, par exemple :
- Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools de Varun Magesh, Faiz Surani, Matthew Dahl, Mirac Suzgun, Christopher D. Manning et Daniel E. Ho (Universités de Stanford et de Yale)
-
RAG juridique et hallucinations de Raphaël d’Assignies.
Cette dernière étude propose une typologie des erreurs des systèmes RAG juridiques, et un classement des erreurs rencontrées lors de tests comparatifs :
- Erreurs de récupération : les documents pertinents ne sont pas récupérés.
- Erreurs d’interprétation : le modèle interprète mal les documents récupérés et en tire des conclusions erronées.
- Erreurs de synthèse : le modèle combine incorrectement des informations de plusieurs documents, par exemple mélange des faits correspondant à des situations indépendantes.
- Erreurs de contextualisation : le modèle manque du contexte juridique nécessaire (subtilité juridique, par exemple).
Conséquences possibles des hallucinations
Pour cela, listons quelques implications possibles en milieu professionnel :
- Diffusion de fausses informations : propagation d’informations incorrectes, problématique dans les domaines où la précision est cruciale, comme le journalisme, la recherche scientifique ou la médecine.
- Risque juridique et responsabilité : les données erronées générées par un LLM pourraient conduire à des poursuites judiciaires si les informations fournies causaient des dommages ou des pertes financières. Par exemple, des conseils financiers basés sur des données incorrectes peuvent causer des pertes importantes.
- Perte de confiance : professionnels et clients peuvent perdre confiance en l’organisation ou en l’outil qui utilise des LLM s’ils découvrent qu’ils génèrent et partagent fréquemment des informations incorrectes.
- Désinformation involontaire : les hallucinations peuvent conduire à la désinformation, où des faits erronés sont présentés comme véridiques. Cela peut affecter des décisions stratégiques, planification, etc.
- Impacts éthiques et sociaux : la propagation de fausses informations dans des contextes sensibles comme la santé publique, la politique ou les sciences sociales, peut avoir des impacts éthiques graves.
Pour minimiser ces conséquences, il est crucial de mettre en place des mécanismes de vérification et de validation des informations générées par les LLM, et aussi de former les utilisateurs à identifier et corriger les erreurs potentielles.
Hallucinations : Comment s’en débarrasser ?
A vrai dire, les hallucinations sont comme les punaises de lit.
Difficile de s’en débarrasser, mais impossible de vivre avec !
Dans l’état actuel de la technologie des LLMs, il n’y a malheureusement pas de solution définitive. Selon les contextes et les implémentations, diverses approches peuvent être utilisée seules ou en combinaison. Parmi d’autres mécanismes, citons :
- Ajout d’une compétence sémantique, par exemple à travers la notion d’intentions dont le but est de comprendre la question posée et de la comparer au champ sémantique de l’application.
- L’analyse de cohérence contextuelle peut aider à détecter des incohérences dans le texte généré. Les hallucinations se manifeste souvent par des informations qui ne s’alignent pas avec le contexte général ou les connaissances antérieures du modèle.
- Le mélange d’experts (MoE) divise un modèle d’intelligence artificielle (IA) en sous-réseaux distincts (ou “experts”), chacun spécialisé dans un sous-ensemble des données d’entrée, pour effectuer conjointement une tâche.
- Dans une idée assez proche, l’usage de plusieurs LLM permet de comparer les sorties pour identifier des divergences. Si plusieurs modèles convergent sur une même réponse mais qu’un seul diverge de manière significative, il est possible que cette divergence soit due à une hallucination.
- Et bien sûr, l’utilisation d’un ensemble d’annotations humaines pour identifier des hallucinations dans les sorties du modèle. Ces annotations peuvent ensuite être utilisées pour entraîner des modèles spécialisés ou affiner les LLM pour réduire les erreurs de ce type.
Que retenir ?
En résumé, les Large Language Models (LLMs) révolutionnent l’IA conversationnelle en générant du texte fluide et pertinent. Mais ils ont leurs limites, notamment les “hallucinations”, production d’informations incorrectes présentées comme factuelles.
En tant que technologie basée sur des statistiques et non sur la compréhension, il est crucial de comprendre que les LLMs ne possèdent pas de véritable “savoir”.
Afin de minimiser les risques, il est indispensable d’implémenter des mécanismes de vérification robustes et de sensibiliser les utilisateurs aux possibles erreurs.
Et cette vigilance est particulièrement importante dans les secteurs où la précision et l’exactitude des informations sont primordiales, tels que le juridique, la finance, et la santé.
En conclusion, nous ne pouvons que recommander d’investir 30 minutes et de regarder cet extrait d’un colloque au Collège de France, où Xavier Leroy donne de nombreux exemples d’hallucinations et de biais, et partage son avis quelque peu irrité à ce sujet avec une position originale concernant les programmeurs.
_____________
Vous êtes un éditeur de logiciel ? Nous espérons que cet article vous aura apporté une meilleure compréhension de ce que sont les hallucinations.
Agora Software est l’éditeur de solutions d’IA conversationnelle dédiées aux éditeurs. Nous déployons, rapidement, des interfaces conversationnelles applicatives renforçant l’expérience utilisateur des applications et des plateformes. En intégrant Agora Software à votre application, vos utilisateurs bénéficient d’interactions riches, multilingues et omnicanales.
Vous souhaitez intégrer une IA conversationnelle à vos applications ?
Parlons-en : contact@agora.software
Si vous avez aimé cet article, vous pourriez lire 8 questions à se poser quand on intègre de l’IA à son application.
Et rejoignez-nous sur notre page Linkedin pour suivre notre actualité !
Vous voulez comprendre comment notre IA conversationnelle optimise la productivité et l’engagement de vos utilisateurs en complétant efficacement vos applications ?
Pages
- Commencez un projet IA pour votre CRM
- Menez un projet IA conversationnelle rapide dans votre ERP
- Mary Cazanove
- Yann Torrent
- Thierry Grenot
- #24413 (pas de titre)
- Démonstrateur
- Toutes les publications
- Livre Blanc – Expérience collaborateurs
- Optimisation énergétique des bâtiments
- Pour les éditeurs
- Pour les collectivités
- cgu
- Renforcez l’adoption de votre logiciel de planning grâce à l’IA
- Rendez votre ATS encore plus performant en intégrant de l’IA
- Intégrez votre application aux outils de collaboration de vos clients
- ESN / Fournisseurs de services numériques
- Simplifiez le parcours utilisateur dans votre SIRH
- Accompagner le maintien à domicile des personnes isolées
- Dynamiser le (e)tourisme de la collectivité
- Sensibiliser les usagers aux éco-gestes
- Piloter l’arrosage des espaces verts
- Contrôler la qualité de l’air des bâtiments
- Livre Blanc – Villes et Territoires Connectés
- Presse
- Livret Optimisation Énergétique
- Gestion des Cookies
- FAQ
- Equipes
- Blog
- Ressources
- Livre Blanc – Cas d’usage
- Livre Blanc – Corporate
- Données personnelles
- Mentions légales
- Webinars
- Evénements
- A propos
- Contact
- Agriculture – Irrigation prédictive
- Services aux collectivités – Distribution de l’eau
- Solution
- Accueil