21 juillet 2025 /Analyse / opinion

Pourquoi l’IA se trompe ? Biais, erreurs et limites des modèles LLM

IA et LLM : erreurs et biais
Pourquoi votre IA préférée fait des erreurs (et pourquoi c’est normal).

Qui n’a jamais remarqué une erreur ou un biais dans son intelligence artificielle favorite ?
Mais d’où viennent ces erreurs ? Est-ce vraiment grave ?

Les IA de langage que nous utilisons au quotidien – comme ChatGPT – nous surprennent parfois : un fait erroné, un mot hors contexte, un raisonnement bizarre, un faux calcul, ou encore une réponse orientée sur le plan idéologique.

Pour bien comprendre pourquoi, il faut s’intéresser à la façon dont ces IA sont conçues, et notamment aux LLM (Large Language Models, ou modèles de langage de grande taille), qui constituent le cœur de des applications.


Les causes principales d’erreur dans une IA basée sur un LLM

Premier entrainement du LLM

Lors du premier entrainement, le modèle de langage « apprend » le langage naturel en quantifiant, à très grande échelle, les relations entre les mots. Il apprend également à reconnaitre des motifs et de la structure dans le langage. C’est un peu comme apprendre un langue en immersion dans un autre pays, sans cours.

Ce premier entrainement, également appelé ‘Pre-Training’ se fait sur un ensemble de textes massif, parfois jusqu’à 10 mille milliards de mots (oui, 13 zéros) pour les plus gros modèles.

Après cette première phase, le modèle arrive à faire des phrases à peu près cohérentes, un peu par imitation. Mais elles ne répondent pas toujours à notre question de façon satisfaisante.

Le fine-tuning (ajustement ciblé)

Il doit maintenant être affiné et ajusté pour produire des réponses qui correspondent à ce que nous attendons :
🔹Adapter le contenu, la forme et le style des réponses à notre usage.
🔹Éviter des réponses ‘socialement inappropriées’.
🔹Parfois se spécialiser dans un domaine précis.

Le LLM et sa mémoire

Le LLM ne possède pas de mémoire spécifique où sont stockés les faits et événements. Les réponses sont construites dans le contexte des milliards de phrases ingérées. Il ne « sait » rien dans le sens humain du terme.

La capacité de raisonnement d’une IA

Le LLM de base n’arrive pas à tenir un raisonnement abstrait, logique, critique ou créatif comme un humain. Il imite nos raisonnements à partir de ce qu’il a « appris » en « regardant » les humains raisonner.

Le LLM et les maths

Un LLM de base ne comprend pas les chiffres. Sauf à utiliser une fonction spécifique (agent externe, plugin, etc.), il traite un nombre comme un mot. Il peut imiter un calcul simple, mais sans vraie compréhension mathématique.

Pas d’apprentissage autonome

Il ne dispose pas de capacité d’apprentissage et d’adaptation à des situations totalement nouvelles. Il ne développe pas  de représentations plus abstraites fondées sur nos expériences en interaction avec le monde réel.

Tout ceci est propice aux erreurs et aux biais.

 

Alors, est-ce grave que l’IA fasse des erreurs ?

Cela dépend.

(1) Oui, c’est gênant si l’on prend ses réponses pour argent comptant, sans esprit critique ni vérification.

(2) Oui, c’est grave si le fine-tuning oriente volontairement les réponses (Certains modèles chinois évitent les questions sur les événements de Tienanmen).

(3) Non, ce n’est pas grave : nous n’en sommes qu’au début du début.

ChatGPT est sorti pour le public il y a à peine 3 ans.

Si c’était Internet, on serait quelque part entre 1994 et 1998.

Si c’était des jeux vidéo, on serait en 1981 avec Donkey Kong et Pac-Man.

Si c’était une voiture électrique, on serait en 1881.

Les modèles de langage ne sont qu’une brique de départ. Chercheurs et entreprises travaillent désormais à aller au-delà de la simple génération de texte ou d’images : ajouter des capacités de raisonnement, planification, action, adaptation, et surtout construire des IA capables de manipuler des représentations abstraites du monde réel.

On se rapprocherait ainsi d’une architecture plus complexe, inspirée du fonctionnement du cerveau humain : des couches multiples, apprenant chacune des fonctions et des niveaux d’abstraction distincts.

 

21 juillet 2025.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *