
L’émergence des modèles de langage de grande taille, ou LLM (Large Language Models), marque une étape charnière dans l’histoire de l’informatique. Capables de rédiger des textes complexes, de coder des applications ou de synthétiser des idées avec une aisance presque humaine. Pourtant, ces systèmes ne sont pas dotés d’une conscience et reposent uniquement sur des architectures mathématiques complexes.
Architecture d’un LLM
Un LLM (Large Language Model) est un modèle d’intelligence artificielle qui a la particularité de posséder un grand nombre de paramètres (généralement plus d’un milliard). L’architecture de cette IA repose sur plusieurs couches de réseaux de neurones capables aussi bien de comprendre une demande verbale et non structurée que de fournir un résultat comme le ferait un humain.
Le tokenizer
Avant qu’un modèle puisse assimiler les données, le texte doit être converti en nombres. C’est le rôle du tokenizer, à savoir découper la phrase d’entrée en petites unités appelées tokens. Un token peut aussi bien être un mot entier (« chat »), une partie du mot (syllabe, préfixe, suffixe) ou même un simple caractère. Pour un LLM, une phrase n’est pas une suite de lettres, mais une suite de vecteurs numériques.
Le transformer et le mécanisme d’attention
Le cœur du LLM réside dans l’architecture d’apprentissage profond Transformer, introduite en 2017, l’innovation porte sur l’ajout d’un mécanisme d’attention. Imaginez une phrase complexe : votre cerveau accorde inconsciemment plus d’attention à certains mots clés et comprend leurs relations. Le mécanisme d’attention fait de même. Pour prédire le mot suivant dans une phrase, le modèle calcule un « score d’attention » pour chaque token déterminant ainsi leur importance dans le contexte de la phrase. C’est ce qui permet au modèle de savoir que le pronom « elle » dans un paragraphe se rapporte à « Marie » mentionnée trois phrases plus tôt, et non à un objet féminin aléatoire.
L’encodage de vecteurs multidimensionnels
Avant ce calcul, chaque token est converti en un vecteur ou plongement (embedding). Ces vecteurs sont des représentations mathématiques multidimensionnelles (des centaines, voire des milliers de dimensions) qui capturent non seulement l’identité du mot, mais aussi une part de son sens en fonction de son contexte d’apprentissage. Des mots sémantiquement proches, comme « chien » et « chiot », auront des vecteurs géométriquement proches puisque ces mots sont utilisés dans un contexte similaire.
La prédiction finale
A ce stade, le LLM n’a plus qu’un objectif : prédire le token suivant, calculée en fonction d’une distribution de probabilités. Mais la statistique pure a ses limites : choisir systématiquement l’option la plus sûre produirait un texte plat et répétitif. Pour insuffler un peu de créativité aux réponses, le modèle introduit une dose d’aléatoire. Le paramètre s’appelle « température » et consiste à piocher dans des choix moins évidents. Le mécanisme est censé donner un peu de peps aux textes et imiter le langage humain.
L’entraînement des LLM
Le pré-entraînement (Pre-training)
Le premier entrainement du LLM est l’étape la plus longue. Afin d’initialiser les poids et les relations entre les transformeurs, le modèle ingère de grandes quantités de textes. Ces corpus proviennent le plus souvent d’internet et couvrent de nombreuses sujets Wikipédia, livres numérisés, articles de presse, code source, forums de discussion). Pendant cette phase, le modèle apprend la structure du langage, la grammaire, et emmagasine une quantité massive de connaissances factuelles.
Le fine-tuning supervisé (SFT)
Le modèle pré-entraîné est capable de compléter des phrases, mais il ne sait pas suivre des instructions. Si vous lui demandez « Comment faire une poule au pot ? », il pourrait simplement continuer la phrase par « la poule au pot est une spécialité de la cuisine française … » au lieu de donner la recette. Durant le fine-tuning, des humains fournissent au modèle des exemples de questions-réponses (dialogues, résumés, traductions). Le modèle apprend alors un nouveau comportement : celui d’un assistant serviable.
Le RLHF (Reinforcement Learning from Human Feedback)
C’est la touche finale qui permet d’aligner le modèle avec les valeurs humaines. Des humains testent le modèle, comparent plusieurs de ses réponses et votent pour la meilleure (la plus pertinente, la moins toxique). Ces données servent à entraîner un « modèle de récompense » qui va ensuite guider le LLM. C’est un système de punition/récompense similaire au dressage : le modèle ajuste ses paramètres pour maximiser la satisfaction humaine. Sans RLHF, les modèles seraient souvent impolis, dangereux ou incohérents.
Est-ce que le modèle LLM comprend le langage humain ?
Le sens émerge du contexte
Pour un LLM, le sens n’est pas intrinsèque, il est définit par le contexte de la phrase. Le mot « avocat » n’a aucune signification isolée pour le modèle. Cependant, s’il est entouré des mots « juge », « loi » et « tribunal », son vecteur s’orientera vers le domaine juridique. S’il est entouré de « guacamole » et « noyau », il s’orientera vers le domaine culinaire. Cette plasticité permet au modèle de gérer les nuances avec une finesse surprenante.
La compression sémantique
Pour prédire efficacement le mot suivant dans n’importe quel contexte (chimie, histoire, codage), le modèle est obligé de développer une représentation interne « compressée » du fonctionnement du monde. Pour prédire la fin d’une phrase expliquant la gravité, il doit avoir « internalisé » une forme de logique physique.
Pourtant, il est crucial de rappeler que le modèle calcule un score de probabilité. Il n’a pas d’intention, de conscience ou de croyances. Il navigue dans un océan de statistiques pour trouver la suite de mots la plus plausible.
À quoi servent les LLM
Principaux fournisseurs de LLM
| Nom du modèle | Fournisseur | Licence / Accès | Spécialité principale |
|---|---|---|---|
| GPT | OpenAI | Propriétaire | Polyvalence, raisonnement avancé et agents. |
| Claude | Anthropic | Propriétaire | Écriture naturelle, code et sécurité. |
| Gemini | Propriétaire | Multimodalité native et fenêtres de contexte géantes. | |
| Llama | Meta | Open Source (Poids ouverts) | Standard de l’industrie pour l’auto-hébergement. |
| Mistral | Mistral AI | Ouvert / Mixte | Efficience (MoE) et souveraineté européenne. |
| DeepSeek | DeepSeek | Open Source (Poids ouverts) | Rapport performance/prix et raisonnement mathématique. |
Domaine d’application
Rédaction et synthèse : rédiger des emails, résumer des rapports, reformuler des textes complexes.
Assistance au codage : pour les développeurs, les LLM agissent comme des binômes capables d’écrire des fonctions entières ou de trouver des bugs.
Analyse de données : les LLM sont capables de structurer des données non structurées (extraire des informations clés d’un flux de factures PDF, par exemple).
Assistants virtuels (Chatbots) : soutenir une conversation fluide pour le service client ou l’éducation.
Les limites des LLM
Les hallucinations
Les hallucinations représentent un défi technique pour les concepteurs de LLM. Ce phénomène s’explique par la nature même de l’architecture de ces modèles : ils sont conçus pour prédire le jeton (token) suivant une probabilité dans un contexte donné, et non suivant des faits avérés. En d’autres termes, le modèle privilégie la fluidité syntaxique et crée de ce fait une « vérité statistique » qui peut être totalement déconnectée de la réalité.
Biais et stéréotypes culturels
Puisqu’ils sont nourris de vastes corpus issus du web, ils héritent inévitablement des préjugés, des stéréotypes et des déséquilibres culturels présents dans ces textes. On observe ainsi une forte prédominance des valeurs occidentales, de l’anglais et de visions du monde spécifiques, au détriment des minorités ou des cultures moins représentées numériquement. Ces biais peuvent se manifester par des réponses sexistes, racistes ou par une incapacité à sortir d’un prisme euro-centré. Malgré les couches de sécurité et de « fine-tuning » éthique ajoutées par les développeurs, le substrat initial du modèle reste imprégné des travers humains capturés lors de la phase d’apprentissage.
L’analyse critique de Yann LeCun
Le débat sur la nature profonde de l’intelligence des LLM oppose souvent les partisans d’une « intelligence émergente » aux sceptiques comme Yann LeCun. Pour ce dernier, les modèles actuels sont dépourvus de véritable raisonnement. La critique de LeCun repose sur l’absence de « modèle du monde » : contrairement à un humain ou même à un animal, le LLM ne comprend pas les lois physiques élémentaires, la causalité ou le bon sens. Il manipule des symboles sans en saisir la réalité matérielle. Pour LeCun, tant que l’IA ne pourra pas planifier des actions ou apprendre par observation directe du monde physique, elle restera confinée à un rôle de prédicteur probabiliste.


