LLM, c’est quoi ? Et un GPT ?
Introduction
On entend de plus en plus parler de LLM et de GPT. Derrière ces sigles se cachent des outils capables d’écrire, de résumer, de traduire et d’expliquer en quelques secondes. L’objectif de cet article est d’expliquer ce que sont ces modèles, comment ils apprennent, et ce qu’ils savent (ou ne savent pas) faire, avec des exemples concrets.
⚠️ Disclaimer
Je ne suis pas expert du domaine. Malgré mes efforts de clarté, certaines formulations peuvent ne pas être parfaitement exactes. Si vous repérez une erreur ou une imprécision, merci de me la signaler : je mettrai l’article à jour. Cette approche s’applique à tous mes futurs articles : j’y expose ce que j’ai compris et mon opinion personnelle.
L’idée en une phrase
Un LLM (Large Language Model, en français grand modèle de langage) est un programme qui apprend à deviner le prochain mot d’une phrase en s’appuyant sur d’immenses quantités de textes. En répétant cet exercice des milliards de fois, il devient capable d’écrire, répondre à des questions, résumer et traduire avec un style naturel.
Exemple : Vous tapez « Je cherche un menu simple pour 6 personnes sans poisson ». Le LLM propose une entrée, un plat, un dessert et même une liste de courses.
Comment ça s’entraîne
On peut résumer l’apprentissage en deux grandes étapes.
1) Pré-entraînement (auto-supervisé)
Le modèle « lit » des livres, des articles, des pages web, etc. Son exercice : prédire le mot manquant. - Phrase d’entraînement : « Le chat boit du ___ » → il apprend que « lait » est souvent juste. En répétant à très grande échelle, il repère des motifs de langage : grammaire, faits courants, styles, enchaînements logiques…
2) Affinage (supervisé, avec retours humains)
On lui montre ensuite des exemples de bonnes réponses à des consignes (« Explique comme à un enfant de 10 ans », « Réponds en 3 points », etc.). Des retours humains aident à privilégier des réponses utiles et sûres. Résultat : il suit mieux les instructions et adopte des tons adaptés (pédagogique, pro, concis…).
Exemple : imaginez un élève qui lit toute une bibliothèque (pré-entraînement), puis suit des cours particuliers pour apprendre à bien répondre aux questions (affinage).
Ce qu’un LLM sait… et ce qu’il ne sait pas
- ✅ Écrire et reformuler : mails, posts, résumés, scripts, recettes, messages délicats…
- ✅ Synthétiser : transformer 10 pages en un résumé clair de 10 lignes.
- ✅ S’adapter au style : ton amical, professionnel, humoristique, etc.
- ⚠️ Pas de “compréhension humaine” : il n’a ni souvenirs personnels ni intentions.
- ⚠️ Peut se tromper (halluciner) : formuler avec assurance quelque chose de faux.
- ⚠️ Pas toujours à jour : selon le modèle et sa date de mise à jour, il peut ignorer des faits récents.
Bon réflexe : vérifier les informations sensibles (juridique, médical, chiffres, sécurité).
Et un GPT, c’est quoi exactement ?
GPT signifie Generative Pretrained Transformer. - Generative : il génère du texte. - Pretrained : il a été pré-entraîné sur de vastes corpus avant d’être affiné. - Transformer : c’est le type d’architecture (réseau de neurones) qui utilise un mécanisme d’attention pour comprendre les relations entre les mots.
Dans le langage courant, « un GPT » peut désigner : 1) Un modèle GPT (la technologie d’OpenAI, celle derrière ChatGPT). 2) Un assistant personnalisé construit sur GPT (par ex. un GPT « coach de CV » configuré pour un usage précis).
Il existe d’autres familles de LLM (Llama, Claude, Gemini, etc.). GPT est l’une des plus connues.
5 exemples parlants du quotidien
- Rédiger un mail délicat Vous : « Annonce le report du lancement, ton empathique mais ferme. 8 lignes max. » Le LLM : propose un mail prêt à envoyer (objet + plan d’action).
- Préparer un rendez-vous médical Vous : « Liste mes questions à poser au cardiologue et reformule-les simplement. » Le LLM : génère une checklist claire, avec “à ne pas oublier”.
- Aider aux devoirs Vous : « Explique la photosynthèse à un enfant de 9 ans avec une analogie de cuisine. » Le LLM : explication courte + mini-quiz pour vérifier la compréhension.
- Synthétiser un contrat Vous : « Résume ce contrat en 10 points, souligne obligations et pénalités. » Le LLM : résumé structuré + “points d’attention”.
- Brainstorm rapide Vous : « Idées de noms pour une appli anti-gaspillage, ton positif, jeu de mots bienvenu. » Le LLM : 20 propositions variées, classées par style.
Petit glossaire de la genIA (avant la conclusion)
-
Agent : outil utilisant un LLM qui poursuit un objectif, planifie des étapes et peut appeler des outils (recherche web, code, e-mail…) pour avancer sans être piloté mot à mot. Ex. : un agent “community manager” qui repère des mentions, rédige une réponse et programme la publication.
-
IA “agentique” (Agentic AI) : approche où l’IA se comporte comme un agent autonome : elle décompose la tâche, choisit des actions, se corrige, réessaie.
-
Assistant : interface conversationnelle centrée sur l’utilisateur. L’assistant attend vos consignes et répond ; il est moins autonome qu’un agent et privilégie le contrôle humain.
-
AGI (Artificial General Intelligence) / IA générale : IA hypothétique capable de comprendre, apprendre et accomplir la plupart des tâches cognitives humaines, de façon transférable entre domaines, avec raisonnement, planification et autonomie. Non atteinte à ce jour ;les définitions et critères font débat. À ne pas confondre avec les LLM actuels (plutôt spécialisés, avec des limites de fiabilité, de perception et d’action). Terme connexe — ASI (Artificial Superintelligence) : IA dépassant largement les capacités humaines dans presque tous les domaines cognitifs ; notion spéculative.
-
Modèle : la fonction apprise (réseau de neurones + paramètres). Un “chatbot” ou une appli n’est pas un modèle : c’est un produit qui utilise un modèle.
-
VLM (Vision-Language Model) : modèle multimodal qui comprend images + texte (et parfois vidéo/audio) pour décrire, répondre à des questions sur une image ou raisonner visuellement.
-
MCP (Model Context Protocol) : protocole qui standardise la connexion d’un modèle à des outils et sources de données via des “serveurs MCP”.Objectif : brancher un modèle sur des capacités externes (docs, bases, APIs) de façon uniforme. Ex. : un serveur MCP donnant accès à GitHub, à une base de données ou à un calendrier.
-
RAG (Retrieval-Augmented Generation) : technique qui retrouve des passages pertinents dans vos documents (wiki, PDF, Notion…) et les injecte dans le contexte avant la génération → réponses ancrées dans vos données.
-
Fenêtre de contexte / token : le modèle lit une quantité limitée de texte (la fenêtre). Cette quantité est comptée en tokens (morceaux de mots). Au-delà, il faut résumer ou segmenter.
-
Fine-tuning / Instruct-tuning / RLHF : étapes de spécialisation d’un modèle (données annotées, préférences humaines) pour mieux suivre des consignes et respecter des garde-fous.
-
Hugging Face : plateforme et communauté open-source où l’on partage des modèles, jeux de données et démos (Spaces). Fournit des bibliothèques (ex. Transformers) pour utiliser des modèles locaux ou open-source.
En bref
LLM : modèle qui prédit le prochain mot → écrit, résume, traduit, répond. Apprentissage : d’abord il lit énormément (pré-entraînement), puis on le spécialise (affinage). GPT : famille de LLM (OpenAI) basée sur l’architecture Transformer. Forces : vitesse, clarté, adaptation au ton. Limites : erreurs possibles, pas de “compréhension” humaine, pas forcément à jour.