Auteur|Golem(@web 3_golem)
Aujourd'hui, si les gens de la cryptosphère ne suivent pas l'IA, ils risquent de se faire moquer (oui, mon ami, réfléchis à pourquoi tu as cliqué ici).
Êtes-vous totalement ignorant des concepts de base de l'IA, demandant à chaque abréviation dans une phrase ce que cela signifie à Douban ? Ou bien êtes-vous perdu face aux termes techniques lors des événements en ligne sur l'IA, devant faire semblant de suivre ?
Bien qu'il ne soit pas réaliste de se lancer dans l'industrie de l'IA en peu de temps, il est toujours utile de connaître le vocabulaire de base fréquemment utilisé dans le secteur. Heureusement, l'article suivant est fait pour vous ↓ Je vous recommande sincèrement de le lire attentivement et de le conserver.
Vocabulaire de base (12)
LLM (Grand Modèle de Langage)
Le LLM est essentiellement un modèle d'apprentissage profond formé sur des données massives, excellent pour comprendre et générer du langage. Il peut traiter du texte et est de plus en plus capable de gérer d'autres types de contenu.
À l'opposé se trouve le SLM (Petit Modèle de Langage) – généralement mis en avant pour son coût réduit, son déploiement plus léger et sa facilité de localisation.
AI Agent (Agent Intelligent IA)
Un AI Agent ne se limite pas à un "modèle qui discute", mais désigne un système capable de comprendre un objectif, d'utiliser des outils, d'exécuter des tâches étape par étape, et si nécessaire, de planifier et de vérifier. Google définit un agent comme un logiciel capable de raisonner à partir d'entrées multimodales et d'exécuter des actions pour le compte de l'utilisateur.
Multimodal (Multimodal)
Le modèle IA ne se contente pas de lire du texte, mais peut simultanément traiter et générer différents types de contenu comme le texte, les images, l'audio, la vidéo, etc. Google définit explicitement le multimodal comme la capacité à traiter et générer différents types de contenu.
Prompt (Indice / Instruction)
L'instruction saisie par l'utilisateur pour le modèle, c'est la forme la plus basique d'interaction homme-machine.
Generative AI (IA Générative / AIGC)
Met l'accent sur la capacité de l'IA à "générer" plutôt qu'à simplement classer ou prédire. Les modèles génératifs peuvent générer du texte, du code, des images, des mèmes, des vidéos, etc., à partir d'un prompt.
Token (Jeton)
C'est l'un des concepts de l'IA qui ressemble le plus à une "unité de Gas". Le modèle ne comprend pas le contenu par "nombre de mots", mais traite les entrées et sorties par token. La facturation, la longueur du contexte, la vitesse de réponse sont généralement fortement liées aux tokens.
Context Window (Fenêtre de Contexte / Longueur de Contexte)
Désigne la quantité totale de tokens que le modèle peut "voir" et utiliser en une seule fois. On peut aussi dire que c'est le nombre de tokens que le modèle peut considérer ou "mémoriser" lors d'un traitement unique.
Memory (Mémoire)
Permet au modèle ou à l'Agent de conserver les préférences de l'utilisateur, le contexte de la tâche, l'état historique.
Training (Entraînement)
Processus par lequel le modèle apprend ses paramètres à partir des données.
Inference (Inférence / Exécution)
S'oppose à l'entraînement. Désigne le processus par lequel le modèle, une fois déployé, reçoit une entrée et génère une sortie. Dans l'industrie, on dit souvent "l'entraînement est cher, l'inférence coûte encore plus cher" car de nombreux coûts réels de commercialisation surviennent lors de l'inférence. La distinction entraînement/inférence est également un cadre de base dans les discussions sur les coûts de déploiement des principaux acteurs.
Tool Use / Tool Calling (Utilisation d'outils / Appel d'outils)
Signifie que le modèle ne se contente pas de produire du texte, mais peut aller appeler des outils comme la recherche, l'exécution de code, les bases de données, les API externes, etc. C'est désormais considéré comme une capacité clé des Agents.
API (Interface de Programmation)
Infrastructure de base lorsque les produits, applications ou Agents IA se connectent à des services tiers.
Vocabulaire avancé (18)
Transformer (Architecture Transformer)
Une architecture de modèle qui permet à l'IA de mieux comprendre les relations contextuelles, c'est aussi la base technologique de la plupart des grands modèles de langage actuels. Sa plus grande caractéristique est de pouvoir voir simultanément la relation entre chaque mot et tous les autres mots dans un segment de texte.
Attention (Mécanisme d'Attention)
C'est le mécanisme central le plus crucial du Transformer. Son rôle est de permettre au modèle, en lisant une phrase, de juger automatiquement "quels mots méritent le plus d'attention".
Agentic / Agentic Workflow (Agentique / Flux de travail agentique)
Expression très à la mode récemment. Désigne un système qui n'est plus seulement "question-réponse", mais qui décompose les tâches, décide de l'étape suivante, utilise des capacités externes avec une certaine autonomie. De nombreux fabricants le considèrent comme le signe du passage du "Chatbot" à un "système exécutable".
Subagents (Sous-agents)
Un Agent se décompose en plusieurs petits Agents spécialisés pour traiter des sous-tâches.
Skills (Modules de capacités réutilisables)
Avec le succès retentissant d'OpenClaw, ce terme est devenu明显 plus courant. Ce sont des unités de capacité / modes d'emploi installables, réutilisables et combinables pour les Agents IA, mais il faut aussi noter un risque important d'utilisation abusive des outils et d'exposition des données.
Hallucination (Hallucination machine)
Désigne le fait que le modèle dit des absurdités avec un air sérieux, "percevant des modèles qui n'existent pas" et générant ainsi des sorties erronées ou absurdes. C'est une sortie du modèle qui semble raisonnable mais qui est en réalité une confiance excessive erronée.
Latency (Latence)
Temps écoulé entre la réception d'une requête par le modèle et la production du résultat. C'est l'un des termes d'ingénierie les plus courants, qui apparaît fréquemment dès qu'on parle de déploiement et de productisation.
Guardrails (Garde-fous)
Utilisés pour limiter ce que le modèle/l'Agent peut faire, quand il doit s'arrêter, quel contenu il ne peut pas produire.
Vibe Coding (Programmation à l'ambiance)
Ce terme est aussi l'un des mots à la mode les plus populaires dans l'IA actuelle. Désigne le fait que l'utilisateur exprime directement ses besoins par la discussion, l'IA écrit le code, et l'utilisateur n'a pas besoin de savoir précisément coder.
Parameters (Paramètres)
Échelle numérique interne du modèle utilisée pour stocker les capacités et les connaissances. Souvent utilisée pour mesurer grossièrement la taille du modèle. "Des milliards de paramètres", "des centaines de milliards de paramètres" sont des expressions courantes dans le milieu de l'IA pour impressionner.
Reasoning Model (Modèle à raisonnement fort)
Désigne généralement un modèle plus performant pour le raisonnement en plusieurs étapes, la planification, la vérification, l'exécution de tâches complexes.
MCP (Modèle de Contexte de Protocole)
C'est un nouveau terme très à la mode cette dernière année. Son rôle est similaire à la création d'une interface universelle entre le modèle et les outils/sources de données externes.
Fine-tuning / Tuning (Affinage / Réglage fin)
Consiste à continuer l'entraînement sur un modèle de base pour le rendre plus adapté à une tâche, un style ou un domaine spécifique. Le glossaire de Google mentionne directement tuning et fine-tuning comme concepts liés.
Distillation (Distillation)
Compresse autant que possible les capacités d'un grand modèle dans un petit modèle, comme si le "professeur" enseignait à l'"élève".
RAG (Génération Augmentée par Récupération)
C'est presque devenu une configuration de base pour l'IA en entreprise. Microsoft le définit comme un mode "recherche + LLM", utilisant des données externes pour ancrer (grounding) les réponses, résolvant ainsi les problèmes de données d'entraînement obsolètes ou de méconnaissance des bases de connaissances privées. Le but est de baser les réponses sur de vrais documents et des connaissances privées, et non pas seulement sur la mémoire propre du modèle.
Grounding (Alignement sur les faits)
Souvent associé au RAG. Signifie que les réponses du modèle sont basées sur des documents, bases de données, pages web ou autres sources externes, et non pas seulement sur sa mémoire paramétrique qui "improvise". Microsoft dans sa documentation RAG présente explicitement le grounding comme une valeur centrale.
Embedding (Encodage vectoriel / Vecteur sémantique)
Consiste à encoder du texte, des images, de l'audio ou autre contenu en vecteurs numériques de haute dimension, afin de calculer la similarité sémantique.
Benchmark (Test de référence)
Méthode d'évaluation qui utilise un ensemble de standards unifiés pour tester les capacités d'un modèle. C'est aussi le langage des classements que les différents fabricants aiment utiliser pour "prouver qu'ils sont forts".
Lecture recommandée
11 questions clés sur Lobster : Explication des principes d'OpenClaw la plus simple à comprendre







