Original | Odaily Planet Daily(@OdailyChina)
Auteur|Golem(@web 3_golem)
Actuellement, si les personnes de la cryptosphère ne suivent pas l'IA, elles risquent facilement les moqueries (oui, mon ami, réfléchissez à pourquoi vous avez cliqué).
Êtes-vous totalement ignorant des concepts de base de l'IA, demandant à Douban la signification de chaque abréviation dans une phrase ? Êtes-vous également perdu face aux termes techniques lors des événements en ligne sur l'IA, tout en faisant semblant de suivre ?
Bien qu'il ne soit pas réaliste de se lancer dans l'industrie de l'IA en un court laps de temps, connaître le vocabulaire de base à haute fréquence de l'industrie de l'IA n'est jamais perdu. Heureusement, l'article suivant est fait pour vous ↓ Je vous recommande sincèrement de le lire attentivement et de le conserver.
Vocabulaire de base (12)
LLM(Grand Modèle de Langage)
Le cœur du LLM est un modèle d'apprentissage profond formé sur des données massives, excellent pour comprendre et générer du langage. Il peut traiter du texte, et de plus en plus d'autres types de contenu.
Son opposé est le SLM (Petit Modèle de Langage) – généralement mis en avant pour son coût inférieur, son déploiement plus léger et sa facilité de localisation.
AI Agent (Agent Intelligent IA)
AI Agent ne désigne pas seulement un "modèle qui discute", mais un système capable de comprendre un objectif, d'utiliser des outils, d'exécuter des tâches étape par étape, et de faire de la planification et de la validation si nécessaire. Google définit l'agent comme un logiciel capable de raisonner sur la base d'entrées multimodales et d'exécuter des actions pour le compte de l'utilisateur.
Multimodal (Multimodal)
Le modèle d'IA ne lit pas seulement du texte, mais peut simultanément traiter et générer différents types de contenu comme le texte, les images, l'audio, la vidéo, etc. Google définit explicitement le multimodal comme la capacité à traiter et à générer différents types de contenu.
Prompt (Mot d'invite)
L'instruction saisie par l'utilisateur pour le modèle, c'est la forme la plus basique d'interaction homme-machine.
Generative AI (IA Générative / AIGC)
Met l'accent sur la "génération" par l'IA plutôt que sur la simple classification ou prédiction. Les modèles génératifs peuvent générer du texte, du code, des images, des mèmes, des vidéos, etc., à partir d'un prompt.
Token (Jeton)
C'est l'un des concepts de l'IA qui ressemble le plus à une "unité de Gas". Le modèle ne comprend pas le contenu par "nombre de mots", mais traite les entrées et sorties par token. La facturation, la longueur du contexte, la vitesse de réponse sont généralement fortement liées au token.
Context Window (Fenêtre de Contexte / Longueur de Contexte)
Désigne la quantité totale de tokens que le modèle peut "voir" et utiliser en une seule fois. Peut aussi être appelé le nombre de tokens que le modèle peut considérer ou "mémoriser" lors d'un traitement unique.
Memory (Mémoire)
Permet au modèle ou à l'Agent de conserver les préférences de l'utilisateur, le contexte de la tâche, l'état historique.
Training (Entraînement)
Processus par lequel le modèle apprend ses paramètres à partir des données.
Inference (Inférence / Exécution)
S'oppose à l'entraînement. Désigne le processus par lequel le modèle, une fois déployé, reçoit une entrée et génère une sortie. Dans l'industrie, on dit souvent "l'entraînement est cher, l'inférence coûte encore plus cher" car de nombreux coûts réels de commercialisation surviennent lors de l'inférence. La distinction entraînement/inférence est également un cadre de base dans les discussions sur les coûts de déploiement des principaux fabricants.
Tool Use / Tool Calling (Utilisation d'outils / Appel d'outils)
Signifie que le modèle ne se contente pas de produire du texte, mais peut appeler des outils comme la recherche, l'exécution de code, les bases de données, les API externes, etc. Ceci est désormais considéré comme l'une des capacités clés d'un Agent.
API (Interface)
Infrastructure lorsque des produits, applications ou Agents IA se connectent à des services tiers.
Vocabulaire avancé (18)
Transformer (Architecture de transformateur)
Une architecture de modèle qui permet à l'IA de mieux comprendre les relations contextuelles, c'est aussi la base technologique de la plupart des grands modèles de langage actuels. Sa plus grande caractéristique est de pouvoir voir simultanément la relation entre chaque mot et tous les autres mots dans un segment de contenu.
Attention (Mécanisme d'attention)
C'est le mécanisme central le plus crucial du Transformer. Son rôle est de permettre au modèle, en lisant une phrase, de juger automatiquement "quels mots méritent le plus d'attention".
Agentic / Agentic Workflow (Agentique / Flux de travail agentique)
C'est une expression très à la mode récemment. Cela signifie qu'un système n'est plus seulement "une question-réponse", mais qu'il décompose les tâches, décide de l'étape suivante, utilise des capacités externes avec une certaine autonomie. De nombreux fabricants le considèrent comme le signe du passage du "Chatbot" à un "système exécutable".
Subagents (Sous-agents)
Un Agent se décompose en plusieurs petits Agents spécialisés pour traiter des sous-tâches.
Skills (Modules de capacité réutilisables)
Avec le succès retentissant d'OpenClaw, ce terme est devenu nettement plus courant récemment. Ce sont des unités de capacité / modes d'emploi installables, réutilisables et combinables pour les Agents IA, mais il faut aussi noter un risque accru d'utilisation abusive des outils et d'exposition des données.
Hallucination (Hallucination machine)
Désigne le fait que le modèle dit des absurdités avec un air sérieux, "percevant des modèles qui n'existent pas" et générant ainsi des sorties erronées ou absurdes. C'est une sortie du modèle qui semble raisonnable mais est en réalité une confiance excessive erronée.
Latency (Latence)
Le temps écoulé entre la réception d'une requête par le modèle et la production du résultat. C'est l'un des termes d'ingénierie les plus courants, qui apparaît fréquemment dès qu'on parle de déploiement et de productisation.
Guardrails (Garde-fous)
Utilisés pour limiter ce que le modèle/l'Agent peut faire, quand il doit s'arrêter, quel contenu il ne peut pas produire.
Vibe Coding (Programmation à l'ambiance)
Ce terme est également l'un des mots à la mode les plus populaires dans l'IA actuelle. Il signifie que l'utilisateur exprime directement ses besoins par la conversation, l'IA écrit le code, et l'utilisateur n'a pas besoin de savoir précisément comment coder.
Parameters (Paramètres)
L'échelle numérique interne du modèle utilisée pour stocker les capacités et les connaissances. Souvent utilisée pour mesurer grossièrement la taille du modèle. "Des milliards de paramètres", "des centaines de milliards de paramètres" sont des expressions les plus courantes dans le milieu de l'IA pour impressionner.
Reasoning Model (Modèle de raisonnement fort)
Il désigne généralement un modèle plus apte au raisonnement en plusieurs étapes, à la planification, à la validation, à l'exécution de tâches complexes.
MCP (Modèle Contexte Protocole)
C'est un nouveau terme à la mode très chaud cette dernière année. Son rôle est similaire à l'établissement d'une interface universelle entre le modèle et les outils/sources de données externes.
Fine-tuning / Tuning (Affinage / Réglage fin)
Consiste à continuer l'entraînement sur un modèle de base pour le rendre plus adapté à une tâche, un style ou un domaine spécifique. Le glossaire de Google liste directement tuning et fine-tuning comme concepts liés.
Distillation (Distillation)
Compresse autant que possible les capacités d'un grand modèle dans un petit modèle, comme si le "professeur" enseignait à l'"élève".
RAG (Génération Augmentée par Récupération)
Ceci est presque devenu une configuration de base pour l'IA en entreprise. Microsoft le définit comme un mode "recherche + LLM", utilisant des données externes pour ancrer (grounding) les réponses, résolvant ainsi les problèmes de données d'entraînement obsolètes du modèle ou de méconnaissance des bases de connaissances privées. Le but est de baser les réponses sur des documents réels et des connaissances privées, et non pas seulement sur la mémoire propre du modèle.
Grounding (Alignement sur les faits)
Souvent associé au RAG. Signifie que les réponses du modèle sont basées sur des documents, des bases de données, des pages web ou autres sources externes, et non pas seulement sur une "improvisation" basée sur la mémoire des paramètres. Microsoft dans sa documentation RAG mentionne explicitement le grounding comme valeur centrale.
Embedding (Encodage vectoriel / Vecteur sémantique)
Consiste à encoder du texte, des images, de l'audio ou autre contenu en vecteurs numériques de haute dimension, afin de calculer la similarité sémantique.
Benchmark (Test de référence)
Une méthode d'évaluation qui utilise un ensemble de standards unifiés pour tester les capacités d'un modèle. C'est aussi le langage de classement que les différents fabricants aiment utiliser pour "prouver qu'ils sont forts".







