Autor|Golem(@web 3_golem)
Hoy en día, si alguien del mundo de las criptomonedas no sigue la IA, es fácil que se enfrente a burlas (sí, amigo mío, piensa por qué hiciste clic aquí).
¿No tienes ni idea de los conceptos básicos de la IA y preguntas a Douban el significado de cada abreviatura en cada frase? ¿O te sientes perdido con los términos técnicos en los eventos presenciales de IA, fingiendo que no te has desconectado?
Aunque no es realista adentrarse en la industria de la IA en poco tiempo, conocer el vocabulario básico de alta frecuencia de la industria de la IA siempre es útil. Por suerte, el siguiente artículo está preparado para ti↓ Te recomiendo sinceramente que lo leas y lo guardes.
Vocabulario Básico (12)
LLM (Modelo de Lenguaje Grande)
El núcleo de LLM es un modelo de aprendizaje profundo entrenado con grandes cantidades de datos, que es experto en comprender y generar lenguaje. Puede procesar texto y ahora cada vez más otros tipos de contenido.
Lo opuesto es SLM (Modelo de Lenguaje Pequeño), que generalmente enfatiza modelos de lenguaje más económicos, más ligeros de implementar y más convenientes para uso local.
AI Agent (Agente de IA)
AI Agent no se refiere solo a "modelos que pueden chatear", sino a sistemas que pueden comprender objetivos, utilizar herramientas, ejecutar tareas paso a paso y, si es necesario, hacer planificación y verificación. Google define agent como software que puede razonar basándose en entradas multimodales y ejecutar acciones en nombre del usuario.
Multimodal (Multimodal)
Su modelo de IA no solo lee texto, sino que puede procesar simultáneamente múltiples formas de entrada y salida, como texto, imágenes, audio, video, etc. Google define explícitamente multimodal como la capacidad de procesar y generar diferentes tipos de contenido.
Prompt (Palabra de indicación)
La instrucción que el usuario da al modelo, es la forma más básica de interacción hombre-máquina.
Generative AI (IA Generativa / AIGC)
Enfatiza la "generación" de la IA en lugar de simplemente clasificar o predecir. Los modelos generativos pueden generar texto, código, imágenes, memes, videos, etc., basándose en prompts.
Token (Ficha)
Este es uno de los conceptos más similares a "unidad Gas" en el mundo de la IA. El modelo no entiende el contenido por "número de palabras", sino que procesa la entrada y salida por tokens. La facturación, la longitud del contexto, la velocidad de respuesta suelen estar fuertemente relacionadas con los tokens.
Context Window (Ventana de contexto / Longitud de contexto)
Se refiere a la cantidad total de tokens que el modelo puede "ver" y utilizar de una vez, también puede llamarse la cantidad de tokens que el modelo puede considerar o "recordar" en un solo procesamiento.
Memory (Memoria)
Permite que el modelo o Agent retenga las preferencias del usuario, el contexto de la tarea, el estado histórico.
Training (Entrenamiento)
El proceso por el cual el modelo aprende parámetros a partir de datos.
Inference (Inferencia / Ejecución)
En contraste con el entrenamiento, se refiere al proceso en el que el modelo, una vez implementado, recibe entradas y genera salidas. En la industria, a menudo se dice que "el entrenamiento es caro, la inferencia es más costosa", porque muchos costos en la fase de comercialización real ocurren en la inferencia. La distinción entre entrenamiento/inferencia relacionada también es un marco básico en las discusiones de los principales fabricantes sobre los costos de implementación.
Tool Use / Tool Calling (Uso de herramientas / Llamada a herramientas)
Significa que el modelo no solo genera texto, sino que puede llamar a herramientas como búsqueda, ejecución de código, bases de datos, API externas, etc. Esto ya se considera una capacidad clave de los Agent.
API (Interfaz)
Infraestructura cuando productos, aplicaciones y Agent de IA se conectan a servicios de terceros.
Vocabulario Avanzado (18)
Transformer (Arquitectura transformadora)
Una arquitectura de modelo que hace que la IA sea mejor para comprender las relaciones contextuales, también es la base técnica de la mayoría de los modelos de lenguaje grande actuales. Su mayor característica es poder ver simultáneamente la relación de cada palabra en un segmento de contenido con todas las demás.
Attention (Mecanismo de atención)
Es el mecanismo central más crucial de Transformer, su función es permitir que el modelo, al leer una frase, juzgue automáticamente "qué palabras merecen más atención".
Agentic / Agentic Workflow (De agente / Flujo de trabajo de agente)
Esta es una expresión muy de moda recientemente, significa que un sistema ya no es solo "pregunta y respuesta", sino que descompone tareas, decide el siguiente paso, utiliza capacidades externas con cierta autonomía. Muchos fabricantes lo consideran una marca de "pasar de Chatbot a sistemas ejecutables".
Subagents (Subagentes)
Un Agent se divide en múltiples Agent pequeños especializados para manejar subtareas.
Skills (Módulos de capacidad reutilizables)
Con el boom de OpenClaw, esta palabra se ha vuelto notablemente más común. Son unidades de capacidad / manuales de operación instalables, reutilizables y combinables para AI Agent, pero también se advierte especialmente sobre el riesgo de abuso de herramientas y exposición de datos.
Hallucination (Alucinación de la máquina)
Significa que el modelo habla con seriedad pero dice tonterías, "percibe patrones que no existen" y produce salidas erróneas o absurdas. Es una salida excesivamente confiada del modelo que parece razonable pero es incorrecta.
Latency (Latencia)
El tiempo que tarda el modelo desde que recibe una solicitud hasta que produce un resultado. Es una de las jergas de ingeniería más comunes, aparece frecuentemente cuando se habla de implementación y productización.
Guardrails (Barreras de protección)
Se utilizan para limitar lo que el modelo/Agent puede hacer, cuándo debe detenerse, qué contenido no puede generar.
Vibe Coding (Programación por ambiente)
Esta palabra también es una de las jergas de IA más populares actualmente. Significa que el usuario expresa requisitos directamente mediante conversación, la IA escribe el código y el usuario no necesita saber específicamente cómo escribir código.
Parameters (Parámetros)
La escala numérica interna del modelo utilizada para almacenar capacidad y conocimiento. A menudo se usa como una medida bruta del tamaño del modelo. "Cien mil millones de parámetros", "billones de parámetros" son algunas de las expresiones más comunes para impresionar en el mundo de la IA.
Reasoning Model (Modelo de razonamiento fuerte)
Generalmente se refiere a modelos que son mejores en razonamiento de múltiples pasos, planificación, verificación, ejecución de tareas complejas.
MCP (Protocolo de contexto del modelo)
Esta es una jerga nueva muy popular en el último año, funciona como establecer una interfaz universal entre el modelo y las herramientas/fuentes de datos externas.
Fine-tuning / Tuning (Ajuste fino / Ajuste)
Es continuar entrenando el modelo base para adaptarlo mejor a tareas, estilos o dominios específicos. El glosario de términos de Google trata tuning y fine-tuning como conceptos relacionados.
Distillation (Destilación)
Comprimir la capacidad del modelo grande tanto como sea posible para dársela al modelo pequeño, como si el "maestro" enseñara al "estudiante".
RAG (Generación aumentada por recuperación)
Esto se ha convertido casi en una configuración básica de la IA empresarial. Microsoft lo define como un modo de "búsqueda + LLM", utilizando datos externos para fundamentar (grounding) las respuestas, resolviendo el problema de que los datos de entrenamiento del modelo estén desactualizados o no conozcan bases de conocimiento privadas. El objetivo es basar las respuestas en documentos reales y conocimiento privado, en lugar de depender solo de la memoria del modelo.
Grounding (Alineación con hechos)
A menudo aparece junto con RAG, significa hacer que la respuesta del modelo se base en evidencia externa como documentos, bases de datos, páginas web, etc., en lugar de depender solo de la memoria de parámetros y "improvisar libremente". Microsoft en la documentación de RAG define explícitamente grounding como un valor central.
Embedding (Incrustación vectorial / Vector semántico)
Es codificar texto, imágenes, audio y otro contenido en vectores numéricos de alta dimensión para calcular similitudes semánticas.
Benchmark (Prueba de referencia)
Una forma de evaluación que utiliza un conjunto de estándares unificados para probar la capacidad del modelo, también es el lenguaje de ranking que los fabricantes de modelos prefieren usar para "demostrar que son fuertes".
Lectura Recomendada
11 Preguntas Clave de Langosta: La explicación más fácil de entender de los principios de OpenClaw







