Original | Odaily Planet Daily(@OdailyChina)
Autor | Golem(@web 3_golem)
Hoy, si alguien del mundo de las criptomonedas no sigue la IA, es objeto de burla (sí, amigo mío, piensa por qué hiciste clic aquí).
¿No entiendes nada de los conceptos básicos de IA y preguntas a Doubao el significado de cada abreviatura en cada frase? ¿Te sientes perdido con los términos técnicos en los eventos presenciales de IA, fingiendo no haberte desconectado?
Aunque no es realista adentrarse en la industria de la IA en poco tiempo, conocer el vocabulario básico de alta frecuencia de la industria de IA siempre es útil. Por suerte, el siguiente artículo está preparado para ti↓ Te recomiendo sinceramente que lo leas atentamente y lo guardes.
Vocabulario Básico (12)
LLM (Modelo de Lenguaje Grande)
El núcleo de LLM es un modelo de aprendizaje profundo entrenado con grandes cantidades de datos, experto en comprender y generar lenguaje. Puede procesar texto y ahora cada vez más otros tipos de contenido.
Lo opuesto es SLM (Modelo de Lenguaje Pequeño), que generalmente enfatiza modelos de lenguaje más económicos, más ligeros para implementar y más convenientes para uso local.
AI Agent (Agente de IA)
AI Agent no se refiere solo a "modelos que conversan", sino a sistemas que pueden comprender objetivos, utilizar herramientas, ejecutar tareas paso a paso y, si es necesario, hacer planificación y verificación. Google define agent como software que puede razonar basándose en entradas multimodales y ejecutar acciones en nombre del usuario.
Multimodal (Multimodal)
Su modelo de IA no solo lee texto, sino que puede procesar simultáneamente múltiples formas de entrada y salida como texto, imágenes, audio, video, etc. Google define explícitamente multimodal como la capacidad de procesar y generar diferentes tipos de contenido.
Prompt (Indicación)
La instrucción que el usuario da al modelo, es la forma más básica de interacción hombre-máquina.
Generative AI (IA Generativa / AIGC)
Enfatiza la "generación" de la IA en lugar de simplemente clasificar o predecir. Los modelos generativos pueden generar texto, código, imágenes, memes, videos y otros contenidos según el prompt.
Token (Ficha)
Este es uno de los conceptos más similares a una "unidad de Gas" en el mundo de la IA. El modelo no entiende el contenido por "número de palabras", sino que procesa la entrada y salida por tokens. La facturación, la longitud del contexto, la velocidad de respuesta suelen estar fuertemente relacionadas con los tokens.
Context Window (Ventana de Contexto / Longitud de Contexto)
Se refiere a la cantidad total de tokens que el modelo puede "ver" y utilizar de una vez. También puede llamarse la cantidad de tokens que el modelo puede considerar o "recordar" en un solo procesamiento.
Memory (Memoria)
Permite que el modelo o Agente retenga las preferencias del usuario, el contexto de la tarea, el estado histórico.
Training (Entrenamiento)
El proceso por el cual el modelo aprende parámetros a partir de los datos.
Inference (Inferencia / Ejecución)
Opuesto al entrenamiento, se refiere al proceso por el cual el modelo, una vez implementado, recibe entradas y genera salidas. En la industria se suele decir "el entrenamiento es caro, la inferencia es más costosa", porque muchos costos en la fase de comercialización real ocurren durante la inference. La distinción entre entrenamiento/inferencia es también el marco básico en las discusiones de costos de implementación de los principales fabricantes.
Tool Use / Tool Calling (Uso de Herramientas / Llamada a Herramientas)
Significa que el modelo no solo genera texto, sino que puede llamar a herramientas como búsqueda, ejecución de código, bases de datos, APIs externas, etc. Esto ya se considera una capacidad clave de los Agent.
API (Interfaz)
Infraestructura cuando productos, aplicaciones o Agentes de IA se conectan a servicios de terceros.
Vocabulario Avanzado (18)
Transformer (Arquitectura Transformer)
Una arquitectura de modelo que hace que la IA sea mejor para entender las relaciones contextuales. Es la base tecnológica de la mayoría de los modelos de lenguaje grande actuales. Su mayor característica es poder ver simultáneamente la relación de cada palabra con las demás en un fragmento de texto completo.
Attention (Mecanismo de Atención)
Es el mecanismo central más crucial del Transformer. Su función es permitir que el modelo, al leer una frase, juzgue automáticamente "qué palabras merecen más atención".
Agentic / Agentic Workflow (Flujo de Trabajo de Tipo Agente / Agentizado)
Esta es una expresión muy de moda recientemente. Significa que un sistema ya no es solo "pregunta y respuesta", sino que descompone tareas, decide el siguiente paso, utiliza capacidades externas con cierto grado de autonomía. Muchos fabricantes lo ven como una marca del "paso de Chatbot a sistemas ejecutables".
Subagents (Subagentes)
Un Agente se divide en múltiples agentes pequeños especializados para manejar subtareas.
Skills (Módulos de Capacidad Reutilizables)
Con el boom de OpenClaw, esta palabra se ha vuelto notablemente más común. Son unidades de capacidad / manuales de operación instalables, reutilizables y combinables para Agentes de IA, pero también se advierte sobre riesgos de uso indebido de herramientas y exposición de datos.
Hallucination (Alucinación de la Máquina)
Significa que el modelo habla con seriedad pero dice disparates, "percibe patrones que no existen" generando así salidas erróneas o absurdas. Es una salida del modelo que parece razonable pero en realidad es errónea por exceso de confianza.
Latency (Latencia)
El tiempo que tarda el modelo desde que recibe una solicitud hasta que produce un resultado. Es una de las jergas de ingeniería más comunes, aparece frecuentemente al hablar de implementación y puesta en producto.
Guardrails (Barreras de Protección)
Se utilizan para limitar lo que el modelo/Agente puede hacer, cuándo debe detenerse, qué contenido no puede generar.
Vibe Coding (Programación por Ambiente / Vibra)
Esta palabra es también una de las jergas de IA más populares actualmente. Significa que el usuario expresa requisitos directamente mediante conversación, la IA escribe el código, y el usuario no necesita saber específicamente cómo codificar.
Parameters (Parámetros)
La escala numérica interna del modelo utilizada para almacenar capacidad y conocimiento. A menudo se usa como una medida bruta del tamaño del modelo. "Cien mil millones de parámetros", "billones de parámetros" son algunas de las expresiones más comunes para impresionar en el mundo de la IA.
Reasoning Model (Modelo de Razonamiento Fuerte)
Normalmente se refiere a modelos que son mejores en razonamiento de múltiples pasos, planificación, verificación, ejecución de tareas complejas.
MCP (Protocolo de Contexto del Modelo)
Esta es una jerga nueva muy popular en el último año. Su función es similar a establecer una interfaz universal entre el modelo y las herramientas/fuentes de datos externas.
Fine-tuning / Tuning (Ajuste Fino / Puesta a Punto)
Es continuar entrenando un modelo base para adaptarlo mejor a tareas, estilos o dominios específicos. El glosario de términos de Google trata tuning y fine-tuning como conceptos relacionados.
Distillation (Destilación)
Comprimir la capacidad del modelo grande en un modelo pequeño, como si un "maestro" le enseñara a un "estudiante".
RAG (Generación Aumentada por Retrieval / Recuperación)
Esto se ha convertido casi en una configuración básica de la IA empresarial. Microsoft lo define como un modo de "búsqueda + LLM", usando datos externos para fundamentar (grounding) las respuestas, resolviendo el problema de los datos de entrenamiento del modelo obsoletos o que no conocen bases de conocimiento privadas. El objetivo es basar las respuestas en documentos reales y conocimiento privado, en lugar de depender solo de lo que el modelo recuerde por sí mismo.
Grounding (Alineación con Hechos / Fundamentación)
A menudo aparece junto con RAG. Significa hacer que la respuesta del modelo se base en documentos, bases de datos, páginas web u otras referencias externas, en lugar de depender solo de la "improvisación" de la memoria de sus parámetros. Microsoft en su documentación sobre RAG define explícitamente grounding como un valor central.
Embedding (Incrustación Vectorial / Vector Semántico)
Consiste en codificar texto, imágenes, audio y otro contenido en vectores numéricos de alta dimensión para calcular similitud semántica.
Benchmark (Prueba de Referencia)
Una forma de evaluar la capacidad del modelo usando un conjunto de estándares unificados. También es el lenguaje de las tablas de clasificación que los fabricantes más aman usar para "demostrar que son fuertes".







