Glosario

LLM, RAG, embeddings: glosario IA para no técnicos

Ocho términos que oirás cada vez más en 2026 y que conviene tener claros. Sin jerga.

5 min de lecturaActualizado IE Por Iván Escudero

El glosario

LLM (Large Language Model)

Modelo entrenado con miles de millones de palabras para entender y generar lenguaje. GPT-5, Claude Opus 4, Gemini Ultra, Llama 3.3.

Tokens

Unidades en las que el LLM procesa el texto, normalmente fragmentos de palabras. "Hola" puede ser 1 token; "rinoceronte" suelen ser 3-4. Las facturas se cobran por tokens.

Prompt

La instrucción o pregunta que le das a la IA. Un buen prompt es específico, da contexto y especifica formato.

RAG (Retrieval-Augmented Generation)

Técnica que combina un LLM con una base de conocimiento propia. En lugar de inventar, busca en tu catálogo o documentos y responde basándose en eso. Reduce alucinaciones.

Embeddings

Representaciones numéricas del significado de un texto. Permiten al sistema "entender" si dos frases son parecidas aunque usen palabras distintas. La base del RAG.

Fine-tuning

Ajustar un LLM existente con datos específicos para que sea mejor en una tarea concreta. Caro y suele ser innecesario; el RAG resuelve la mayoría de casos.

Context window

La cantidad máxima de texto que el LLM puede manejar en una sola petición. En 2026, los modelos top manejan más de 1 millón de tokens (≈ 750.000 palabras = un libro entero).

Hallucination (alucinación)

Cuando el LLM se inventa información que suena verosímil pero es falsa. Se reduce con RAG, prompts más estrictos y verificación humana.

Preguntas frecuentes

¿Qué LLM usa IAVoz.Pro?

Llama 3.3 70B en Groq como principal (rápido y gratuito hasta cuota), con fallback a OpenRouter, Gemini Flash y Anthropic Haiku 4.5.

¿Quieres ver un agente IA real funcionando?

14 días gratis sin tarjeta de crédito. Sin permanencia.

Probar IAVoz.Pro gratis