GLOSARIO IA

Glosario IA

Conceptos clave de inteligencia artificial

Definiciones claras y prácticas de los conceptos de inteligencia artificial que aparecen en cualquier proyecto: agentes IA, RAG, chatbots, LLMs, MCP, function calling y más. Si tienes dudas sobre cómo aplicar IA a tu negocio, visita nuestra página de servicios IA o cuéntanos tu caso.

Agente IA

Sistema autónomo basado en un LLM que toma decisiones, ejecuta acciones en sistemas externos y completa tareas complejas sin intervención humana paso a paso.

Un agente IA combina un modelo de lenguaje (GPT-4, Claude, Gemini) con un conjunto de herramientas (function calling) para ejecutar tareas. A diferencia de un chatbot, que responde preguntas, un agente actúa: consulta bases de datos, envía emails, modifica un CRM, llama APIs, ejecuta código y planifica varios pasos hasta resolver una tarea. Ejemplo: un agente de soporte que recibe una incidencia, busca información en tu base de conocimiento (RAG), consulta el historial del cliente en el CRM, propone una solución, la ejecuta si tiene autorización y registra la interacción.

LLM (Large Language Model)

Modelo de inteligencia artificial entrenado con grandes cantidades de texto para entender y generar lenguaje natural. Ejemplos: GPT-4, Claude, Gemini, Llama.

Un Large Language Model es un modelo de IA entrenado con cientos de miles de millones de palabras (libros, web, código) que aprende patrones del lenguaje y conocimiento del mundo. Los más usados en producción son GPT-4 / GPT-4o (OpenAI), Claude Sonnet / Opus (Anthropic), Gemini (Google) y modelos open source como Llama (Meta) o Mistral. Capacidades: generar texto, traducir, resumir, programar, razonar y, conectados a herramientas, ejecutar tareas complejas como agentes.

RAG (Retrieval Augmented Generation)

Técnica que combina un LLM con una base de conocimiento propia para que las respuestas se basen en tus datos en lugar de solo en lo aprendido durante el entrenamiento.

RAG funciona en dos pasos: (1) cuando llega una pregunta, el sistema busca los fragmentos más relevantes de tus documentos usando vector search sobre embeddings; (2) esos fragmentos se pasan como contexto al LLM, que redacta la respuesta basándose en ellos. Ventajas: respuestas exactas y citables, datos siempre actualizados (basta con re-indexar) y reducción drástica de las hallucinations. Casos típicos: chatbots de soporte sobre documentación corporativa, asistentes para vendedores con catálogo y precios actualizados, búsqueda semántica en bases de conocimiento.

Chatbot

Sistema conversacional que responde preguntas en lenguaje natural. Los modernos usan LLMs y RAG para dar respuestas precisas basadas en información propia.

Un chatbot tradicional sigue flujos predefinidos (decision trees) y responde con plantillas. Los chatbots modernos usan LLMs y entienden lenguaje natural sin guion. Combinados con RAG, responden basándose en tu documentación. Si añades function calling y herramientas, se convierten en agentes IA capaces de ejecutar acciones. Canales habituales: web, WhatsApp Business, Telegram, Messenger, Microsoft Teams, Slack.
Relacionado: Agente IA · RAG

Automatización con IA

Procesos automatizados que combinan IA con sistemas existentes (CRM, ERP, email, etc) para ejecutar tareas de negocio sin intervención humana.

Una automatización con IA va más allá de un workflow tradicional (Zapier, Make, n8n): incluye un LLM o agente para tomar decisiones contextuales, redactar respuestas, clasificar tickets, extraer datos de documentos no estructurados, etc. Ejemplos típicos: clasificación automática de emails entrantes, generación de respuestas a leads, extracción de datos de facturas escaneadas, generación de informes diarios a partir de datos de ventas, atención automatizada en horario de no-cobertura.

Embedding

Representación numérica (vector) de un texto que captura su significado. Permite búsqueda semántica: encontrar textos parecidos en sentido, no solo en palabras.

Un embedding es un vector de cientos o miles de dimensiones generado por un modelo (OpenAI text-embedding-3, Cohere, etc.) que representa el significado semántico de un texto. Dos textos parecidos en significado tienen embeddings cercanos en el espacio vectorial, aunque no compartan palabras. Ejemplo: "reservar mesa" y "hacer una reserva en el restaurante" tienen embeddings muy similares. Es la base de RAG, búsqueda semántica, clustering de tickets de soporte y detección de duplicados.
Relacionado: Vector database · RAG

Vector database

Base de datos especializada en almacenar y buscar embeddings de forma eficiente. Imprescindible para RAG y búsqueda semántica.

Una vector database guarda vectores (embeddings) y permite encontrar los más cercanos a una consulta dada en milisegundos. Las más usadas: Pinecone, Weaviate, Qdrant, Milvus, Chroma y la extensión pgvector de PostgreSQL. Para casos pequeños (hasta unos 100k vectores), pgvector sobre tu Postgres existente suele ser más que suficiente. Para escala mayor (millones), Pinecone o Qdrant son la opción típica.
Relacionado: RAG · Embedding

Prompt engineering

Disciplina de diseñar instrucciones claras y eficaces para LLMs. Determina la calidad de las respuestas y el comportamiento del modelo.

El prompt engineering trata de cómo formular las instrucciones (system prompt, user prompt, few-shot examples) para que un LLM produzca respuestas útiles, consistentes y seguras. Buenas prácticas: ser específico sobre el formato de salida, dar ejemplos, poner restricciones explícitas, usar chain-of-thought ("piensa paso a paso") en tareas de razonamiento. En proyectos serios, los prompts se versionan y se prueban contra un dataset de evaluación.
Relacionado: LLM

Fine-tuning

Reentrenamiento de un LLM con tus propios ejemplos para que aprenda un estilo, formato o conocimiento específico de tu dominio.

El fine-tuning toma un modelo preentrenado (GPT-4o-mini, Llama, Mistral) y lo reentrena con un dataset propio (típicamente entre 50 y miles de pares pregunta-respuesta) para especializarlo. Útil cuando necesitas un estilo de respuesta muy específico, formato JSON estructurado garantizado, o conocimiento de un nicho. La mayoría de proyectos NO necesitan fine-tuning: con buen prompt engineering y RAG suele ser suficiente. Coste: 50-300€ típicos para un fine-tune que sirva en producción.
Relacionado: LLM · RAG

MCP (Model Context Protocol)

Protocolo abierto de Anthropic (2024) para conectar modelos de IA con herramientas y fuentes de datos de forma estándar. Es como USB para LLMs.

MCP define un estándar JSON-RPC para que los modelos accedan a herramientas (funciones), recursos (datos) y prompts predefinidos. En lugar de programar integraciones a medida cada vez, expones un servidor MCP y cualquier cliente compatible (Claude Desktop, Cursor IDE, agentes propios) puede usarlo. Ejemplos: servidor MCP para tu CRM, para un sistema de archivos, para una base de datos, para Google Workspace. Lo implementamos cuando necesitas que los datos/sistemas estén disponibles tanto para asistentes externos como para agentes IA propios.

Function calling / Tool use

Capacidad de un LLM de invocar funciones/herramientas externas que tú defines. Es el mecanismo que convierte un chatbot en un agente IA.

Function calling permite que el modelo decida qué función de tu sistema ejecutar (consulta_clientes, envia_email, busca_producto) y con qué argumentos, basándose en la conversación. El runtime ejecuta la función, le devuelve el resultado al modelo y este redacta la respuesta final. Soportado por GPT-4, Claude, Gemini y modelos open source. Es la base sobre la que se construyen agentes IA y MCP.
Relacionado: Agente IA · MCP

Multimodal

LLMs que procesan texto, imágenes, audio y/o vídeo de forma nativa. Ejemplos: GPT-4o, Claude, Gemini.

Un modelo multimodal entiende y genera más de un tipo de contenido. Puede analizar una factura PDF + foto, transcribir audio, describir un vídeo o generar texto a partir de un diagrama. Usos típicos en empresa: extracción de datos de documentos escaneados, análisis automático de fotos de productos, transcripción y resumen de reuniones, atención al cliente vía notas de voz en WhatsApp. Modelos: GPT-4o (texto+imagen+audio), Claude Sonnet (texto+imagen), Gemini Pro (texto+imagen+vídeo+audio).
Relacionado: LLM

Hallucination (alucinación)

Cuando un LLM inventa información que parece verosímil pero es falsa. Es el principal riesgo en aplicaciones serias.

Las hallucinations ocurren cuando el modelo genera datos plausibles pero inventados (nombres, cifras, referencias a leyes). Mitigaciones: (1) RAG con citaciones obligatorias a la fuente, (2) prompts que exijan "no inventes, di no lo sé", (3) validación posterior con herramientas (function calling para consultar datos reales), (4) humano en el loop para decisiones críticas. En proyectos en producción, tratamos las hallucinations como bugs y construimos evaluaciones automáticas para detectarlas.
Relacionado: RAG

Tokens y ventana de contexto

Los tokens son las unidades en que un LLM procesa texto (~0.75 palabras en español). La ventana de contexto es el máximo de tokens que el modelo puede leer/escribir.

Un token es típicamente una palabra corta o parte de una palabra. "Hola, ¿cómo estás?" son ~7 tokens. Los modelos cobran por tokens (input y output) y tienen una ventana de contexto máxima: GPT-4o tiene 128k, Claude Sonnet 200k, Gemini 1.5 Pro hasta 2M. Para procesar documentos largos hay que dividirlos en chunks o usar modelos de contexto largo. Coste típico: 1M tokens de input cuesta entre 0.15$ (mini) y 15$ (modelo top).
Relacionado: LLM

Sistema multiagente

Arquitectura donde varios agentes IA especializados colaboran para resolver tareas complejas. Cada agente tiene un rol y herramientas distintas.

En lugar de un único agente generalista, un sistema multiagente reparte las tareas: un "agente recepcionista" entiende la petición y la deriva, un "agente investigador" busca información, un "agente redactor" prepara la respuesta y un "agente revisor" valida. Útil para flujos complejos donde un solo prompt sería demasiado largo o ambiguo. Frameworks: LangGraph, CrewAI, AutoGen, sistemas a medida con orquestación propia.
Relacionado: Agente IA

Modelos open source vs cerrados

Open source (Llama, Mistral, Qwen): los pesos son públicos, puedes auto-alojar. Cerrados (GPT-4, Claude, Gemini): solo accesibles via API.

Modelos cerrados son normalmente más capaces pero envías tus datos a un tercero (con cláusulas zero-data-retention en uso empresarial). Modelos open source los autoalojas en tu propia infraestructura: máxima privacidad, sin costes por token, pero requiere GPU y mantenimiento. Decisión típica: empezar con API cerrada (rápido, barato en pruebas) y migrar a open source cuando volumen o privacidad lo justifican. Llama 3.3 70B y Qwen 2.5 72B se acercan a GPT-4 en muchas tareas.
Relacionado: LLM

Modelo razonador

LLM diseñado para razonar paso a paso antes de responder. Ejemplos: o1, o3 (OpenAI), Claude Opus con extended thinking, DeepSeek R1.

Los modelos razonadores generan cadenas de pensamiento explícitas antes de la respuesta final, mejorando notablemente en matemáticas, lógica, programación y planificación compleja. Son más lentos y caros que los modelos rápidos (GPT-4o, Claude Haiku) pero indispensables para tareas que requieren análisis profundo: optimización de procesos, debugging difícil, análisis legal o estratégico. Uso típico: combinar un razonador para la planificación con un modelo rápido para la ejecución.
Relacionado: LLM

¿NECESITAS IMPLANTAR IA EN TU NEGOCIO?

Te ayudamos a identificar qué procesos de tu empresa puede mejorar la IA y diseñamos una solución a medida.

Solicitar consultoria gratuita