¡Esta es una revisión vieja del documento!
Tabla de Contenidos
LLM (Large Language Model)
Un LLM (Large Language Model) es el motor o la tecnología base en la inteligencia artificial.
Es un modelo de inteligencia artificial entrenado con enormes cantidades de texto para:
- Entender lenguaje natural
- Generar texto
- Responder preguntas
- Traducir, resumir, programar, etc.
Ejemplos de LLM:
- GPT-4
- GPT-5
- Gemini 1.5
- LLaMA 3
Piensa en el LLM como el cerebro.
Aplicaciones que usan LLM
Algunos ejemplos:
- ChatGPT
- Gemini
- Meta
- Claude
Incluyen:
- Interfaz de chat
- Herramientas extra (memoria, navegación, archivos, etc.)
- Ajustes de comportamiento
- Integraciones con otros servicios
Esto es lo que realmente utiliza el usuario final.
ChatGPT
Gemini
Cómo funciona un chat con IA
Cuando usas algo como ChatGPT o Gemini, por debajo siempre ocurre esto:
1. 🧠 Modelo (LLM)
Por ejemplo, GPT-5 o Gemini 1.5. Es el “cerebro” que:
- Predice texto
- No sabe realmente “la verdad”.
- No tiene intención propia.
Solo completa lo más probable según el contexto.
2. Sistema (system prompt)
Es una instrucción oculta que define el comportamiento del modelo.
Ejemplos:
- “Eres un profesor claro y conciso”
- “Responde como experto en derecho”
- “No des información peligrosa”
Esto no lo ves normalmente, pero controla mucho el resultado. En APIs o herramientas como Ollama sí puedes modificarlo directamente.
3. Prompt del usuario
Esto es lo que tú escribes.
Ej:
- “Explícame qué es la inflación”
- “Hazlo como si tuviera 10 años”
Aquí es donde tienes control directo.
4. Contexto (historial + info extra)
Incluye:
- Conversación previa
- Archivos que subes
- Datos adicionales
Es *clave*, porque el modelo responde en base a TODO esto, no solo tu último mensaje.
El modelo realmente recibe algo así:
<code> [Sistema] + [Contexto previo] + [Tu prompt] = Respuesta <code>
No responde solo a tu última pregunta, sino al *conjunto completo*.
Ejemplo práctico (muy revelador)
❌ Prompt pobre:
"Explícame esto"
👉 Resultado: genérico, poco útil
✅ Prompt bien estructurado:
"Explícame la inflación como si fueras un profesor de economía, con ejemplos simples y en menos de 150 palabras"
Aquí estás controlando:
- Rol (profesor) → sistema-like
- Nivel → estilo
- Formato → longitud
Resultado: mucho mejor
Un buen prompt
Un buen prompt hace 3 cosas:
- Define el rol
- Define la tarea
- Define el formato de salida
Si falta uno → la calidad baja.
# ⚠️ Error común
Muchísima gente piensa: “El modelo es bueno o malo”, pero en realidad, La calidad depende muchísimo de cómo estructuras el input
# 🧠 Analogía final potente
Imagina:
* Modelo = chef * Sistema = reglas del restaurante * Prompt = lo que pides * Contexto = lo que ya hablaste con el camarero
Si pides mal, incluso el mejor chef falla.
