¡Esta es una revisión vieja del documento!
Tabla de Contenidos
LLM (Large Language Model)
Un LLM (Large Language Model) es el motor o la tecnología base en la inteligencia artificial.
Es un modelo de inteligencia artificial entrenado con enormes cantidades de texto para:
- Entender lenguaje natural
- Generar texto
- Responder preguntas
- Traducir, resumir, programar, etc.
Ejemplos de LLM:
- GPT-4
- GPT-5
- Gemini 1.5
- LLaMA 3
Piensa en el LLM como el cerebro.
Aplicaciones que usan LLM
Algunos ejemplos:
- ChatGPT
- Gemini
- Meta
- Claude
Incluyen:
- Interfaz de chat
- Herramientas extra (memoria, navegación, archivos, etc.)
- Ajustes de comportamiento
- Integraciones con otros servicios
Esto es lo que realmente utiliza el usuario final.
ChatGPT
Gemini
Cómo funciona un chat con IA
Cuando usas algo como ChatGPT o Gemini, por debajo siempre ocurre esto:
1. 🧠 Modelo (LLM)
Por ejemplo, GPT-5 o Gemini 1.5. Es el “cerebro” que:
- Predice texto
- No sabe realmente “la verdad”.
- No tiene intención propia.
Solo completa lo más probable según el contexto.
2. Sistema (system prompt)
Es una instrucción oculta que define el comportamiento del modelo.
Ejemplos:
- “Eres un profesor claro y conciso”
- “Responde como experto en derecho”
- “No des información peligrosa”
Esto no lo ves normalmente, pero controla mucho el resultado. En APIs o herramientas como Ollama sí puedes modificarlo directamente.
3. Prompt del usuario
Esto es lo que tú escribes.
Ej:
- “Explícame qué es la inflación”
- “Hazlo como si tuviera 10 años”
Aquí es donde tienes control directo.
4. Contexto (historial + info extra)
Incluye:
- Conversación previa
- Archivos que subes
- Datos adicionales
Es *clave*, porque el modelo responde en base a TODO esto, no solo tu último mensaje.
El modelo realmente recibe algo así:
[Sistema] + [Contexto previo] + [Tu prompt] = Respuesta
No responde solo a tu última pregunta, sino al *conjunto completo*.
Ejemplo práctico (muy revelador)
❌ Prompt pobre:
"Explícame esto"
👉 Resultado: genérico, poco útil
✅ Prompt bien estructurado:
"Explícame la inflación como si fueras un profesor de economía, con ejemplos simples y en menos de 150 palabras"
Aquí estás controlando:
- Rol (profesor) → sistema-like
- Nivel → estilo
- Formato → longitud
Resultado: mucho mejor
Un buen prompt
Un buen prompt hace 3 cosas:
- Define el rol
- Define la tarea
- Define el formato de salida
Si falta uno → la calidad baja.
Muchísima gente piensa: “El modelo es bueno o malo”, pero en realidad, La calidad depende muchísimo de cómo estructuras el input
Analogía final potente
Imagina:
- Modelo = chef
- Sistema = reglas del restaurante
- Prompt = lo que pides
- Contexto = lo que ya hablaste con el camarero
Si pides mal, incluso el mejor chef falla.
Role Prompting (Asignar un rol)
El modelo se comporta mejor cuando “sabe quién es”.
Idea: le das un rol claro, estilo y objetivo.
Ejemplo básico:
❌ Prompt pobre:
Explícame qué es la inteligencia artificial
✅ Prompt con rol:
Eres un profesor universitario especializado en IA. Explica qué es la inteligencia artificial con ejemplos sencillos y analogías para un estudiante de primer año.
Beneficio: El modelo ajusta tono, detalle y estilo automáticamente.
Few-Shot Prompting (Dar ejemplos)
Dar un par de ejemplos de la salida que quieres mejora muchísimo la precisión.
Ejemplo:
Eres un redactor de emails profesionales. Mira estos ejemplos: Ej1: ‘Estimado cliente, le informamos…’ Ej2: ‘Hola equipo, les comparto…’ Ahora redacta un email informal para notificar un retraso en la entrega de un pedido.”
Beneficio: El modelo “aprende” tu estilo en el momento y lo replica.
Chain-of-Thought (Razonamiento paso a paso)
Cuando quieres respuestas complejas o lógicas, pides que explique el proceso.
Ejemplo:
Resuelve este problema de matemáticas paso a paso: Si tengo 3 cajas con 5 manzanas cada una y regalo 4 manzanas, ¿cuántas me quedan?
Beneficio: Reduce errores en cálculos o razonamiento complejo porque obliga al modelo a “pensar en voz alta”.
Control de formato y estilo
Puedes pedirle estructura, longitud o formato específicos.
Ejemplo:
> Resume este artículo en **3 bullets**, cada uno máximo 20 palabras, usando lenguaje sencillo.
Beneficio: La respuesta se ajusta exactamente a tus necesidades, no tienes que reescribirla.
Iteración y refinamiento
Si la primera respuesta no es perfecta, puedes hacer *prompt refinement*:
> Hazlo más conciso y agrega un ejemplo concreto de la vida real.
Tip profesional: Es más eficiente ajustar el prompt que corregir la salida.
Mini-reglas rápidas para prompts top
- Define rol + tarea + formato
- Da ejemplos si quieres estilo consistente
- Usa contexto relevante
- Pide paso a paso para razonamiento complejo
- Refina iterativamente, no lo dejes al azar
