Herramientas de usuario

Herramientas del sitio


informatica:inteligencia_artificial:llm

¡Esta es una revisión vieja del documento!


LLM (Large Language Model)

Un LLM (Large Language Model) es el motor o la tecnología base en la inteligencia artificial.

Es un modelo de inteligencia artificial entrenado con enormes cantidades de texto para:

  • Entender lenguaje natural
  • Generar texto
  • Responder preguntas
  • Traducir, resumir, programar, etc.

Ejemplos de LLM:

  • GPT-4
  • GPT-5
  • Gemini 1.5
  • LLaMA 3

Piensa en el LLM como el cerebro.

Aplicaciones que usan LLM

Algunos ejemplos:

  • ChatGPT
  • Gemini
  • Meta
  • Claude

Incluyen:

  • Interfaz de chat
  • Herramientas extra (memoria, navegación, archivos, etc.)
  • Ajustes de comportamiento
  • Integraciones con otros servicios

Esto es lo que realmente utiliza el usuario final.

ChatGPT

Gemini

Cómo funciona un chat con IA

Cuando usas algo como ChatGPT o Gemini, por debajo siempre ocurre esto:

1. 🧠 Modelo (LLM)

Por ejemplo, GPT-5 o Gemini 1.5. Es el “cerebro” que:

  • Predice texto
  • No sabe realmente “la verdad”.
  • No tiene intención propia.

Solo completa lo más probable según el contexto.

2. Sistema (system prompt)

Es una instrucción oculta que define el comportamiento del modelo.

Ejemplos:

  • “Eres un profesor claro y conciso”
  • “Responde como experto en derecho”
  • “No des información peligrosa”

Esto no lo ves normalmente, pero controla mucho el resultado. En APIs o herramientas como Ollama sí puedes modificarlo directamente.

3. Prompt del usuario

Esto es lo que tú escribes.

Ej:

  • “Explícame qué es la inflación”
  • “Hazlo como si tuviera 10 años”

Aquí es donde tienes control directo.

4. Contexto (historial + info extra)

Incluye:

  • Conversación previa
  • Archivos que subes
  • Datos adicionales

Es *clave*, porque el modelo responde en base a TODO esto, no solo tu último mensaje.

El modelo realmente recibe algo así:

[Sistema]
+ [Contexto previo]
+ [Tu prompt]
= Respuesta

No responde solo a tu última pregunta, sino al *conjunto completo*.

Ejemplo práctico (muy revelador)

❌ Prompt pobre:

"Explícame esto"

👉 Resultado: genérico, poco útil

✅ Prompt bien estructurado:

"Explícame la inflación como si fueras un profesor de economía, con ejemplos simples y en menos de 150 palabras"

Aquí estás controlando:

  • Rol (profesor) → sistema-like
  • Nivel → estilo
  • Formato → longitud

Resultado: mucho mejor

Un buen prompt

Un buen prompt hace 3 cosas:

  • Define el rol
  • Define la tarea
  • Define el formato de salida

Si falta uno → la calidad baja.

Muchísima gente piensa: “El modelo es bueno o malo”, pero en realidad, La calidad depende muchísimo de cómo estructuras el input

Analogía final potente

Imagina:

  • Modelo = chef
  • Sistema = reglas del restaurante
  • Prompt = lo que pides
  • Contexto = lo que ya hablaste con el camarero

Si pides mal, incluso el mejor chef falla.

Role Prompting (Asignar un rol)

El modelo se comporta mejor cuando “sabe quién es”.

Idea: le das un rol claro, estilo y objetivo.

Ejemplo básico:

❌ Prompt pobre:

Explícame qué es la inteligencia artificial

✅ Prompt con rol:

Eres un profesor universitario especializado en IA. Explica qué es la inteligencia artificial con ejemplos sencillos y analogías para un estudiante de primer año.

Beneficio: El modelo ajusta tono, detalle y estilo automáticamente.

Few-Shot Prompting (Dar ejemplos)

Dar un par de ejemplos de la salida que quieres mejora muchísimo la precisión.

Ejemplo:

Eres un redactor de emails profesionales. Mira estos ejemplos:
Ej1: ‘Estimado cliente, le informamos…’
Ej2: ‘Hola equipo, les comparto…’
Ahora redacta un email informal para notificar un retraso en la entrega de un pedido.”

Beneficio: El modelo “aprende” tu estilo en el momento y lo replica.

Chain-of-Thought (Razonamiento paso a paso)

Cuando quieres respuestas complejas o lógicas, pides que explique el proceso.

Ejemplo:

Resuelve este problema de matemáticas paso a paso:
Si tengo 3 cajas con 5 manzanas cada una y regalo 4 manzanas, ¿cuántas me quedan?

Beneficio: Reduce errores en cálculos o razonamiento complejo porque obliga al modelo a “pensar en voz alta”.

Control de formato y estilo

Puedes pedirle estructura, longitud o formato específicos.

Ejemplo:

> Resume este artículo en **3 bullets**, cada uno máximo 20 palabras, usando lenguaje sencillo.

Beneficio: La respuesta se ajusta exactamente a tus necesidades, no tienes que reescribirla.

Iteración y refinamiento

Si la primera respuesta no es perfecta, puedes hacer *prompt refinement*:

> Hazlo más conciso y agrega un ejemplo concreto de la vida real.

Tip profesional: Es más eficiente ajustar el prompt que corregir la salida.

Mini-reglas rápidas para prompts top

  • Define rol + tarea + formato
  • Da ejemplos si quieres estilo consistente
  • Usa contexto relevante
  • Pide paso a paso para razonamiento complejo
  • Refina iterativamente, no lo dejes al azar
informatica/inteligencia_artificial/llm.1774018692.txt.gz · Última modificación: por tempwin