Herramientas de usuario

Herramientas del sitio


informatica:inteligencia_artificial:llm

¡Esta es una revisión vieja del documento!


LLM (Large Language Model)

Un LLM (Large Language Model) es el motor o la tecnología base en la inteligencia artificial.

Es un modelo de inteligencia artificial entrenado con enormes cantidades de texto para:

  • Entender lenguaje natural
  • Generar texto
  • Responder preguntas
  • Traducir, resumir, programar, etc.

Ejemplos de LLM:

  • GPT-4
  • GPT-5
  • Gemini 1.5
  • LLaMA 3

Piensa en el LLM como el cerebro.

Aplicaciones que usan LLM

Algunos ejemplos:

  • ChatGPT
  • Gemini
  • Meta
  • Claude

Incluyen:

  • Interfaz de chat
  • Herramientas extra (memoria, navegación, archivos, etc.)
  • Ajustes de comportamiento
  • Integraciones con otros servicios

Esto es lo que realmente utiliza el usuario final.

ChatGPT

Gemini

Cómo funciona un chat con IA

Cuando usas algo como ChatGPT o Gemini, por debajo siempre ocurre esto:

1. 🧠 Modelo (LLM)

Por ejemplo, GPT-5 o Gemini 1.5. Es el “cerebro” que:

  • Predice texto
  • No sabe realmente “la verdad”.
  • No tiene intención propia.

Solo completa lo más probable según el contexto.

2. Sistema (system prompt)

Es una instrucción oculta que define el comportamiento del modelo.

Ejemplos:

  • “Eres un profesor claro y conciso”
  • “Responde como experto en derecho”
  • “No des información peligrosa”

Esto no lo ves normalmente, pero controla mucho el resultado. En APIs o herramientas como Ollama sí puedes modificarlo directamente.

3. Prompt del usuario

Esto es lo que tú escribes.

Ej:

  • “Explícame qué es la inflación”
  • “Hazlo como si tuviera 10 años”

Aquí es donde tienes control directo.

4. Contexto (historial + info extra)

Incluye:

  • Conversación previa
  • Archivos que subes
  • Datos adicionales

Es *clave*, porque el modelo responde en base a TODO esto, no solo tu último mensaje.

El modelo realmente recibe algo así:

``` [Sistema] + [Contexto previo] + [Tu prompt] = Respuesta ```

No responde solo a tu última pregunta, sino al *conjunto completo*.

Ejemplo práctico (muy revelador)

❌ Prompt pobre:

"Explícame esto"

👉 Resultado: genérico, poco útil

✅ Prompt bien estructurado:

"Explícame la inflación como si fueras un profesor de economía, con ejemplos simples y en menos de 150 palabras"

Aquí estás controlando:

  • Rol (profesor) → sistema-like
  • Nivel → estilo
  • Formato → longitud

Resultado: mucho mejor

Un buen prompt

Un buen prompt hace 3 cosas:

  • Define el rol
  • Define la tarea
  • Define el formato de salida

Si falta uno → la calidad baja.

# ⚠️ Error común

Muchísima gente piensa: “El modelo es bueno o malo”, pero en realidad, La calidad depende muchísimo de cómo estructuras el input

# 🧠 Analogía final potente

Imagina:

* Modelo = chef * Sistema = reglas del restaurante * Prompt = lo que pides * Contexto = lo que ya hablaste con el camarero

Si pides mal, incluso el mejor chef falla.

informatica/inteligencia_artificial/llm.1774014541.txt.gz · Última modificación: por tempwin