Saltar al contenido

GPT-5: Guía de Prompting Avanzado para Evitar Errores

No sé cuándo empezaste a leer este artículo, pero GPT-5 se publicó ayer… y ya hay quejas. Capaz vos lo estás leyendo semanas después, y algunos de estos problemas ya se solucionaron. O capaz no. Lo importante —y por eso te recomiendo seguir leyendo— es que hay algo que aprendí desde que tengo acceso a las primeras betas de OpenAI: el Prompt lo es todo.

La idea original de GPT-5 —que ya venía asomando un poco en la familia de GPT-4— era simplificar la manera en que interactuamos con estos chats, haciéndolos más “semánticos”. O sea, que entiendan mejor de dónde venimos y adónde vamos, en vez de exigir prompts súper técnicos.

En resumen: apuntaban a que sea más natural hablar con el modelo, sin tener que hacer malabares con las instrucciones.

Pero… GPT-5 arrancó con el pie izquierdo. Se fueron al pasto…

El lanzamiento de GPT-5 de OpenAI ha llegado con una mezcla de avances impresionantes y quejas generalizadas. Muchos usuarios sienten que el modelo está “decepcionando” o se ha vuelto “vago”, pero la realidad es más compleja. El problema no es tanto el modelo en sí, sino la forma en que interactuamos con él y un nuevo sistema de “enrutamiento” que, inicialmente, no funcionaba como se esperaba.

Este artículo, basado en la guía de buenas prácticas de OpenAI, te va a enseñar a dejar de “charlar” con la IA y empezar a darle instrucciones como un profesional. Lo más importante es que vamos a usar estas técnicas para solucionar las quejas más comunes y asegurarnos de que estés usando la versión más potente de GPT-5 en lugar de su mediocre hermano menor.

¿Por Qué GPT-5 Parece “Tonto”? Entendiendo el Modelo y el Enrutador

Para entender la frustración general, primero hay que entender qué lanzó OpenAI. GPT-5 no es un único modelo, sino una familia de modelos con diferentes capacidades de razonamiento (High, Medium, Minimal). El problema es que la nueva función de “enrutador” de ChatGPT, diseñada para que el GPT decida cual seria el proceso mas conveniente, automáticamente define cual es el modelo más adecuado para resolver la tarea, y estuvo fallando y parece que estuvo enviando la mayoría de las peticiones al modelo GPT-5 Minimal, que rinde incluso por debajo de versiones anteriores como GPT-4.1.

Esto significa que GPT-5 es capas tanto de lo mejor que hemos visto en IA como de ser un modelo mediocre. Si sentís que te da respuestas malas, es muy probable que el enrutador te haya derivado al modelo más básico.

El truco para solucionarlo: Hasta que el enrrutador funcione a la perfección, la clave es forzar el uso de los modelos de razonamiento más potentes. Una simple coletilla como "pensá en profundidad sobre esto antes de responder" en tu prompt ayuda a que el enrutador derive tu consulta al modelo “Thinking”, obteniendo resultados drásticamente mejores.

La Base de Todo: El Framework de 6 Pasos para Prompts Profesionales

El error más grande es tratar a la IA como una caja de chat o creer que estamos Googleando. Para obtener resultados consistentes y de alta calidad, tenés que pensar en tus prompts como especificaciones técnicas. El siguiente framework de seis componentes es la estructura fundamental para lograrlo.

El Prompt es el REY, como explicaba en este otro articulo Cómo usar ChatGPT: El prompt Perfecto | GPT.Ep 06 #PromptEngineering

fácil: ROL, TAREA, CONTEXTO, RAZONAMIENTO, SALIDA, CONDICIONES

  1. ROL: Asignale una profesión o un perfil específico. No es lo mismo pedirle algo a “un asistente” que a “un Analista de Datos Senior especializado en retail con experiencia en GA4 y SQL”. La especificidad activa el conocimiento relevante del modelo.
  2. TAREA: Describí el objetivo final de manera clara y concisa. ¿Qué querés que haga exactamente? “Generar un reporte de cohortes mensual” es mejor que “analizá estos datos”.
  3. CONTEXTO: Proporcioná toda la información de fondo necesaria. Esto incluye el público objetivo, el tono de la marca, las fuentes de datos, las limitaciones técnicas o cualquier otro detalle que enmarque la tarea.
  4. RAZONAMIENTO: Este es el paso que la mayoría omite y es crucial. Exigile al modelo que piense paso a paso o que siga una metodología específica. Pedile que “primero diseñe el esquema de la base de datos, luego escriba las queries y finalmente genere los tests de validación”. Esto fuerza un procesamiento más lógico y reduce errores.
  5. SALIDA: Sé extremadamente preciso sobre el formato que esperás. ¿Querés un JSON con un schema específico? ¿Una tabla en Markdown? ¿Un script de Python documentado? Definilo sin ambigüedad.
  6. CONDICIONES: Establecé las reglas y restricciones. “No uses librerías externas”, “detener el proceso si la confianza de la clasificación es menor a 0.8”, “pedí confirmación humana antes de ejecutar cualquier acción que modifique archivos”.

Quejas Frecuentes y Cómo Solucionarlas con Prompting Estratégico

Ahora vamos a aplicar este framework para resolver los problemas que nos frustran a diario.

Queja 1: “La IA se vuelve ‘vaga’ y me da respuestas incompletas o se niega a terminar la tarea.”

Este es el problema más reportado, directamente relacionado con el enrutador enviando la consulta al modelo “Minimal”. La IA empieza bien pero deja el código a la mitad o te dice que “completes vos mismo los detalles”.

Solución/Truco:

  • Forzá un plan de trabajo explícito y pedí razonamiento. Usá el paso de RAZONAMIENTO. Antes de que escriba una sola línea de código, ordenale: Pensá en profundidad. Antes de codificar, presentá un plan detallado en 3 pasos que incluya la validación de datos y la gestión de errores. No empieces a codificar hasta que yo apruebe el plan.
  • Establecé condiciones de persistencia. En el paso de CONDICIONES, agregá: Sos un agente autónomo. No termines tu respuesta hasta que la tarea esté 100% completa según lo solicitado. Si llegás al límite de caracteres, avisá y esperá mi comando para continuar.

Queja 2: “No sigue mis instrucciones al pie de la letra, especialmente el formato de salida.”

Le pedís una tabla en Markdown y te devuelve una lista con viñetas. Le pedís un JSON y te da un texto plano. Esto suele pasar cuando el modelo no razona y opta por la respuesta más simple.

Solución/Truco:

  • Sé dictatorial con el formato de SALIDA. No solo pidas el formato, proporcioná un ejemplo. El formato de salida DEBE ser un JSON que valide contra el siguiente schema: { "propiedad": "valor" }. No incluyas ningún texto introductorio ni conclusiones, solo el JSON.
  • Usá Markdown en tu prompt para estructurar tus propias instrucciones. Delimitar tus reglas con etiquetas o bloques de código hace que el modelo las procese con mayor prioridad.

Prompt de ejemplo:

<instruction_spec>
- La prioridad de las instrucciones es la siguiente: sistema > desarrollador > usuario.
- Si detectás contradicciones en mis pedidos, señalá el conflicto y proponé una resolución.
- Cumplí con el formato de salida al 100% antes de finalizar tu turno.
</instruction_spec>

Queja 3: “Sus respuestas son demasiado largas, genéricas y llenas de frases de relleno como ‘Como modelo de lenguaje…'”

A veces, la IA se excede en disculpas, advertencias y texto innecesario que tenés que borrar manualmente.

Solución/Truco:

  • Controlá la verborragia en las CONDICIONES. Agregá instrucciones directas como: Sé conciso y andá al grano. No uses frases introductorias, disculpas ni advertencias éticas a menos que sea absolutamente crítico para la tarea. Respondé únicamente con lo solicitado.
  • Asignale un ROL que implique brevedad. Por ejemplo: Rol: Sos un desarrollador senior presentando un reporte a tu CTO. El tiempo es limitado, así que toda tu comunicación debe ser densa en información y sin relleno.

Plantilla Práctica para Empezar

Para que te sea más fácil, acá tenés una plantilla universal que podés adaptar. Simplemente llená los campos.

Prompt de ejemplo:

#ROL: [Asigná un perfil de experto. Ej: "Analista de datos senior en una empresa de eCommerce."]

#TAREA: [Describí el objetivo final. Ej: "Crear un pipeline en SQL y Python para procesar datos de ventas incrementales."]

#CONTEXTO: [Proporcioná la información de fondo. Ej: "La fuente de datos es GA4 y un CRM interno. No se debe acceder a PII. La prioridad es la integridad de los datos."]

#RAZONAMIENTO: [Exigí una metodología. Ej: "Pensá en profundidad. Primero, diseñá el esquema de la tabla final y la estrategia de particionamiento. Segundo, escribí las queries en SQL usando CTEs. Tercero, creá el script de Python para el ETL. Finalmente, especificá los tests de validación."]

#SALIDA: [Definí el formato exacto. Ej: "Entregá tres bloques de código separados: 1. SQL, 2. Python, 3. Especificación de tests en formato YAML."]

#CONDICIONES: [Establecé las reglas. Ej: "No ejecutes ninguna sentencia DDL sin mi confirmación explícita. Documentá cualquier supuesto de negocio que hagas."]

Conclusión

El lanzamiento de GPT-5 demuestra que el avance de la IA no elimina la necesidad de dar buenas instrucciones. Al contrario, para aprovechar su mayor capacidad de razonamiento y autonomía, necesitás ser más riguroso y estructurado, especialmente para asegurarte de no estar usando una versión “recortada” del modelo.

Dejá de pedirle cosas y empezá a especificar requerimientos. Usá este framework, forzá el razonamiento en tus prompts y vas a ver cómo los problemas de “pereza” e inconsistencia se reducen drásticamente, permitiéndote obtener resultados profesionales de manera consistente.

Fuentes openai cookbook

¿Estas empezando con ChatGPT?

Si todavía sos un amateur del ChatGPT y queres obtener el mayor provecho, te recomiendo que busques los artículos Curso gratis de ChatGPT

  1. Curso ChatGPT: ¿Por donde empezar?
  2. Curso ChatGPT: Optimizar respuestas y personalizar la interacción
  3. Curso ChatGPT: Seguridad y Precisión en prompt
  4. Curso ChatGPT: Programar y Corregir Errores
  5. Curso ChatGPT: ¿Cómo evitar que ChatGPT repita respuestas?
  6. Curso ChatGPT: El Prompt Perfecto