La semana pasada le pedí a Claude que me ayudara a encontrar restaurantes para una cena familiar. La respuesta fue impresionante: nombres específicos, capacidades, menciones de terrazas al aire libre, detalles sobre menús. Sonaba exactamente como alguien que conocía la ciudad.
Casi hago la reservación.
Entonces decidí verificar. Dos de los restaurantes no existían. Uno había cerrado hace años. La “terraza al aire libre” era ficción. La IA había inventado detalles que sonaban perfectamente reales, y yo estuve a punto de quedar como tonto frente a mi familia.
Esto me llevó a una pregunta incómoda: ¿Cuántas veces he confiado en respuestas que sonaban correctas sin verificar si realmente lo eran?
Y más importante: ¿Cómo sabría si están mal si no las verifico?
Esta reflexión me llevó a entender algo que ahora veo como fundamental para usar IA de forma efectiva en 2025-2026: antes de confiar en cualquier respuesta de IA, necesito saber qué significa “correcto” para esa tarea específica.
Suena obvio. No lo es.
El Problema No Es Que la IA Sea Mala, Es Que No Le Dijimos Qué Significa “Bueno”
Déjame mostrarte algo que me pasó hace dos semanas.
Le pedí a Claude: “Escribe un resumen de este reporte trimestral.”
La respuesta fue fluida, profesional, bien estructurada. Parecía exactamente lo que necesitaba. Pero cuando mi cliente la leyó, frunció el ceño. “Esto está bien, pero necesito que enfatices los costos de adquisición de clientes, no solo ingresos.”
Ajusté el prompt. Nueva respuesta. Mejor. Excepto que ahora el CFO preguntó: “¿De dónde salieron estos números? Necesito las cifras exactas de Q3 vs Q2.”
Otro ajuste. Ahora Legal se involucró: “Esto suena muy confiado. No podemos hacer afirmaciones así sin caveats.”
Cuarto intento. Ahora el CEO: “Esto es demasiado cauteloso. Dame respuestas directas, no evasivas.”
¿Ves el patrón?
Yo no había fallado cuatro veces. Yo nunca definí qué significaba “correcto” desde el principio. Cada stakeholder tenía una definición diferente en su cabeza, y yo estaba adivinando cuál era.
Esto es lo que se llama “moving goalposts” – estándares que cambian sin que nadie se dé cuenta. Y no solo pasa en empresas. Me pasa todo el tiempo en uso personal.
La Pregunta Que Ahora Me Hago Antes de Cualquier Prompt
Después de reservar (mentalmente) en restaurantes fantasma, de darle a mi hijo explicaciones de álgebra que sonaban bien pero enseñaban mal, de prepararme para entrevistas con información desactualizada que la IA presentó como actual… aprendí a hacer una pregunta antes de confiar en cualquier output:
¿Cómo sabría si esto está mal?
No “¿suena bien?” o “¿parece profesional?” sino ¿cómo verifico esto?
Esa pregunta simple me obliga a pensar en tres cosas antes de escribir el prompt:
1. ¿Qué tipo de “correcto” necesito?
A veces “correcto” significa preciso con fuentes verificables (como números financieros).
A veces “correcto” significa útil para estimular mi pensamiento, aunque no haya una respuesta única (como ideas para un proyecto).
A veces “correcto” significa seguro – no puede equivocarse porque las consecuencias son altas (como consejo médico o legal).
Son tres tipos diferentes de “correcto” que requieren tres tipos diferentes de prompts.
2. ¿Qué pasa si la IA no está segura?
Esta es la parte que más personas olvidan (yo incluido, durante meses).
En algunos contextos, prefiero un “no estoy seguro” que una respuesta confiada pero incorrecta. Como cuando pregunto por síntomas médicos – prefiero que me diga “deberías consultar a un doctor” que me dé un diagnóstico inventado.
En otros contextos, quiero que la IA intente aunque no esté 100% segura. Como cuando estoy generando ideas para un post – quiero volumen, creatividad, exploración. El silencio no me sirve ahí.
Pero si no le digo a la IA cuál de estos dos mundos aplicar, va a adivinar. Y su adivinanza probablemente no coincida con lo que yo necesitaba.
3. ¿Qué evidencia necesito?
La capital de Francia no necesita cita. Es conocimiento establecido.
Los ingresos de mi empresa en Q3 necesitan venir de una fuente específica, no pueden ser “aproximados.”
Una recomendación médica debería citar estudios o guías clínicas, no solo “sonar bien.”
Cada pregunta tiene un nivel diferente de evidencia requerida. Si no lo especifico, la IA no sabe cuál aplicar.
El Framework Que Cambió Todo: Tres Partes Para Definir “Correcto”
Después de tropezarme con esto suficientes veces, desarrollé un framework simple de tres partes. Antes de hacer cualquier pregunta importante a una IA, me obligo a definir:
Parte 1: ¿Qué afirmaciones está permitido hacer?
Esto es sobre límites. ¿Qué está dentro del alcance y qué está fuera?
Ejemplo: Si le pregunto a ChatGPT sobre planear un viaje:
- ✅ Puede sugerir restaurantes… pero aprendí que necesito verificar que existan
- ✅ Puede sugerir hoteles cerca de un lugar
- ❌ No debería darme consejos médicos sobre vacunas necesarias (eso va al doctor)
- ❌ No debería hacer promesas sobre disponibilidad sin verificar en tiempo real
Definir los límites previene que el sistema entre en territorio donde es probable que se equivoque de formas que duelen.
Parte 2: ¿Qué evidencia se requiere para cada afirmación?
No todas las afirmaciones necesitan el mismo nivel de soporte.
Si pregunto “¿cuál es la capital de Francia?” → puede responder directamente.
Si pregunto “¿cuáles fueron nuestros ingresos en Q3?” → necesita fuente específica, no puede inventar.
Si pregunto sobre un tema médico → necesita citar guías o estudios, no solo generar texto plausible.
El problema: La mayoría de mis prompts nunca especifican esto. Entonces la IA adivina qué nivel de evidencia es apropiado. A veces acierta. A menudo no.
Parte 3: ¿Qué es peor – equivocarse o quedarse callado?
Esta es la pieza que casi nadie considera, y es crítica.
En algunos contextos, una respuesta incorrecta es mucho peor que ninguna respuesta. Si la IA le da al CEO un número de ingresos equivocado en una junta, no es solo un error – es un evento que destruye confianza. Aquí prefiero que diga “no estoy seguro de este número, déjame verificar.”
En otros contextos, el silencio es básicamente inútil. Si estoy haciendo brainstorming de ideas, no quiero que la IA se niegue a participar porque no está “segura.” Quiero que genere opciones, incluso especulativas.
La mayoría de sistemas – y la mayoría de prompts – nunca especifican en cuál mundo están. La IA no sabe si prefieres una conjetura confiada o un honesto “no sé.” Entonces usa un default que casi nunca es exactamente lo que necesitabas.
Un Ejemplo Antes y Después
ANTES (mi prompt vago): “Resume este reporte trimestral.”
Resultado: Un resumen genérico que enfatiza lo que el modelo considera “típicamente importante.” Podría o no ser lo que necesito. Requiere 3-5 iteraciones para ajustar.
AHORA (mi prompt específico): “Escribe un resumen ejecutivo de 3 párrafos para nuestro CEO. Enfócate en tendencias de ingresos y costos de adquisición de clientes. Incluye las cifras específicas de comparación Q3 vs Q2. Marca cualquier cosa que podría surgir como sorpresa en la junta directiva. Si no estás seguro de algún número, dilo explícitamente – prefiero saber que no estás seguro a recibir una respuesta confiada pero incorrecta.”
Resultado: Algo evaluable en el primer intento. Puedo verificar:
- ✅ ¿Son 3 párrafos?
- ✅ ¿Se enfoca en ingresos y CAC?
- ✅ ¿Incluye la comparación Q3 vs Q2?
- ✅ ¿Marca sorpresas potenciales?
- ✅ ¿Reconoce incertidumbre donde existe?
Ahora tengo criterios claros. Eso es lo que “correcto” significa a nivel de prompt.
Por Qué la Vaguedad Nos Protege Con Humanos Pero Nos Traiciona Con IA
Aquí está la parte incómoda: la vaguedad es útil en interacciones humanas.
Cuando estás en una junta y todos “acuerdan” una dirección, probablemente todos tienen interpretaciones ligeramente diferentes de qué significa esa dirección. Pero la ambigüedad mantiene las cosas en movimiento. Los detalles se resuelven después, en contexto, cuando hay más información.
En Amazon le llamaban “weasel words” – palabras comadreja. Decías “mucho” en lugar de un número. “Impacto significativo” sin definir significativo. Podías comprometerte sin realmente comprometerte.
El problema: Los sistemas de IA no toleran weasel words.
Tienes que responder preguntas como:
- ¿Debería ser audaz o cauteloso?
- ¿Debería siempre intentar ayudar, o negarse cuando está insegura?
- ¿Optimizamos para velocidad o profundidad?
Si dices “ambos,” no has respondido. Si dices “usa buen juicio,” tampoco has respondido.
Estos son trade-offs reales con consecuencias reales. En organizaciones humanas, evitamos hacer estas elecciones dejándolas ambiguas. Pero la IA está al final de la cadena, y no resuelve ambigüedades como lo hacen los humanos. Adivina.
Y cuando su adivinanza no coincide con lo que querías – lo cual pasa seguido, porque nunca dijiste lo que querías – experimentas eso como “la IA no funciona.”
Verdad incómoda: Cuando te frustras porque la IA no te da lo que quieres, la primera pregunta es: ¿realmente especifiqué lo que quiero? No en mi cabeza. En el prompt, en la configuración, en el diseño. ¿Tomé las decisiones difíciles?
La frustración que sientes tratando de hacer que la IA funcione como quieres a menudo es el sistema exponiendo trade-offs que has estado evitando.
Lo Que Cambió en Mi Forma de Trabajar
Antes:
- Escribía prompts vagos
- Me frustraba con resultados inconsistentes
- Culpaba al modelo
- Iteraba sin saber hacia qué iteraba
Ahora:
- Antes de cualquier tarea importante, tomo 2-3 minutos para definir:
- ¿Qué tipo de correcto necesito? (factual, creativo, seguro)
- ¿Qué pasa si no está segura? (prefiero error o silencio)
- ¿Qué evidencia necesito?
- ¿Cómo verifico el resultado?
- Lo escribo directamente en el prompt
- Primera respuesta usualmente es 80-90% correcta
- Las iteraciones son ajustes, no redescubrimiento
Tiempo invertido: 3 minutos extra por adelantado.
Tiempo ahorrado: 15-30 minutos que antes gastaba en iteraciones confusas.
La Pregunta Que Hago Después de Recibir Cualquier Respuesta
No importa qué tan bien especifique mi prompt, ahora siempre me pregunto después de recibir la respuesta:
¿Esto realmente funcionó para lo que lo necesitaba?
No “¿fue impresionante?” o “¿sonó bien?” sino ¿funcionó?
Si usé IA para planear viajes: ¿los restaurantes existen?
Si usé IA para ayudar con tarea: ¿aprendió el concepto correcto o aprendió algo ligeramente equivocado que causará problemas después?
Si usé IA para preparar una presentación: ¿la información era actual o desactualizada?
Son juicios de valor, no métricas. Pero hacer el juicio explícitamente – preguntar “¿realmente funcionó?” – es el inicio de ser intencional sobre corrección en lugar de solo aceptar lo que suena bien.
La Habilidad Que Todos Estamos Desarrollando (Queramos o No)
La habilidad que determina si obtienes valor real de la IA en 2026 no es saber cuál modelo es el más nuevo, o trucos de “prompt engineering.”
Es la habilidad de ser específico sobre lo que quieres.
Eso suena simple. No lo es. Ser específico requiere saber qué quieres, lo cual requiere pensar claramente sobre qué intentas lograr, lo cual requiere confrontar trade-offs que preferirías evitar.
La mayoría resistimos esto. Preferimos mantener opciones abiertas. Preferimos no comprometernos. Preferimos que las cosas se queden vagas porque la claridad fuerza decisiones.
Pero los sistemas de IA no toleran vaguedad como lo hacen los humanos. Necesitan instrucciones. Cuando las instrucciones no son claras, adivinan. Cuando adivinan mal, los culpamos – pero la falla está upstream, en nuestra propia incapacidad de especificar.
Lo Que Puedes Hacer Hoy
Si tomas una cosa de esta reflexión, que sea esto: antes de confiar en un output de IA con algo que importa, pregúntate qué significa “correcto” para esa tarea específica.
No en sentido abstracto. Concretamente. Para esta tarea específica, con esta audiencia específica, con estas consecuencias específicas.
Tres preguntas simples:
- ¿Qué afirmaciones está permitido hacer? (límites)
- ¿Qué evidencia necesito? (soporte)
- ¿Qué es peor – error o silencio? (trade-offs)
Responde esas preguntas, inclúyelas en tu prompt, y habrás hecho más que la mayoría de la gente.
Te habrás movido de esperar que la IA te dé lo que quieres a especificar lo que quieres.
Y esa diferencia es enorme.
La claridad es una habilidad entrenable, y probablemente la más importante para trabajar con IA en 2026.
La IA se vuelve mejor ejecutando. Nuestro trabajo es volvernos mejores especificando qué ejecutar.
¿Tú cómo defines “correcto” antes de usar IA? ¿O todavía estás esperando que adivine?

Leave a Reply