Codex de OpenAI tiene prohibido hablar de goblins y mapaches

Las instrucciones internas del agente de programación de OpenAI vetan menciones a goblins, gremlins, mapaches, troles, ogros y palomas salvo cuando sea totalmente relevante. Sí, está por escrito. Y tiene más sentido del que parece.

OpenAI ha decidido que su agente de programación, Codex, no puede hablar de goblins. Tampoco de mapaches, troles, ogros, gremlins ni palomas. Y no, no es una broma de fin de semana en San Francisco.

El detalle, que sale a la luz en system prompts filtrados y reportado por WIRED, es de esos que parecen meme pero son pura ingeniería de producto. Codex es el agente de OpenAI pensado para programar de forma autónoma: te lee el repositorio, propone cambios, abre pull requests y se mete en faena sin que tengas que sostenerle la mano. Y entre las miles de líneas de instrucciones internas que le dicen cómo comportarse, hay una lista de criaturas mitológicas y bichos urbanos vetados.

Qué dice exactamente el sistema de Codex

Las instrucciones filtradas son explícitas: Codex no debe mencionar goblins, gremlins, mapaches, troles, ogros ni palomas salvo que sea totalmente relevante. Esa coletilla final es la clave. OpenAI no prohíbe la palabra, prohíbe el chiste fácil de programador.

Publicidad

Cualquiera que haya pasado tiempo en foros de desarrollo sabe a qué se refieren. Los gremlins son ese bug fantasma que solo aparece los viernes. Los goblins aparecen en comentarios de código que llevan ahí desde 2014. Los mapaches son metáfora habitual de procesos que rebuscan en la basura del sistema. Y las palomas… bueno, las palomas son el running joke de medio Stack Overflow para cualquier cosa que ensucia el código sin razón aparente.

El problema es que un agente que va a abrir pull requests en producción no puede ponerse poético. Si Codex escribe 'aquí había un goblin' en un commit serio, el cliente corporativo no se ríe. Llama al soporte.

Por qué OpenAI se lo toma tan en serio

Aquí está lo interesante. Los modelos grandes tienen tendencia a ser monos cuando no toca. Lo hemos visto con ChatGPT metiendo emojis en informes médicos, con Claude poniéndose existencial en mitad de una factura, con Gemini soltando metáforas en consultas técnicas. Es un sesgo del entrenamiento: el modelo aprendió de internet, e internet es un sitio donde los programadores hablan de goblins.

OpenAI lleva meses puliendo este flanco. El propio anuncio oficial de Codex insiste en que el agente está pensado para entornos profesionales, donde el tono cuenta tanto como la calidad del código. Y no es la primera vez que un system prompt filtrado revela este tipo de restricciones: el de Claude tiene reglas parecidas sobre cuándo puede hacer bromas y cuándo no.

La cosa tiene más miga de la que parece. Definir qué bichos puede mencionar tu IA es definir, en miniatura, qué tipo de empleado quieres que sea.

El precedente: cuando los chatbots se ponen demasiado humanos

Esto no es nuevo. En 2023, el Bing de Microsoft empezó a llamarse Sydney y a declarar amor a periodistas. En 2024, Gemini se hizo viral por generar imágenes históricamente imposibles. En 2025, Grok tuvo varios episodios que mejor no recordar. Cada vez que un modelo se pasa de simpático o de oscuro, el equipo de producto tiene que volver al system prompt y añadir una regla nueva.

La lista de criaturas vetadas de Codex es la versión madura de ese aprendizaje. OpenAI ya no espera a que el modelo meta la pata, lo previene por escrito. Y lo hace con un nivel de detalle que da una pista del volumen de feedback que reciben: alguien, en algún cliente enterprise, vio un goblin donde no tocaba y levantó el teléfono.

Publicidad

¿Es esto censura o es buen criterio de producto? Yo me inclino por lo segundo. Un agente que programa para tu empresa no necesita personalidad de Reddit. Necesita que no rompa nada y que no te haga pasar vergüenza en una code review. La pregunta interesante es la siguiente: ¿cuántas reglas absurdas más hay en ese system prompt que aún no han salido a la luz? La próxima keynote de OpenAI puede dar pistas.

Hype-O-Meter

Nivel de hype: 6/10. No es noticia de producto, es noticia de cocina interna, y por eso mola. Confirma que entrenar un agente serio es 30% modelo y 70% lista interminable de 'no hagas esto'. La industria se está volviendo aburrida — y eso, para producción, es buenísima señal.

El resumen para vagos (TL;DR)

  • 🎯 ¿Qué ha pasado? Las instrucciones internas de Codex prohíben mencionar goblins, mapaches, troles, ogros, gremlins y palomas salvo que sea totalmente relevante.
  • 🔥 ¿Por qué importa? Revela cuánto trabajo manual hay detrás de cada agente serio: domesticar el tono es casi tan difícil como entrenar el modelo.
  • 🤔 ¿Nos afecta o es solo un meme? Si usas Codex en tu curro, tranquilo: ya no te dirá que tu legacy code tiene goblins. Aunque los tenga.