Pues sí, ha pasado. Elon Musk ha admitido bajo juramento que xAI utilizó modelos de OpenAI para entrenar Grok, y lo ha soltado con la naturalidad de quien comenta el tiempo. Ocurrió durante el juicio que mantiene contra Sam Altman, ese culebrón judicial que lleva meses dando titulares jugosos.
La declaración es gorda por varios motivos. Musk lleva años acusando a OpenAI de haber traicionado su misión original, de haberse vendido a Microsoft y de operar como una empresa cualquiera disfrazada de ONG. Y ahora resulta que su propia compañía, xAI, se nutrió de los modelos de OpenAI para entrenar a Grok. La ironía se sirve fría.
Qué es eso de destilar un modelo y por qué importa
La destilación es una técnica conocida en el mundo de los LLM: básicamente, usas un modelo grande y potente como 'profesor' para entrenar a otro más pequeño que aprende a imitar sus respuestas. Es eficiente, es barato y, según con quién hables, puede ser legítimo o un atajo bastante feo.
El problema llega cuando los términos de servicio del modelo profesor prohíben expresamente usar sus salidas para entrenar modelos competidores. Y eso es exactamente lo que dicen los términos de uso de OpenAI: nada de usar ChatGPT para construir productos rivales. Spoiler: Grok compite con ChatGPT.
Musk, según ha recogido la cobertura del caso, defendió que esta práctica está extendida en toda la industria. Que todos lo hacen. El clásico 'si todos saltan del puente'.
El detalle que todo el mundo está pasando por alto
Aquí viene lo interesante. DeepSeek fue acusada exactamente de lo mismo a principios de 2025, y entonces Silicon Valley se rasgó las vestiduras: que si robo de propiedad intelectual, que si competencia desleal, que si China otra vez. Pero cuando el acusado se llama Elon y lleva camiseta de SpaceX, la conversación se relaja un poco.
No es la primera vez que la industria de la IA se enfrenta a esta contradicción. Los modelos grandes se entrenaron con medio internet sin pedir permiso a nadie, y ahora protegen sus salidas como si fueran la fórmula de la Coca-Cola. Hay un punto de hipocresía estructural que el caso Musk-Altman pone encima de la mesa, lo quieran o no.
Lo que esto cambia para la guerra de las IAs
El precedente que se podría sentar aquí es serio. Si un tribunal estadounidense dictamina que destilar modelos competidores constituye una violación contractual sancionable, media industria tiene un problema. Porque seamos sinceros: prácticamente todos los modelos open source recientes han mirado de reojo a GPT-4 en algún momento de su entrenamiento.
Recuerdo el escándalo Stability AI cuando se filtraron correos internos hablando de 'aprender' de modelos cerrados, o el caso Anthropic vs Google sobre uso indebido de datos de entrenamiento. La industria de la IA tiene un problema cultural con la propiedad intelectual: cuando le interesa, todo es fair use; cuando le tocan a ella, todo es robo.
Lo que viene ahora depende mucho del juez. Si Altman consigue tirar adelante esta línea de argumentación, xAI podría enfrentarse a una indemnización jugosa y, sobre todo, a un precedente que afectaría a Grok 4 y siguientes. Si el caso se resuelve con un acuerdo extrajudicial — que es lo más probable, todo sea dicho — , nos quedaremos con la admisión pública y poco más. Pero la admisión ya ha quedado grabada.
Hype-O-Meter
Nivel de hype: 8/10. No es un lanzamiento ni una keynote, pero el salseo judicial entre los dos egos más grandes de Silicon Valley con admisión incluida bajo juramento es oro puro. La industria entera está tomando notas — y abogados.
El resumen para vagos (TL;DR)
- 🎯 ¿Qué ha pasado? Musk admitió bajo juramento que xAI usó modelos de ChatGPT para entrenar Grok.
- 🔥 ¿Por qué importa? Viola los términos de OpenAI y sienta precedente para media industria de IA.
- 🤔 ¿Nos afecta o es solo un meme? Si el juez se pone serio, las prácticas de entrenamiento de toda la industria entran en revisión.



