Google acaba de levantar la mano y decir 'sí, el Pentágono puede usar Gemini en operaciones clasificadas'. Y con eso, Anthropic se queda oficialmente sola en el club de los que dijeron que no.
El movimiento llega después de meses de presión, contratos millonarios y una carrera entre laboratorios de IA por hacerse un hueco en el negocio más jugoso del momento: el Departamento de Defensa de Estados Unidos. OpenAI, xAI y ahora Google ya tienen luz verde para misiones militares. Anthropic, fundada precisamente por exempleados de OpenAI que se fueron preocupados por la seguridad, sigue resistiendo. La pregunta es cuánto va a aguantar.
Qué ha autorizado exactamente Google
Google ha actualizado sus condiciones de uso para permitir el despliegue de Gemini en entornos clasificados del Pentágono. Esto incluye operaciones que antes quedaban fuera del perímetro ético de la empresa, como aplicaciones directamente vinculadas a defensa nacional y tareas de inteligencia.
El cambio no es menor. Google llevaba años marcando distancia con el ejército desde el famoso episodio del Proyecto Maven en 2018, cuando miles de empleados firmaron una carta interna pidiendo cancelar el contrato con el Departamento de Defensa. La compañía cedió entonces. Ahora, con la fiebre de la IA generativa y los billones que mueve el sector defensa, la postura ha cambiado.
OpenAI fue la primera en romper la baraja a finales de 2024 al modificar sus políticas para permitir usos militares. xAI, la empresa de Elon Musk, firmó su propio acuerdo poco después. Y ahora Google. El mapa de alianzas tech-militar ha cambiado por completo en menos de dos años.
Por qué Anthropic se queda sola y qué le pasa por dentro
Anthropic es el caso curioso. La empresa detrás de Claude se fundó con un mantra muy claro: hacer IA segura, alineada con valores humanos, con una obsesión casi religiosa por el riesgo existencial. Sus fundadores se fueron de OpenAI precisamente porque pensaban que ahí no se tomaban estas cosas suficientemente en serio.
Mantener esa coherencia tiene un coste. Mientras la competencia firma contratos clasificados de nueve cifras, Anthropic se queda fuera del banquete. Y aquí entra la propia política de uso aceptable de la compañía, que sigue prohibiendo aplicaciones militares y de armamento. La empresa no ha dado señales de querer cambiarla, pero la presión del mercado es real.
El asunto es gordo: si tus competidores entrenan sus modelos con feedback de operaciones reales del Pentágono, ¿no se quedan tus modelos atrás en capacidades muy específicas? Es la paradoja del laboratorio ético — querer ser el bueno mientras los otros corren con ventaja.
Lo que esto significa para el ecosistema de IA
Aquí está el patrón que conviene mirar con calma. En 2018, las big tech se replegaban ante las protestas internas por contratos militares. En 2026 firman sin que tiemble el pulso. Lo que ha cambiado no es la ética, es la geopolítica: con China acelerando su programa de IA militar y la administración estadounidense empujando para mantener la ventaja, las empresas que se nieguen quedan retratadas como obstáculo nacional. Es el mismo argumento que se usó con Microsoft y el contrato JEDI hace años.
La diferencia ahora es la velocidad. OpenAI, xAI y Google han caído en menos de dieciocho meses. A Anthropic le quedan dos opciones realistas: aguantar y vivir con menos contratos pero con la marca intacta, o ceder en algún momento con una versión 'matizada' de su política. La tercera opción — que el resto del sector dé marcha atrás — no va a pasar.
El próximo movimiento toca al consejo de Anthropic. Y a Dario Amodei, su CEO, que en cada entrevista repite que el riesgo existencial de la IA es real. A ver si se mantiene firme cuando el cheque sea suficientemente grande.
Por mientras, Gemini ya está en operaciones clasificadas. Cosas que pasan en 2026.
Hype-O-Meter
Nivel de hype: 6,5/10. No es un anuncio de producto sexy, pero el cambio estratégico es enorme: la última gran tech con coartada ética para no entrar en defensa acaba de entrar. El tablero se ha simplificado — y Anthropic es ahora el último mohicano (veremos cuánto dura).
El resumen para vagos (TL;DR)
- 🎯 ¿Qué ha pasado? Google permite al Pentágono usar Gemini en operaciones clasificadas, sumándose a OpenAI y xAI.
- 🔥 ¿Por qué importa? Anthropic se queda como única gran empresa de IA que rechaza usos militares — la presión va a ser brutal.
- 🤔 ¿Nos afecta o es solo un meme? Afecta: define quién entrena modelos con feedback militar real y quién no, y eso marca capacidades a medio plazo.



