Jack Clark, cofundador de Anthropic, lleva meses con una idea en la cabeza que él mismo admite que es incómoda: la IA va a construir su propia sucesora sin humanos antes de 2030. Y lo dice mirando datos, no echando las cartas.
La tesis aparece en su blog personal y se sostiene en algo muy concreto: la curva de capacidad de los modelos para escribir, revisar y depurar código se ha vuelto vertical. Si los sistemas ya hacen ingeniería de software a nivel humano, automatizar la propia investigación de IA es el siguiente paso lógico. Inquietante, sí. Sorprendente a estas alturas, no tanto.
Lo que dicen los datos: SWE-Bench y la curva imposible
El argumento de Clark se apoya en dos benchmarks que conviene mirar despacio. El primero es SWE-Bench, una prueba que mide cuánto resuelve una IA de los issues reales abiertos en repositorios de GitHub. Claude 2 sacaba un 2% en 2023 y los modelos recientes rozan el 94%. Eso no es mejorar, eso es cambiar de liga.
El segundo dato lo aporta METR, una organización que mide cuánto tardaría un ingeniero humano en hacer lo mismo que ya resuelve un modelo de forma autónoma. En 2022 hablábamos de tareas de 30 segundos. En lo que va de 2026 el listón está en torno a las 12 horas, y podría llegar a las 100 antes de cerrar el año. Para que te hagas una idea: pasamos de pedirle a la IA que cambie el color de un botón a encargarle el sprint entero.
El salto cualitativo que describe Clark va más allá del código suelto. Los sistemas están empezando a gestionar a otros sistemas: unos modelos actúan como directores, otros como críticos, otros como ingenieros de a pie. Lo llama equipos sintéticos, y replica la estructura clásica de un laboratorio humano. Sin café ni reuniones eternas, eso sí.
OpenAI y Anthropic ya están en ese juego
Esto no es ciencia ficción de pizarra. Sam Altman dijo hace meses que OpenAI quiere tener un 'becario de investigación en IA' funcionando en septiembre de 2026 y un investigador completo para marzo de 2028, con cientos de miles de GPUs detrás. Su frase exacta: 'en 2026 esperamos pequeños descubrimientos; en 2028, grandes proyectos'. La propia Anthropic confirmó hace unas semanas que trabaja en investigadores de alineación automatizados, lo cual es básicamente lo mismo pero con la promesa añadida de no salir mal.
El detalle que mucha gente está pasando por alto: si la IA empieza a influir en su propio entrenamiento, los errores no se quedan quietos. Se acumulan generación tras generación. Es un poco como pedirle a alguien que se autoevalúe la nómina. Lo que puede salir bien es limitado.
Tres consecuencias y una sospecha incómoda
Aquí es donde la cosa se pone seria. Clark identifica tres efectos si la predicción se cumple. Uno: alineación. Un sistema que se entrena a sí mismo arrastra sus propios sesgos hacia la siguiente versión, y nadie tiene un manual claro de cómo cortar esa cadena. Dos: economía. Todo lo que toca la IA recibe un multiplicador de productividad, así que la pregunta inevitable es quién posee ese multiplicador. Spoiler: no tú. Tres: empleo. Empresas con mucho capital y pocas personas en la plantilla, un escenario que ya estamos viendo asomar en startups de cinco fundadores facturando como una multinacional.
Conviene comparar esto con la promesa de la singularidad que se vendía hace una década, cuando Kurzweil hablaba de 2045 como año mágico. Aquello sonaba a manifiesto de feria. Lo de Clark suena distinto porque viene con benchmarks, fechas internas de OpenAI y proyectos activos en Anthropic. La diferencia entre profecía y plan de producto es que el segundo tiene calendario. Y este lo tiene.
El propio Clark se pone freno: la investigación científica buena requiere creatividad heterodoxa, ese tipo de chispa que conecta dos campos lejanos, y los modelos actuales no la tienen de forma consistente. No pasará en 2026. Pero la pendiente está dibujada. Si esto se cumple a medias, ya cambia el sector. Si se cumple del todo, cambia algo más grande. Más contexto sobre el concepto en su entrada de Wikipedia sobre la singularidad tecnológica.
Hype-O-Meter
Nivel de hype: 8/10. No es una predicción de café: viene con curvas de SWE-Bench, datos de METR y hojas de ruta firmadas por Altman y Anthropic. Resta medio punto porque la creatividad científica de verdad sigue siendo el muro contra el que tropiezan los modelos — pero la pendiente la dibuja sola.
El resumen para vagos (TL;DR)
- 🎯 ¿Qué ha pasado? Jack Clark, cofundador de Anthropic, dice que una IA podría desarrollar su propia sucesora sin humanos antes de 2030.
- 🔥 ¿Por qué importa? Los benchmarks de código pasaron del 2% al 94% en tres años y OpenAI ya tiene fecha para su 'investigador automatizado'.
- 🤔 ¿Nos afecta o es solo un meme? Afecta: alineación, empleo y concentración de capital se mueven a la vez. Y muy rápido.




