15 de mayo de 2026
La idea de una inteligencia artificial capaz de mejorar sus propios sistemas ha vuelto al centro del debate. Jack Clark, cofundador de Anthropic, ha estimado una probabilidad del 60% de que la automejora recursiva ocurra antes de finales de 2028.
Qué ha dicho Jack Clark
En una publicación recogida en X y por análisis como MindStudio, Clark afirma haber revisado cientos de fuentes públicas sobre el desarrollo de la IA antes de llegar a esa estimación. Su tesis es que los sistemas podrían estar cerca de participar de forma sustancial en su propio desarrollo.
No hablamos necesariamente de una IA mágica que se reescribe sola de la noche a la mañana. El escenario más plausible es más gradual: modelos capaces de acelerar investigación, generar experimentos, depurar código, entrenar variantes y mejorar pipelines de desarrollo.
Por qué 2028 preocupa
Dos años es un plazo extremadamente corto para preparar marcos de seguridad, auditoría, gobernanza y control. Si la IA empieza a mejorar la IA, la velocidad de avance puede dejar atrás a empresas, reguladores e incluso a los propios laboratorios.
La preocupación no es solo técnica. También es económica y política: quién controla esos sistemas, quién se beneficia y qué mecanismos existen para frenar despliegues peligrosos.
El punto clave: supervisión
La automejora no tiene por qué ser catastrófica. Puede acelerar ciencia, medicina, energía y productividad. Pero sin límites claros puede concentrar poder y crear riesgos difíciles de corregir después.
La discusión ya no pertenece solo a foros de seguridad. Está entrando en la conversación principal porque las capacidades de los modelos empiezan a hacerla plausible.
Ampliación: qué significa realmente “automejora recursiva”
La expresión automejora recursiva suena extrema, pero conviene aterrizarla. No necesariamente implica que una IA se despierte, rediseñe su propio cerebro y se vuelva incontrolable en minutos. Un escenario más realista es que sistemas de IA participen cada vez más en el ciclo de investigación y desarrollo de nuevos modelos.
Eso incluye escribir código de entrenamiento, diseñar experimentos, analizar resultados, proponer arquitecturas, optimizar hiperparámetros, generar datos sintéticos, buscar errores y automatizar partes del pipeline científico. Si esas tareas se aceleran, la mejora de modelos también se acelera.
Por qué 2028 es una fecha sensible
La fecha importa porque los sistemas institucionales se mueven despacio. Crear reguladores especializados, estándares técnicos, auditorías independientes y acuerdos internacionales puede llevar años. Si las capacidades llegan antes que las reglas, el sector repetirá el patrón habitual: desplegar primero y entender consecuencias después.
El pronóstico de Jack Clark no debe leerse como certeza, sino como señal de alarma cualificada. Viene de alguien que conoce de cerca la evolución de los laboratorios líderes y que ha trabajado en el cruce entre capacidades, seguridad y política tecnológica.
El riesgo de una aceleración desigual
Si la IA ayuda a construir mejor IA, quienes tengan más cómputo, datos y talento pueden despegar aún más rápido. Eso puede concentrar poder en pocos laboratorios y países. También puede reducir la capacidad de empresas pequeñas o instituciones públicas para auditar lo que ocurre.
El riesgo no es solo existencial o de ciencia ficción. Es también económico: una brecha enorme entre organizaciones que usan IA para acelerar investigación y organizaciones que siguen trabajando a velocidad humana.
Qué preparación tendría sentido
Las respuestas razonables pasan por evaluación continua, límites de permisos para agentes, trazabilidad, pruebas externas, protocolos de apagado, control de acceso a modelos peligrosos y cooperación internacional. También por formar a reguladores y jueces, porque muchas decisiones críticas terminarán siendo legales y políticas.
La automejora puede traer avances científicos enormes. Pero cuanto más transformadora sea una tecnología, menos sentido tiene desplegarla sin cinturón de seguridad.