15 de mayo de 2026
SubQ ha entrado en escena con una promesa enorme: romper una de las limitaciones históricas de los modelos de lenguaje. Su propuesta pasa por una arquitectura totalmente subcuadrática que permitiría manejar contextos mucho más largos con un coste muy inferior.
La promesa de SubQ
La compañía Subquadratic presenta SubQ como un modelo capaz de escalar el contexto de forma mucho más eficiente que los transformers tradicionales. Según su anuncio, SubQ 1M-Preview utiliza una arquitectura en la que el coste computacional crece de forma lineal con la longitud del contexto.
Medios como SiliconANGLE recogen que la startup ha salido de modo sigiloso con 29 millones de dólares de financiación y una promesa de ventanas de contexto de hasta 12 millones de tokens.
Por qué importa el contexto largo
Un contexto más amplio permitiría trabajar con libros completos, grandes repositorios de código, documentación empresarial, bases legales o historiales de proyecto sin trocear la información. Eso puede cambiar el uso profesional de la IA, especialmente en programación, análisis documental y agentes empresariales.
El punto crítico es el coste. Los modelos actuales pueden manejar contextos grandes, pero hacerlo es caro y lento. Si SubQ reduce de verdad esa fricción, podría abrir una nueva etapa.
Cautela antes del hype
La historia de la IA está llena de demos espectaculares que tardaron años en convertirse en producto real, o que nunca llegaron. Por ahora, SubQ necesita pruebas independientes, acceso amplio y benchmarks reproducibles.
La noticia es relevante no porque el cambio esté garantizado, sino porque apunta a una dirección clara: el futuro de los LLM no dependerá solo de más parámetros, sino de arquitecturas más eficientes.
Ampliación: el problema técnico que SubQ intenta resolver
Los transformers han dominado la inteligencia artificial moderna desde 2017 gracias al mecanismo de atención. Su gran virtud es que permiten relacionar elementos distantes dentro de un texto, pero esa potencia tiene un coste: a medida que crece el contexto, el cálculo necesario aumenta de forma muy agresiva.
En términos simples, cuanto más texto metes, más relaciones internas tiene que mirar el modelo. Eso hace que las ventanas de contexto largas sean caras, lentas y difíciles de escalar. Por eso una arquitectura realmente subcuadrática sería importante: permitiría manejar mucha más información sin que el coste se dispare al mismo ritmo.
Qué usos abriría un contexto de millones de tokens
Una ventana de 12 millones de tokens permitiría cargar documentación corporativa completa, bases legales, años de emails, historiales médicos extensos, repositorios gigantes o bibliotecas técnicas sin depender tanto de sistemas RAG externos. En teoría, el modelo podría razonar sobre todo el material dentro de una misma sesión.
Para empresas, eso sería muy atractivo. Muchos proyectos de IA fallan no porque el modelo sea débil, sino porque no tiene contexto suficiente o porque la información llega fragmentada. Un contexto masivo reduce esa fricción y simplifica flujos de trabajo.
Por qué no basta con tener más contexto
El contexto largo no garantiza comprensión. Un modelo puede aceptar millones de tokens y aun así perder detalles, ignorar información relevante o fallar en recuperación precisa. Por eso las pruebas tipo “needle in a haystack” son útiles, pero no suficientes. Encontrar una frase escondida no es lo mismo que razonar correctamente sobre miles de documentos contradictorios.
También está el problema de producto: aunque el modelo sea eficiente, los usuarios necesitan interfaces, herramientas, privacidad, control de permisos y costes previsibles. La arquitectura es solo una parte del camino.
La señal estratégica
SubQ refleja una tendencia mayor: el sector busca alternativas al transformer puro. Mamba, modelos de estado, atención dispersa, arquitecturas híbridas y técnicas de compresión intentan resolver el mismo cuello de botella. No está claro cuál ganará, pero sí parece claro que la próxima generación de IA no será solo “más grande”. Tendrá que ser más eficiente.
La noticia, por tanto, debe leerse con cautela y curiosidad. Si SubQ cumple, puede cambiar el mercado. Si no, seguirá siendo una señal de hacia dónde empuja la investigación: contexto más largo, inferencia más barata y modelos más prácticos para trabajo real.