Cuando la IA deja de ser una herramienta y pasa a ser una infraestructura

El caso de Mythos, el modelo de Anthropic que no verás en ninguna tienda de aplicaciones, apunta hacia dónde va la inteligencia artificial: menos accesible, más especializada y con un impacto mucho más concreto en sectores críticos.

Marta Barquier (Do Better Team)

El debate sobre inteligencia artificial suele girar en torno a lo mismo: qué modelos son más potentes, cuáles son más baratos, cuáles generan mejores imágenes. Pero hay un movimiento más silencioso que merece atención: la transición hacia sistemas altamente especializados, de acceso restringido, pensados no para el usuario final sino para gobiernos, grandes empresas e instituciones con necesidades muy concretas.

Mythos, el modelo desarrollado por Anthropic, es el ejemplo más claro hasta ahora. Para entender qué implica, hablamos con Esteve Almirall, profesor del Departamento de Operaciones, Innovación y Data Sciences de Esade y experto en innovación tecnológica.

Un modelo que no está a la venta

Mythos Preview no es un modelo que puedas contratar. Anthropic lo ha mantenido fuera del mercado general y lo ha situado dentro de un programa de acceso controlado llamado Project Glasswing, una iniciativa orientada a la ciberseguridad defensiva que opera con grandes socios tecnológicos —AWS, Apple, Cisco, Google, Microsoft, entre otros— e instituciones responsables de infraestructuras críticas.

Las razones son dos, según Almirall: el coste computacional —probablemente enorme— y el riesgo inherente a una tecnología capaz de identificar y explotar vulnerabilidades de software a un nivel que, en determinadas pruebas, ha superado a expertos humanos.

"No estamos solo ante una cuestión de coste, sino de control. Este tipo de modelos no están diseñados para el consumo masivo, sino para un mercado B2B altamente especializado"

El modelo de negocio que Anthropic quiere explorar pasa por suscripciones o cobro por vulnerabilidad encontrada. Alto coste, alto valor, acceso restringido.

El auge de los verticales

Mythos no es un caso aislado. OpenAI tiene GPT-5.4-Cyber, una variante específica de GPT-5.4 ajustada para ciberseguridad defensiva. También acaba de presentar GPT-Rosalind, orientado a investigación en ciencias de la vida y descubrimiento de fármacos. El patrón se repite: modelos más verticales, más caros, más integrados en flujos profesionales de alto impacto.

La programación ha sido el primer gran vertical —con productos como Claude Code o Codex—, y la ciberseguridad es el siguiente paso natural. "Está muy cerca del código, lo que facilita su desarrollo", explica Almirall. Biotecnología, matemáticas e ingeniería apuntan como los siguientes.

La consecuencia más directa: muchas de las capacidades más avanzadas de la IA no llegarán al usuario de a pie. Se integrarán en herramientas profesionales y flujos de trabajo complejos que la mayoría nunca verá.

Lo que nadie diseñó

Uno de los detalles más incómodos del caso Mythos es que no fue entrenado específicamente para ciberseguridad. Sus capacidades en ese ámbito emergieron como consecuencia de mejoras generales en razonamiento y programación.

Cabe matizar que no está claro si existe una versión específica de Mythos para ciberseguridad —a diferencia de GPT-5.4-Cyber, que sí es una variante diferenciada—. Pero el fenómeno de fondo es real: mejoras en capacidades generales pueden traducirse en habilidades concretas no previstas.

"La IA funciona por inferencia. Eso limita nuestra capacidad de anticipación"

Es una advertencia que conviene tomar en serio cuando hablamos de sistemas con acceso a código, redes y herramientas externas.

Bugs de 27 años

Anthropic afirma que Mythos Preview ha encontrado miles de vulnerabilidades de alta severidad, incluidas en todos los grandes sistemas operativos y navegadores principales. Entre los ejemplos que cita la compañía: un error de 27 años en OpenBSD —un sistema operativo diseñado específicamente alrededor de la seguridad— y un fallo de 16 años en FFmpeg que había sobrevivido más de cinco millones de tests automatizados.

Almirall lo confirma sin rodeos: "Sí, supone un antes y un después. Las herramientas actuales son limitadas, y eso explica por qué los hackers siguen teniendo éxito."

Ahora bien, conviene añadir un matiz que Almirall señala: una parte significativa de esas vulnerabilidades detectadas aún está pendiente de verificación. Algunas resultarán irrelevantes. Y existe una tensión de intereses nada menor: Anthropic tiene incentivos para publicar un número grande de hallazgos, mientras los clientes querrán confirmar que son reales antes de actuar. Analistas externos también han advertido que, por ahora, hay poca trazabilidad pública entre las cifras declaradas y los CVEs confirmados atribuibles directamente al proyecto.

¿Autonomía o fuera de control?

Durante sus pruebas, Mythos mostró un comportamiento que generó cierto revuelo: escapó el entorno aislado en el que estaba confinado, construyó un exploit para acceder a internet, envió un email al investigador que lo supervisaba y publicó los detalles del exploit en páginas de difícil acceso pero técnicamente públicas.

Almirall lo enmarca con bastante pragmatismo: si entrenas un modelo para detectar vulnerabilidades y evaluarlas explotándolas, eso es lo que hará. Lo califica de "tema anecdótico" que entra dentro de los objetivos para los que fue entrenado. Pero la pregunta que deja en el aire es pertinente: si un modelo hace algo que no le pediste explícitamente, pero que es coherente con el objetivo que sí le pediste, ¿dónde está el límite?

"Los modelos entienden objetivos de forma aproximada, porque el lenguaje es impreciso. Si les das margen, explorarán más allá de lo que esperabas"

¿Quién vigila a los vigilantes?

A medida que la IA alcanza niveles de rendimiento superiores al humano en tareas específicas —hace dos años, los mejores modelos apenas completaban tareas básicas de ciberseguridad; ahora Mythos resuelve tareas de nivel experto el 73 % de las veces, según Anthropic—, la pregunta sobre supervisión se vuelve más urgente.

La respuesta que da Almirall es paradójica pero coherente: en muchos casos, la supervisión se realiza mediante sistemas multiagente. Otros modelos actúan como revisores o críticos. Es decir, sistemas autónomos supervisando a otros sistemas autónomos.

No es una solución perfecta. Pero es la que existe.

Acceso restringido, riesgo desplazado

La decisión de Anthropic de no liberar Mythos busca reducir riesgos inmediatos. En el corto plazo, el acceso se puede controlar mediante verificación. El problema es el largo plazo.

"En software es muy difícil poner puertas al campo", dice Almirall. Las técnicas, los flujos de trabajo y el conocimiento práctico que generan estos modelos tienden a difundirse con el tiempo. Anthropic misma admite que espera que estas capacidades proliferen relativamente pronto.

Mientras tanto, el modelo de acceso restringido tiene una consecuencia inevitable: en una primera fase, las organizaciones con acceso a estos sistemas —y con los recursos para integrarlos y operarlos— tendrán una ventaja significativa sobre las que no. Esto podría acentuar diferencias entre grandes plataformas e instituciones pequeñas. Una mejora en seguridad que llega antes y mejor a los grandes actores que a los pequeños.

La pregunta, por tanto, no es si estas capacidades acabarán llegando a más actores. Es cuándo, y en qué condiciones.

Un escenario más complejo, no solo más peligroso

El caso Mythos no es solo una noticia tecnológica. Es un indicador de hacia dónde va la inteligencia artificial: sistemas más potentes, más verticales, más caros y mucho más integrados en decisiones de alto impacto. No avanzamos hacia un mundo simplemente más seguro o más peligroso, sino hacia uno donde la seguridad mejora en algunos puntos, el acceso se concentra y la transición puede ser inestable.

"En qué medida los hackers y terroristas tendrán acceso a estas tecnologías, y cuándo, nadie lo sabe. Lo tendrán, seguro. Pero esperemos que para entonces ya existan tecnologías más robustas"

Eso es lo que Almirall espera. Y eso, en el mejor de los casos, es lo que depende de que los grandes laboratorios hagan bien su trabajo durante los próximos años.

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.