La irrupción de modelos de inteligencia artificial cada vez más avanzados comienza a tener efectos concretos en áreas críticas como la ciberseguridad. El caso más reciente es Claude Mythos, desarrollado por Anthropic, que según especialistas introduce un cambio de escala en la detección y potencial explotación de vulnerabilidades digitales.
En diálogo con CRÓNICAS, la CEO de Sabyk y especialista en ciberseguridad, Marcela Mercapidez, sostuvo que este desarrollo “cambia las reglas del juego”, no solo por su potencia técnica, sino por la decisión inédita de la compañía de no comercializarlo. “Es la primera vez que un laboratorio de IA desarrolla un producto funcional y opta por no publicarlo por el riesgo que podría generar”, afirmó.
El modelo se destaca por su capacidad de razonamiento lógico y generación de código, lo que le permite identificar fallas con una eficacia muy superior a la de sistemas anteriores. En pruebas estándar, alcanzó un rendimiento del 93,9%, pero el impacto más relevante se observó en entornos reales: en dos semanas de trabajo logró detectar vulnerabilidades críticas en infraestructuras ampliamente utilizadas.
Entre los casos identificados se incluyen fallas que llevaban décadas sin ser descubiertas en sistemas como OpenBSD, FreeBSD y FFmpeg, lo que da cuenta del alcance del modelo. “El tiempo entre que se descubre una vulnerabilidad y se convierte en un arma de ataque ha colapsado de años a horas”, advirtió la especialista, citando evaluaciones recientes del sector.
Uno de los principales desafíos que introduce esta tecnología es su naturaleza dual. Las mismas capacidades que permiten corregir errores con precisión pueden ser utilizadas para diseñar ataques altamente sofisticados.
Mercapidez explicó que, en manos equivocadas, herramientas de este tipo podrían “automatizar el hackeo a escala industrial”, reduciendo la dependencia de equipos humanos especializados. A esto se suma un factor adicional: el comportamiento no completamente determinístico de estos sistemas.
“No es que tengan voluntad, pero operan en un espacio probabilístico donde el comportamiento puede variar”, señaló. En contextos críticos como la ciberseguridad, esto introduce un nivel de incertidumbre que no encaja en los modelos tradicionales de gestión de riesgos.
Frente a este escenario, Anthropic impulsó el proyecto Glasswing, una coalición que reúne a más de 40 organizaciones para identificar y mitigar vulnerabilidades antes de que puedan ser explotadas. Entre los participantes figuran gigantes tecnológicos como Google, Microsoft, Amazon, Apple y Nvidia, así como actores clave en ciberseguridad como CrowdStrike, Cisco y Palo Alto Networks. También participan la Linux Foundation, en representación del ecosistema open source, y JPMorgan Chase por el sector financiero.
Sin embargo, la situación sigue siendo delicada. Según la información disponible, muchas de las vulnerabilidades detectadas aún no han sido corregidas, lo que abre una ventana de riesgo significativa para infraestructuras críticas a nivel global.
El impacto ya comenzó a escalar a nivel institucional. Autoridades económicas de Estados Unidos convocaron a bancos para evaluar los riesgos, mientras que la propia empresa mantiene coordinación con agencias gubernamentales en materia de seguridad nacional.
Más allá del plano técnico, el desarrollo de este tipo de modelos plantea interrogantes de fondo sobre gobernanza y poder. “La inteligencia artificial dejó de ser solo una herramienta para convertirse en una infraestructura de poder”, sostuvo la entrevistada.
En ese sentido, advirtió que la competencia por el desarrollo de estas tecnologías —particularmente entre Estados Unidos y China— comienza a asemejarse a una dinámica estratégica comparable a otras carreras tecnológicas de alto impacto.
Para la especialista, el debate no debería centrarse en frenar el avance, sino en cómo gestionarlo. “El verdadero desafío es gobernar la inteligencia artificial. No se trata de incorporarla porque es tendencia, sino de entender qué problemas resuelve, qué riesgos introduce y qué capacidades se necesitan para gestionarla”, afirmó.
En ese nuevo escenario, concluyó, la ventaja no estará únicamente en quién desarrolle primero estas herramientas, sino en quién logre comprenderlas y controlarlas antes de que sus efectos se vuelvan inmanejables.