Sociedad
Anthropic lanzó el modelo de IA más poderoso que se ha hecho público
Una IA capaz de hackear a gran escala pone en riesgo la seguridad digital y su creador decidió no comercializarla
El lanzamiento de Claude Mythos por parte de Anthropic introdujo un nuevo escenario en la ciberseguridad internacional. Con capacidades inéditas para detectar vulnerabilidades en sistemas críticos, el modelo no fue liberado al público debido a los riesgos asociados a su potencial uso malicioso. Para la especialista Marcela Mercapidez, este hito marca un cambio estructural en la forma en que se entiende la seguridad digital, la competencia tecnológica y el equilibrio de poder a nivel global.
Fecha de publicación: 30/04/2026
Compartí esta nota
Por:
Redacción

La irrupción de modelos de inteligencia artificial cada vez más avanzados comienza a tener efectos concretos en áreas críticas como la ciberseguridad. El caso más reciente es Claude Mythos, desarrollado por Anthropic, que según especialistas introduce un cambio de escala en la detección y potencial explotación de vulnerabilidades digitales.

En diálogo con CRÓNICAS, la CEO de Sabyk y especialista en ciberseguridad, Marcela Mercapidez, sostuvo que este desarrollo “cambia las reglas del juego”, no solo por su potencia técnica, sino por la decisión inédita de la compañía de no comercializarlo. “Es la primera vez que un laboratorio de IA desarrolla un producto funcional y opta por no publicarlo por el riesgo que podría generar”, afirmó.

El modelo se destaca por su capacidad de razonamiento lógico y generación de código, lo que le permite identificar fallas con una eficacia muy superior a la de sistemas anteriores. En pruebas estándar, alcanzó un rendimiento del 93,9%, pero el impacto más relevante se observó en entornos reales: en dos semanas de trabajo logró detectar vulnerabilidades críticas en infraestructuras ampliamente utilizadas.

Entre los casos identificados se incluyen fallas que llevaban décadas sin ser descubiertas en sistemas como OpenBSD, FreeBSD y FFmpeg, lo que da cuenta del alcance del modelo. “El tiempo entre que se descubre una vulnerabilidad y se convierte en un arma de ataque ha colapsado de años a horas”, advirtió la especialista, citando evaluaciones recientes del sector.

Autonomía y riesgo a escala

Uno de los principales desafíos que introduce esta tecnología es su naturaleza dual. Las mismas capacidades que permiten corregir errores con precisión pueden ser utilizadas para diseñar ataques altamente sofisticados.

Mercapidez explicó que, en manos equivocadas, herramientas de este tipo podrían “automatizar el hackeo a escala industrial”, reduciendo la dependencia de equipos humanos especializados. A esto se suma un factor adicional: el comportamiento no completamente determinístico de estos sistemas.

“No es que tengan voluntad, pero operan en un espacio probabilístico donde el comportamiento puede variar”, señaló. En contextos críticos como la ciberseguridad, esto introduce un nivel de incertidumbre que no encaja en los modelos tradicionales de gestión de riesgos.

Impacto global y respuesta coordinada

Frente a este escenario, Anthropic impulsó el proyecto Glasswing, una coalición que reúne a más de 40 organizaciones para identificar y mitigar vulnerabilidades antes de que puedan ser explotadas. Entre los participantes figuran gigantes tecnológicos como Google, Microsoft, Amazon, Apple y Nvidia, así como actores clave en ciberseguridad como CrowdStrike, Cisco y Palo Alto Networks. También participan la Linux Foundation, en representación del ecosistema open source, y JPMorgan Chase por el sector financiero.

Sin embargo, la situación sigue siendo delicada. Según la información disponible, muchas de las vulnerabilidades detectadas aún no han sido corregidas, lo que abre una ventana de riesgo significativa para infraestructuras críticas a nivel global.

El impacto ya comenzó a escalar a nivel institucional. Autoridades económicas de Estados Unidos convocaron a bancos para evaluar los riesgos, mientras que la propia empresa mantiene coordinación con agencias gubernamentales en materia de seguridad nacional.

Una nueva lógica de poder 


Más allá del plano técnico, el desarrollo de este tipo de modelos plantea interrogantes de fondo sobre gobernanza y poder. “La inteligencia artificial dejó de ser solo una herramienta para convertirse en una infraestructura de poder”, sostuvo la entrevistada.

En ese sentido, advirtió que la competencia por el desarrollo de estas tecnologías —particularmente entre Estados Unidos y China— comienza a asemejarse a una dinámica estratégica comparable a otras carreras tecnológicas de alto impacto.

Para la especialista, el debate no debería centrarse en frenar el avance, sino en cómo gestionarlo. “El verdadero desafío es gobernar la inteligencia artificial. No se trata de incorporarla porque es tendencia, sino de entender qué problemas resuelve, qué riesgos introduce y qué capacidades se necesitan para gestionarla”, afirmó.

En ese nuevo escenario, concluyó, la ventaja no estará únicamente en quién desarrolle primero estas herramientas, sino en quién logre comprenderlas y controlarlas antes de que sus efectos se vuelvan inmanejables.

De estos temas se habla en esta nota
Ciberseguridad
Estos personajes aparecen en esta nota
Marcela Mercapidez
Claude Mythos
Buenos Aires 484, CP 11000, Montevideo, Uruguay
Copyright (c) 2026 Crónicas Económicas. Todos los derechos reservados.