Claude Mythos, el nuevo modelo de inteligencia artificial desarrollado por Anthropic, no llegará al público general. Según informó EFE, sus capacidades de análisis, programación y detección de vulnerabilidades son tan avanzadas que la empresa decidió restringirlo por considerarlo un riesgo para la seguridad global.
Cómo funciona Claude Mythos: la inteligencia artificial que detecta fallos que los humanos no ven
Claude Mythos es la inteligencia artificial de Anthropic capaz de detectar fallos invisibles para humanos y sistemas. Una tecnología que redefine el hackeo

Claude Mythos, el nuevo modelo de inteligencia artificial desarrollado por Anthropic, no llegará al público general.
En lugar de un lanzamiento abierto, Anthropic creó el Proyecto Glasswing, una red de defensa tecnológica que reúne a más de 40 organizaciones estratégicas —entre ellas Amazon, Apple, Google, Microsoft, Nvidia, JPMorgan y la Linux Foundation— para usar esta IA de forma controlada.
Claude Mythos, el nuevo modelo de inteligencia artificial desarrollado por Anthropic, no llegará al público general.
Recomendadas
Cómo funciona Claude Mythos
Durante las pruebas internas, Claude Mythos mostró una capacidad inédita: detectar fallos de seguridad sin intervención humana, más allá de recibir un simple prompt. Según EFE, el modelo es capaz de:
- Analizar sistemas operativos completos.
- Revisar bibliotecas de software con millones de líneas de código.
- Identificar vulnerabilidades que han pasado décadas sin ser descubiertas.
Entre los hallazgos más sorprendentes:
- Detectó una vulnerabilidad en OpenBSD que llevaba 27 años oculta.
- Encontró un fallo en FFmpeg que no había sido descubierto tras cinco millones de pruebas automáticas en 16 años.
Anthropic explicó que Mythos logra “eludir décadas de revisiones humanas y millones de tests automatizados”, lo que marca un salto cualitativo en la tecnología de ciberseguridad.
El poder detrás del modelo de inteligencia artificial
Los datos de rendimiento de Claude Mythos superan todo lo visto hasta ahora:
- 93,9 % en SWE-bench Verified (resolución de bugs).
- 97,6 % en las olimpiadas matemáticas USAMO.
Para comparar: los modelos punteros de hace apenas unos meses rondaban el 42 % en estas pruebas. Este salto explica por qué Anthropic decidió limitar su acceso: una IA con esta capacidad podría ser usada para hackeo masivo si cayera en manos equivocadas.
Reacciones del mercado y alerta institucional
El anuncio tuvo un impacto inmediato en Wall Street. Según EFE, empresas de ciberseguridad como CrowdStrike y Palo Alto Networks cayeron entre un 5 % y un 11 %, ante el temor de que una IA autónoma vuelva obsoletos los sistemas actuales. Sin embargo, ambas compañías forman parte del Proyecto Glasswing, integrando ya esta tecnología en sus defensas.
La preocupación escaló al ámbito gubernamental. Bloomberg y CNBC informaron que Jerome Powell (Reserva Federal) y Scott Bessent (Tesoro de EE. UU.) se reunieron con los directores de los principales bancos para evaluar los riesgos que Mythos podría representar para el sistema financiero. La administración del presidente Donald Trump considera esta IA una prioridad de seguridad nacional.
¿Por qué importa cómo funciona Mythos?
Porque marca un antes y un después en la relación entre inteligencia artificial, seguridad digital y gobernanza tecnológica. Claude Mythos no solo detecta fallos: los anticipa, los analiza y los expone con una precisión que supera a equipos humanos y a sistemas automatizados.
Su funcionamiento plantea preguntas urgentes:
- ¿Cómo se regula una IA capaz de hackear mejor que cualquier atacante?
- ¿Qué significa para la infraestructura crítica que una sola tecnología pueda ver lo que nadie vio en décadas?
- ¿Estamos preparados para modelos que operan más allá del control humano directo?
Claude Mythos no es solo un avance: es una advertencia sobre el futuro de la tecnología y la ciberseguridad global. Entender cómo funciona esta IA es el primer paso para comprender el nuevo mapa del poder digital.