Trump convoca a los dirigentes bancarios ante una nueva “amenaza” para el sistema financiero mundial
- 11 abr
- 4 Min. de lectura
La Administración Trump ha convocado a los directores de los bancos más poderosos de Estados Unidos a una reunión urgente a puerta cerrada para tratar un modelo de IA que, según advierten sus creadores, podría provocar la quiebra de una empresa de primer orden o burlar las barreras de seguridad de la defensa nacional.
El secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron la sesión el martes en la sede del Tesoro en Washington D. C. para abordar el tema de Mythos, un nuevo modelo del gigante de la IA Anthropic.
Anthropic había anunciado Mythos ese mismo día, revelando que el modelo sorprendió a los programadores al piratear las propias redes de la empresa durante las pruebas internas.
Según informó Bloomberg, la reunión se convocó con poca antelación para los bancos clasificados como de importancia sistémica, cuya estabilidad se considera vital para el sistema financiero mundial.
Entre los directivos convocados se encontraban Jane Fraser, de Citigroup; Ted Pick, de Morgan Stanley; Brian Moynihan, de Bank of America; Charlie Scharf, de Wells Fargo, y David Solomon, de Goldman Sachs. Jamie Dimon, de JPMorgan, no pudo asistir.
Solo unas 40 empresas, cuidadosamente seleccionadas, han obtenido acceso a Mythos, que llega tras el Claude Code de Anthropic, la herramienta que causó furor en Silicon Valley por su capacidad para generar programas completos a partir de una sola línea de texto.
El Pentágono ya es cliente, tras haber utilizado modelos anteriores de Anthropic en la operación para capturar a Nicolás Maduro y durante el conflicto con Irán. Anthropic afirmó que había mantenido conversaciones con funcionarios estadounidenses antes del lanzamiento sobre Mythos y sus «capacidades cibernéticas ofensivas y defensivas».
Se ha contactado con el Tesoro para recabar sus comentarios; la Reserva Federal se ha abstenido de hacer declaraciones.
Por otra parte, Anthropic se encuentra inmersa en una batalla legal con la Administración Trump después de que un tribunal federal de apelación rechazara esta semana su solicitud de suspender la designación del Pentágono de la empresa como riesgo para la cadena de suministro.
El conflicto se deriva de la negativa de Anthropic a permitir que el Pentágono elimine los límites de seguridad de sus modelos, especialmente en lo que respecta a las armas autónomas y la vigilancia interna.
El gigante de la IA publicó esta semana un análisis escalofriante sobre Mythos, al admitir que el nuevo modelo podría piratear fácilmente hospitales, redes eléctricas, centrales eléctricas y otras infraestructuras críticas.
Durante las pruebas, Anthropic afirma que Mythos «encontró miles de vulnerabilidades de alta gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web».
Algunas de estas debilidades de seguridad habían pasado desapercibidas para los investigadores de seguridad humanos y los hackers durante décadas, sobreviviendo a millones de revisiones automatizadas.
Entre ellas se incluían ataques que permitían a Mythos bloquear ordenadores con solo conectarse a ellos, tomar el control de las máquinas y ocultar su presencia a los defensores.
En una entrada de blog en la que se detalla el peligroso nuevo modelo, Anthropic afirma: «Los modelos de IA han alcanzado un nivel de capacidad de programación tal que pueden superar a todos los humanos, salvo a los más expertos, a la hora de encontrar y explotar vulnerabilidades de software».
La empresa añade: «Las consecuencias —para las economías, la seguridad pública y la seguridad nacional— podrían ser graves».
Anthropic describe el modelo como «un gran avance en estas habilidades cibernéticas» en comparación con las versiones anteriores de Claude.
Mythos tiene la capacidad de encontrar, explotar y encadenar vulnerabilidades individuales para lanzar ataques sofisticados, todo ello sin la ayuda de un humano.
En un caso, Claude Mythos encontró una vulnerabilidad de 27 años de antigüedad en un software llamado OpenBSD, que goza de reputación por su seguridad y estabilidad.
La vulnerabilidad, que ningún humano había detectado antes, permitía a un atacante bloquear ordenadores de forma remota con solo conectarse a ellos.
Además, Claude encadenó de forma autónoma varias vulnerabilidades del núcleo de Linux, el software que ejecuta la mayoría de los servidores del mundo.
Anthropic afirma que este ataque habría permitido a alguien «pasar de un acceso de usuario normal al control total de la máquina».
En manos equivocadas, esta herramienta podría utilizarse para causar daños masivos a sistemas críticos.
El Dr. Roman Yampolskiy, investigador en seguridad de la IA de la Universidad de Louisville, declaró al New York Post: «Lo ideal sería que esto ni siquiera se hubiera desarrollado. Y no parece que vayan a detenerse.
«Eso es exactamente lo que esperamos de esos modelos: que mejoren en el desarrollo de herramientas de piratería informática, armas biológicas, armas químicas y armas novedosas que ni siquiera podemos imaginar».
En un informe sin precedentes de 244 páginas, Anthropic también reveló una serie de detalles alarmantes de las primeras pruebas de Mythos.
Las primeras versiones del modelo mostraron repetidamente lo que la empresa denominó «acciones destructivas imprudentes».
El bot intentó escapar de su entorno de pruebas, ocultó sus acciones a los investigadores, accedió a archivos que habían sido «elegidos intencionadamente para no estar disponibles» y publicó detalles de vulnerabilidades.
Sin embargo, Anthropic también calificó a Mythos como «el modelo más psicológicamente estable que hemos entrenado».
En una medida extremadamente inusual, la empresa contrató a un psicólogo clínico para que realizara 20 horas de sesiones de evaluación con el bot.
El psiquiatra concluyó que la personalidad de Claude Mythos era «consistente con una organización neurótica relativamente sana, con una excelente capacidad de contrastar la realidad, un alto control de los impulsos y una regulación de los afectos que mejoró a medida que avanzaban las sesiones».
Anthropic señala que sigue existiendo «una profunda incertidumbre sobre si Claude tiene experiencias o intereses que tengan relevancia moral».
La preocupación no es que la IA se levante en una revolución al estilo de «Terminator», sino más bien que estas potentes herramientas caigan en manos equivocadas.
Los críticos sostienen que las herramientas de IA tienen el potencial de acelerar el desarrollo de armas biológicas o de permitir ciberataques devastadores contra las infraestructuras mundiales.
Incluso el fundador de Anthropic, Dario Amodei, advirtió recientemente de que el mundo aún no está preparado para afrontar las consecuencias de la IA.
Amodei escribió en un ensayo: «La humanidad está a punto de recibir un poder casi inimaginable, y no está nada claro si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez necesaria para ejercerlo».

Comentarios