Kurzfassung
- US-Beamte warnten große Banken vor Cybersicherheitsrisiken im Zusammenhang mit Anthropics Mythos AI-Modell, berichtet Bloomberg.
- Das System kann Berichten zufolge Schwachstellen in Betriebssystemen und Browsern identifizieren und ausnutzen.
- Anthropic hat den Zugang zum Modell beschränkt, während potenzielle Sicherheitsrisiken evaluiert werden.
US-Finanzminister Scott Bessent und Fed-Chef Jerome Powell haben Berichten zufolge Anfang dieser Woche ein Treffen mit CEOs von Wall-Street-Banken einberufen, um vor Cybersicherheitsrisiken im Zusammenhang mit einem neuen KI-Modell von Anthropic zu warnen.
Laut einem Bericht von Bloomberg nahmen Führungskräfte von Citigroup, Bank of America, Wells Fargo, Morgan Stanley und Goldman Sachs an dem Treffen teil. Beamte diskutierten über Anthropics neues AI-Modell Mythos, das kürzlich aufgrund seiner offensichtlich fortgeschrittenen Cybersicherheitsfähigkeiten breite Besorgnis ausgelöst hat.
Beamte beriefen das Treffen ein, um sicherzustellen, dass Banken die Risiken verstehen, die von Systemen ausgehen, die in der Lage sind, Software-Schwachstellen in Betriebssystemen und Webbrowsern zu identifizieren und auszunutzen, und um Institutionen zu ermutigen, die Abwehr gegen potenzielle KI-unterstützte Cyberangriffe auf die Finanzinfrastruktur zu verstärken.
Sicherheitsforscher haben gewarnt, dass Tools, die automatisch Schwachstellen entdecken können, sowohl defensive Sicherheitsarbeit als auch böswilliges Hacking beschleunigen könnten, wenn sie missbraucht werden.
Anthropics Mythos-Modell tauchte erstmals im März online auf, nachdem Entwurfsmaterialien über das System online geleakt wurden, die enthüllten, was das Unternehmen als sein bisher leistungsfähigstes AI-Modell bezeichnete. Bei Tests fand das System Berichten zufolge Tausende zuvor unbekannter Software-Schwachstellen, einschließlich Zero-Day-Fehler in wichtigen Betriebssystemen und Webbrowsern.
Anthropic-Forscher sagten in einem Bericht Anfang dieser Woche, dass die Schwachstellen-Entdeckungsfähigkeiten von Mythos Preview nicht absichtlich trainiert wurden, sondern aus umfassenderen Verbesserungen der Codierung, des Denkens und der Autonomie des Modells hervorgingen.
„Dieselben Verbesserungen, die das Modell wesentlich effektiver beim Patchen von Schwachstellen machen, machen es auch wesentlich effektiver beim Ausnutzen derselben", schrieb das Unternehmen.
Aufgrund dieser Fähigkeiten hat Anthropic den Zugang auf eine kleine Gruppe von Cybersicherheitsorganisationen beschränkt.
„Angesichts der Stärke seiner Fähigkeiten gehen wir bewusst vor, wie wir es veröffentlichen", sagte Anthropic in einer Stellungnahme. „Wie es branchenüblich ist, arbeiten wir mit einer kleinen Gruppe von Early-Access-Kunden zusammen, um das Modell zu testen. Wir betrachten dieses Modell als einen Schritt nach vorne und als das leistungsfähigste, das wir bisher entwickelt haben."
Um dieses Risiko anzugehen, testet Anthropic Mythos durch Project Glasswing, eine Zusammenarbeit mit großen Technologie- und Cybersicherheitsunternehmen, die das Modell nutzt, um Schwachstellen in kritischer Software zu identifizieren und zu patchen, bevor Angreifer sie ausnutzen können.
„Project Glasswing ist ein Ausgangspunkt. Keine einzelne Organisation kann diese Cybersicherheitsprobleme allein lösen", sagte das Unternehmen in einer Stellungnahme. „KI-Entwickler an der Spitze, andere Softwareunternehmen, Sicherheitsforscher, Open-Source-Maintainer und Regierungen auf der ganzen Welt haben alle wesentliche Rollen zu spielen."
Anthropic reagierte nicht sofort auf die Anfrage von Decrypt um eine Stellungnahme.
Daily Debrief Newsletter
Beginnen Sie jeden Tag mit den wichtigsten Nachrichten von heute sowie Originalartikeln, einem Podcast, Videos und mehr.
Quelle: https://decrypt.co/363927/powell-bessent-warn-banks-security-anthropic-mythos-ai








