Mit seinem neuen KI-Modell Mythos sorgt Anthropic für viel Aufsehen. Es soll mit Leichtigkeit Sicherheitslücken in Software finden können. Das wäre nicht nur für Systembetreiber interessant, sondern auch für Angreifer.
Ein neues KI-Modell sorgt für Aufregung. Anthropic stellt mit der neuen Claude-Version Mythos eine KI vor, die bereits Tausende hochriskante Zero-Day-Lücken gefunden haben soll. Laut Anthropic ist das Modell so gefährlich, dass es zunächst nur ausgewählten Firmen zur Verfügung gestellt werden soll.
Schon länger nutzen Cyber-Kriminelle KI-Systeme. Schließlich sind diese hervorragend geeignet, Schad-Software für neue Angriffe zu generieren. Als die Betreiber der KI-Systeme dies merkten, veränderten sie ihre KI so, dass entsprechende Anfragen nicht mehr bearbeitet wurden. Doch über Umwege ließ sich immer noch Malware mit Large Language Models (LLM) wie ChatGPT generieren. Dazu formulierten Angreifer die Anfrage um. Statt das System dazu aufzufordern, eine Software zu entwickeln, mit der sich beispielsweise die Passworteingabe bei einem Windows-System umgehen ließe, wird jetzt etwa gefragt, welche Angriffe zur Umgehung der Passworteingabe es geben könnte, wie diese aussehen und wie man sich dagegen schützen könnte.
Das blieb bei KI-Anbietern nicht unbemerkt und wurde ebenfalls unterbunden. Letztlich gingen Angreifer dazu über, eigene KI-Systeme zu betreiben. Bekannt wurden unter anderem WormGPT und GhostGPT, die in diesem Beitrag beschrieben werden. GhostGPT ist sogar als Telegram-Bot verfügbar, was Angreifern den Zugriff erleichtert.
Rund 120 neue Schwachstellen pro Tag
Mit Mythos macht neuerdings ein KI-System auf sich aufmerksam, das hervorragend dafür geeignet sein soll, Sicherheitslücken in IT-Systemen zu finden. Davon kommen ständig neue ans Licht. Laut BSI werden aktuell jeden Tag 119 neue Schwachstellen entdeckt. Daraus ergibt sich ein endloser Wettlauf. KI könnte dabei den Systemherstellern und -betreibern helfen, diese Lücken zu schließen – solange Angreifer nicht schneller sind.
Dem Hersteller dieses neuen KI-Modells, Anthropic, ist diese Gefahr wohlbekannt. Die Firma hat daher beschlossen, das neue KI-Modell namens Mythos bis auf Weiteres nicht öffentlich verfügbar zu machen. Laut Anthropic habe das KI-Modell bereits Tausende hochriskante Zero-Day-Lücken identifiziert. Diese seien in allen großen Betriebssystemen und jedem Internet-Browser sowie in gängiger Standard-Software entdeckt worden. Mit Mythos sei es sehr häufig gelungen, dafür funktionierende Exploits, also Angriffs-Software zu entwickeln.
So konnte Mythos einen Exploit entwickeln, der mehrere unbekannte Lücken im Linux-Kernel kombiniert, um die Rechte eines normalen Nutzers zu eskalieren und die volle Kontrolle über ein System zu erlangen. Als weiteres Beispiel fand die KI eine seit 27 Jahren übersehene Lücke im Betriebssystem OpenBSD.
In Anbetracht der Missbrauchsgefahr sollen nun im Rahmen einer Initiative namens „Project Glasswing“ zuerst ausgewählte Security-Firmen, darunter Crowdstrike, Palo Alto Networks sowie der Netzwerk-Spezialist Cisco, Zugriff auf Mythos erhalten. Sie sollen mittels der KI-Technik Schwachstellen entdecken und schließen. Außerdem erhalten Konzerne wie Apple, Amazon, Google, Microsoft und die Linux-Stiftung Zugang zu Mythos, um Sicherheitslücken in ihren Systemen zu finden. Insgesamt stelle Anthropic nach eigener Aussage dafür Nutzungsrechte im Wert von rund 100 Millionen US-Dollar für das neue KI-Modell zur Verfügung. Davon sollen vier Millionen US-Dollar direkt an die Open-Source-Wirtschaft gehen. Ziel ist es, Schwachstellen in Systemen zu finden und zu schließen, bevor andere KI-Modelle ähnliche Fähigkeiten wie Mythos entwickeln. Fachleute gehen davon aus, dass solche Fähigkeiten recht bald auch Angreifern zur Verfügung stehen könnten.
BSI sieht hohes Gefahrenpotenzial
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) schätzt die Gefahr durch Mythos sehr hoch ein. Das Amt rechnet sogar mit „Umwälzungen im Umgang mit Sicherheitslücken“. In den USA hat das Finanzministerium wichtige US-Banken kurzfristig zu einer Krisensitzung einberufen, um die Risiken von Anthropics neuem KI-Modell für den Finanzsektor zu erörtern. Als das bekannt wurde, kam es an der Börse zu Verwerfungen.
Schwachstellen beziehungsweise Sicherheitslücken stehen seit je her im Fokus der Cybersecurity. Sie bilden nicht nur häufig das Einfallstor für Cyberangriffe, auch Geheimdienste sind daran interessiert, um sie für Spionage oder Sabotage zu verwenden. Auch deutsche Nachrichtendienste und Ermittlungsbehörden nutzen Schwachstellen, beispielsweise zur Terrorbekämpfung oder um Straftaten aufzuklären. Für die Dienste sind dabei vor allem sogenannte Zero-Day-Schwachstellen relevant, weil die den Herstellern noch nicht bekannt sind und daher nicht behoben werden können. Im Darknet werden solche Sicherheitslücken häufig für hohe Summen gehandelt.
Während Anthropics KI-Modells allgemein Aufsehen und Verunsicherung erzeugt, sehen Experten die Situation differenzierter. Norbert Pohlmann, Professor an der Westfälischen Hochschule in Gelsenkirchen und Vorstandsvorsitzender des IT-Sicherheitsverbandes Teletrust, geht davon aus, dass diese Technologie langfristig die IT-Resilienz fördern wird, sofern gefundene Lücken verantwortungsvoll geschlossen werden. Nach seiner Meinung könnten KI-Modelle wie Mythos zu einer Reduzierung der Angriffsfläche führen, was die IT-Sicherheit massiv erhöhen würde. Michael Waidner, Leiter des Fraunhofer-Instituts für Sichere Informationstechnologie (SIT) und CEO des nationalen Forschungszentrums für Angewandte Cybersicherheit ATHENE bezweifelt die Aussagekraft der veröffentlichten Anthropic-Belege. Die veröffentlichten Leistungstests würden nicht die tatsächliche Fähigkeit messen, Schwachstellen zu finden. Die eigentlichen Belege seien wissenschaftlich wenig belastbar. Allgemein wird von Sicherheitsexperten erwartet, dass vergleichbare KI-Modelle bald auch von anderen Anbietern kommen werden.
Anthropic war bisher primär für seine LLM-KI Claude bekannt, die mit ChatGPT von OpenAI konkurriert. Wie unter anderem der Deutschlandfunk berichtet, lehnte das Unternehmen den Einsatz seiner KI in autonomen Waffen oder zur Massenüberwachung in den USA ab und wurde im Gegenzug von der US-Regierung zum Sicherheitsrisiko erklärt. Wie Der Spiegel nun berichtet, soll die US-amerikanische National Security Agency (NSA) ebenfalls vorab Zugriff auf Mythos erhalten haben.
Quellen
Heise: Anthropic-KI Mythos: Dringende Warnung an US-Banken, BSI erwartet Umwälzungen
ZDF: Neues KI Modell: BSI zeigt sich besorgt
Der Spiegel: US-Regierung trifft sich mit Anthropic-CEO
Der Spiegel: KI findet tief versteckte Software-Schwachstellen
Der Spiegel: KI-Chatbot findet Hunderte Sicherheitslücken und löst Kurssturz aus
Der Spiegel: NSA benutzt angeblich umstrittene Hacking-KI
IT-Sicherheit: Claude Mythos – Mehr eine Chance als ein Risiko?
Capital: Sicherheitsforscher hält Anthropic-Geschichte „eher für Marketing“ [Paywall]
Deutschlandfunk: US-Verteidigungsministerium stuft KI-Unternehmen Anthropic als Risiko für die Lieferkette ein


