Staatlich unterstützte Hacker nutzen ChatGPT für Cyberangriffe
Staatlich unterstützte Hackergruppen in Russland, Nordkorea, dem Iran und China nutzen große Sprachmodelle, wie die ChatGPT-Technologie, um ihre Cyberangriffe zu optimieren. Microsoft und OpenAI warnen nun davor und präsentieren Einblicke in ihre Untersuchungen hierzu.
„Cyberkriminelle Gruppen, nationalstaatliche Bedrohungsakteure und andere Gegner erforschen und testen verschiedene KI-Technologien, sobald sie auftauchen, um den potenziellen Wert für ihre Operationen und die Sicherheitskontrollen, die sie möglicherweise umgehen müssen, zu verstehen“, so Microsoft in einem heutigen Blogpost.
Kriminelle erkunden KI-Technologien
Die fortlaufende Entwicklung großer Sprachmodelle wirft neue Herausforderungen in Bezug auf deren Anwendung auf. Die beobachteten Anwendungen der Hacker umfassen die Erforschung von potenziellen Zielen, die Verfeinerung von Malware und die Entwicklung von Social-Engineering-Techniken. Diese Erkenntnisse unterstreichen die stetig wachsende Bedrohung durch den Missbrauch von fortschrittlichen KI-Technologien für kriminelle Zwecke.
Die Strontium-Gruppe, die mit dem russischen Militärgeheimdienst verbunden ist, setzt laut OpenAI und Microsoft Large Language Models (LLMs) ein, um die Feinheiten von Satellitenkommunikationsprotokollen und Radarbildtechnologien zu verstehen. Diese Hacker waren bereits während des Konflikts zwischen Russland und der Ukraine sowie bei den Angriffen auf die Präsidentschaftskampagne von Hillary Clinton im Jahr 2016 aktiv.
Die nordkoreanische Hackergruppe Thallium nutzt LLMs, um öffentlich gemeldete Schwachstellen zu erforschen und bei grundlegenden Skriptaufgaben zu helfen. Ebenso setzt die iranische Gruppe Curium auf LLMs, um Phishing-E-Mails und Code zu generieren, der von Antivirensoftware schwer zu erkennen ist. Chinesische Hacker, die staatlich unterstützt werden, verwenden LLMs für Forschung, Skripterstellung, Übersetzungen und zur Verbesserung ihrer vorhandenen Tools.
Microsoft und OpenAI haben bisher keine signifikanten Angriffe unter Verwendung großer Sprachmodelle festgestellt, trotzdem haben Microsoft und OpenAI entschieden, sämtliche Konten und Ressourcen, die mit diesen Hackergruppen in Verbindung stehen, zu schließen. Sie betonen die Wichtigkeit der Veröffentlichung dieser Forschungsergebnisse, um frühzeitig potenzielle Bedrohungen aufzudecken und Informationen darüber zu teilen, wie sie diese blockieren und die Verteidigung stärken können.
Security Copilot
Microsoft warnt vor den zukünftigen Herausforderungen durch KI-gesteuerten Betrug, insbesondere im Bereich der Stimmenimitation. Bereits kurze Stimmproben könnten ausreichen, um ein Modell zu trainieren, das sich wie eine beliebige Person anhört. Selbst alltägliche Anwendungen wie persönliche Anrufbeantworteransagen könnten für kriminelle Zwecke genutzt werden.
Um diesen aufkommenden Bedrohungen zu begegnen, entwickelt das Unternehmen einen „Security Copilot“, einen KI-Assistenten, der Cybersecurity-Expert:innen dabei unterstützen soll, Sicherheitsverletzungen zu erkennen und die umfangreichen Datenmengen zu verwalten, die von Cybersecurity-Tools erzeugt werden.
„Welcome to Hollywood!“: Auch Hacker setzen mittlerweile auf Machine Learning
Krypto-Bridges werden zum wichtigsten Angriffsziel für Hacker