Wie Künstliche Intelligenz Cybersicherheit und Cyberkriminalität verändert

Die wachsende Beliebtheit an KI-Tools kann eine Bedrohung für die Cybersicherheit darstellen

Wie Künstliche Intelligenz Cybersicherheit und Cyberkriminalität verändert

Künstliche Intelligenz oder kurz KI ist eine der revolutionärsten Technologien unserer Zeit und es verändert unser Denken über Cybersicherheit und Cyberkriminalität. In nur zwei Monaten überschritt der von OpenAI entwickelte Chatbot ChatGPT die Marke von 100 Millionen aktiven Nutzern und etablierte sich als die am schnellsten wachsende Verbraucheranwendung der Geschichte. Zurzeit dominiert in Cybercrime-Foren das Thema von Angreifern, die KI nutzen, um Malware und E-Mails für Spionage, Ransomware-Angriffe, bösartigen Spam und andere verachtenswerte Aktivitäten zu verfassen.

Zur Demonstration der Fähigkeiten hat ein Cyberkrimineller Code für einen Datendieb veröffentlicht, den er mit ChatGPT erstellte. Die in Python geschriebene Malware war in der Lage, 12 Standard-Dateiformate auf einem kompromittierten System zu finden, zu kopieren und zu extrahieren, darunter Office-Dokumente, PDF-Dateien und Bilder.

Neu entdeckte Schadkampagnen führen sogar vor, wie Kriminelle Robotern und Assistenten mit künstlicher Intelligenz beibringen, bösartigen Code in ihren programmierten Code zu injizieren und Bedrohungen zu verbreiten. Auch die Trojaner-Puzzle-Kampagne zeigt, dass Cyberkriminelle die Popularität von KI und Technologie zu ihrem Vorteil nutzen.

In den letzten Jahren hat die Zahl der Cyberangriffe zugenommen, die ausgefeilter, häufiger und schwieriger zu verhindern sind. Während KI neue Möglichkeiten zur Bekämpfung der Cyberkriminalität bietet, bringt sie leider auch neue Risiken und Herausforderungen mit sich. In diesem Artikel wird ausgelegt, wie künstliche Intelligenz die Landschaft der Cybersicherheit und Cyberkriminalität verändert.

Einsatz von KI zur Bekämpfung von Cyberangriffen

Mit der steigenden Anzahl und Komplexität von Cyberangriffen verlieren herkömmliche Ansätze in der Cybersicherheit an Wirksamkeit. Mit der Zunahme von KI ergeben sich jedoch auch neue Möglichkeiten, diese Herausforderungen zu bewältigen. KI-Algorithmen sind in der Lage, große Datenmengen zu analysieren und Muster und Anomalien zu erkennen, die Menschen möglicherweise übersehen, was für die Erkennung von Bedrohungen im Bereich der Cybersicherheit besonders vielversprechend ist. Denn KI kann durch die Erkennung und Reaktion in Echtzeit potenzielle Schäden verhindern oder abmildern.

Auch die Authentifizierung und Zugriffskontrolle, die traditionell anfällig für Angriffe sind, sind durch KI im Wandel. Mit KI-gestützten biometrischen Authentifizierungssystemen wie Gesichtserkennung, Stimmerkennung und Fingerabdruckscan können Passwörter und andere Authentifizierungsmethoden sicherer und bequemer gemacht werden. Diese Systeme sind auch in der Lage, sich an Änderungen im Benutzerverhalten anzupassen, was eine zusätzliche Sicherheitsebene darstellt.

KI-gestützte Malware: die neue Bedrohung für Computersysteme

KI-gestützte Malware wird immer raffinierter und ist im Bereich der Cybersicherheit immer schwieriger zu erkennen. Im Jahr 2019 entdeckten Forscher beispielsweise DeepLocker, eine von IBM entwickelte KI-gestützte Malware, die „feindliche KI“ einsetzt, um nicht entdeckt zu werden. DeepLocker bleibt so lange inaktiv, bis es ein bestimmtes Ziel, z.B. eine Person oder eine Organisation, entdeckt. Sobald es das Ziel identifiziert hat, beginnt der zerstörerische Angriff.

Ein weiteres Beispiel für KI-gestützte Malware ist der dateilose Malware-Angriff auf eine weltweit tätige Bank im Jahr 2017. Die Malware mit dem Namen „Silent Starling“ nutzte einen KI-Algorithmus, um die Erkennung durch Antivirensoftware zu verhindern. Mehrere Monate lang konnte die Malware die Systeme der Bank infizieren und unbemerkt vertrauliche Informationen stehlen. Der Angriff wurde erst entdeckt, als eine Anomalie im Netzwerk der Bank aufgedeckt und auf die Malware zurückgeführt wurde.

KI-gestützte Malware-Angriffe sind besonders besorgniserregend, da sie sich in Echtzeit anpassen und weiterentwickeln, um nicht entdeckt zu werden. Diese Angriffe können unter anderem dazu dienen, sensible Daten zu stehlen, Systeme zu hijacken oder Denial-of-Service-Angriffe durchzuführen. Mit dem Fortschreiten der KI-Technologie wird die Bedrohung durch KI-gestützte Malware wahrscheinlich zunehmen, wodurch die Entwicklung neuer Erkennungs- und Präventionsstrategien erforderlich wird.

Die nächste Generation des Social Engineering

ChatGPT kann in den falschen Händen jedem dabei helfen, eine überzeugende Phishing-E-Mail zu erstellen und sogar den Code für einen Malware-Angriff zu schreiben. Leider können Cyberkriminelle jetzt unabhängig von Ihrem Kenntnisstand oder Ihrer Sprache ihren neu erstellten Schadcode in einen harmlos aussehenden E-Mail-Anhang einbetten.

In den letzten Jahren gab es Berichte über Cyberkriminelle, die Social-Engineering-Angriffe mit ähnlichen Taktiken und anderen KI-Konversationsmodellen durchgeführt haben. So entdeckten Forscher im Jahr 2020 eine Phishing-Kampagne, die das GPT-3-Sprachmodell von OpenAI nutzte, um überzeugende Phishing-Mails von scheinbar vertrauenswürdigen Quellen zu generieren.

Es sei darauf hingewiesen, dass die Verwendung von ChatGPT für Social-Engineering-Angriffe sowohl unethisch als auch illegal ist. OpenAI, das Unternehmen, das ChatGPT entwickelt hat, hat Sicherheitsvorkehrungen getroffen, um die böswillige Nutzung seiner Technologie zu verhindern, wie z.B. die Überwachung auf Missbrauch und die Verpflichtung der Benutzer, den Geschäftsbedingungen zuzustimmen, die schädliches Verhalten verbieten. Dennoch nimmt die Bedrohung durch KI-gestützte Social-Engineering-Angriffe zu, was die Bedeutung der laufenden Forschung und Entwicklung von Sicherheitsmaßnahmen zur Abwehr solcher Bedrohungen unterstreicht.

Chancen und zu bewältigende Risiken

KI bietet neue Möglichkeiten zur Bekämpfung der Cyberkriminalität, bringt aber auch neue Risiken und Herausforderungen mit sich. Die Entwicklung von KI-gestützten Cybersicherheitssystemen ist ein vielversprechender Forschungsbereich, der sich aber noch in einem frühen Stadium befindet. Viele technische und ethische Fragen müssen geklärt werden, z.B. die Zuverlässigkeit und Interpretierbarkeit von KI-Algorithmen, die Möglichkeit von Vorurteilen und Diskriminierung, sowie die Risiken von Cyberangriffen auf KI-Systeme selbst.

Ein weiteres Problem ist die Notwendigkeit der Zusammenarbeit zwischen Cybersicherheitsexperten, KI-Experten und politischen Entscheidungsträgern. KI ist eine sich schnell entwickelnde Technologie und die Entwicklung wirksamer Lösungen erfordert einen multidisziplinären Ansatz. Die interdisziplinäre Zusammenarbeit ist entscheidend, um sicherzustellen, dass KI zum Nutzen der Gesellschaft und nicht für böswillige Zwecke eingesetzt wird.

Über den Autor
Gabriel E. Hall
Gabriel E. Hall - Leidenschaftliche Internetforscherin

Gabriel E. Hall ist eine leidenschaftliche Schadsoftware-Forscherin, die seit fast einem Jahrzehnt bei DieViren tätig ist.

Gabriel E. Hall kontaktieren
Über die Firma Esolutions