KI & Cybercrime: Wie Angreifer Large Language Models nutzen


Large Language Models (LLMs) wie GPT, Claude oder Gemini sind beeindruckend leistungsfähig – sie schreiben Texte, analysieren Daten, helfen bei Code und sind zunehmend in Produkte und Prozesse eingebettet. Doch was als Effizienzbooster beginnt, wird zunehmend zur Angriffsfläche: Cyberkriminelle nutzen dieselben Modelle, um ihre Methoden zu professionalisieren, Angriffe zu skalieren – und Schutzmechanismen zu unterlaufen.
Einleitung: KI als Werkzeug – für Innovation und Angriff
Der technologische Fortschritt ist nie neutral. So wie jede Innovation neue Chancen eröffnet, bringt sie auch neue Missbrauchsformen mit sich. KI-Systeme, insbesondere Large Language Models, werden von Angreifern genutzt, um raffinierter, effizienter und schneller an ihre Ziele zu gelangen. Die Frage ist nicht mehr, ob KI missbraucht wird – sondern wie wir diesen Missbrauch erkennen, begrenzen und verhindern.
Inhaltsverzeichnis:
Was sind Large Language Models – und warum sind sie so mächtig?
LLMs sind KI-Modelle, die mithilfe riesiger Textmengen trainiert wurden, um Sprache zu verstehen und zu erzeugen. Sie sind in der Lage:
- komplexe Fragen zu beantworten,
- Code zu generieren oder zu korrigieren,
- Gespräche zu führen,
- und Inhalte in natürlicher Sprache zu verfassen.
Beispiele: GPT-4 (OpenAI), Claude 3 (Anthropic), Gemini (Google), LLaMA 3 (Meta), Mistral (Open Source)
Diese Modelle bieten enorme Potenziale – aber genau darin liegt auch die Gefahr: Ihr Wissen und ihre Fähigkeiten sind generisch nutzbar. Ob für Gutes oder Böses hängt nicht am Modell selbst, sondern an dessen Verwendung.
Wie Cyberkriminelle LLMs heute schon missbrauchen
Bereits jetzt dokumentieren Sicherheitsforscher eine Vielzahl an Fällen, in denen KI-Modelle aktiv zur Vorbereitung, Durchführung oder Optimierung von Cyberangriffen eingesetzt werden.
Typische Nutzungsformen:
- Generierung von täuschend echten Phishing-Mails in perfektem Sprachstil
- Erstellung von Social-Engineering-Skripten für Anrufe, Bewerbungen oder Betrug
- Automatisierung von Ransomware-Kommunikation und Erpressungstexten
- Generierung von schädlichem Code oder Makros für infizierte Dokumente
- Verwendung von LLMs für „Low-Code-Hacking“ durch weniger erfahrene Täter
Besonders gefährlich: Die Modelle liefern auch dann Ergebnisse, wenn Nutzer bewusst versuchen, sie zu „jailbreaken“ – also Schutzmechanismen zu umgehen.
Typische Angriffsvektoren: So nutzen Hacker LLMs im Detail
Hier sind die vier häufigsten Angriffsszenarien mit LLM-Unterstützung:
1. Phishing & CEO-Fraud auf neuem Niveau
LLMs ermöglichen es, hochgradig personalisierte E-Mails in jeder Sprache zu verfassen – basierend auf öffentlich zugänglichen Informationen über das Ziel. Auch gefälschte Tonalität (z. B. interne Sprache im Unternehmen) lässt sich simulieren.
2. Malware & Exploits auf Knopfdruck
Trotz Schutzmechanismen lassen sich mit cleveren Prompts Malware-Snippets, Keylogger oder verschleierter JavaScript-Code erzeugen – besonders bei Open-Source-Modellen ohne Content-Filter.
3. Deepfakes & synthetische Identitäten
In Kombination mit Text-to-Speech- und Video-KI entstehen realitätsnahe Deepfakes, die etwa in Bewerbungsgesprächen oder ID-Verifizierungen missbraucht werden können.
4. Prompt Injection & Jailbreaks
Angreifer nutzen gezielte Eingaben, um Chatbots oder andere KI-Anwendungen zu manipulieren – etwa um an vertrauliche Daten zu gelangen oder Systeme zum Ausführen schädlicher Handlungen zu bringen.
Fallbeispiele: Wenn LLMs Teil der Angriffsarchitektur werden
Fall 1: WormGPT – das „dunkle Gegenstück“ zu ChatGPT
Ein in Hackerforen verbreitetes Tool auf Basis eines Open-Source-LLMs, das speziell für Cybercrime optimiert wurde – ohne Inhaltsfilter, mit Fokus auf Angriffsautomatisierung.
Fall 2: Prompt Injection bei öffentlich zugänglichen KI-Bots
Sicherheitsforscher zeigten, wie sich Chatbots auf Webseiten dazu bringen lassen, intern gespeicherte Informationen oder Nutzerdaten preiszugeben – durch geschickte Manipulation des Kontexts.
Fall 3: „LLM-as-a-Service“ in kriminellen Telegram-Gruppen
Angreifer bieten API-Zugänge zu „ungefilterten“ LLMs an – zur automatisierten Erstellung von Phishing-Kampagnen, Fake-Profilen oder Fraud-Bots.
Risiken für Unternehmen: Wo LLMs zur Schwachstelle werden
LLMs sind nicht nur ein externes Risiko – sie werden auch im Unternehmen selbst zur potenziellen Schwachstelle, wenn:
- Mitarbeitende vertrauliche Informationen in öffentliche Chatbots eingeben
- Kundendialoge automatisiert, aber nicht ausreichend geschützt sind
- Systeme ungewollt auf manipulative Prompts reagieren
Beispiel: Ein interner Support-Chatbot liefert sensible Antworten (z. B. Preisinformationen, interne Prozesse), wenn man ihn mit manipulativen Prompts oder Kontext-Täuschungen füttert.
Weitere Gefahren:
- Datenabfluss durch externe API-Verbindungen
- Lieferanten nutzen unsichere LLM-Tools in der Wertschöpfungskette
- Reputationsrisiken durch öffentlich sichtbare Fehlverhalten von KI-Systemen
Sicherheitsmaßnahmen & Compliance-Empfehlungen
Unternehmen können sich schützen – durch eine Kombination aus technischen, organisatorischen und prozessualen Maßnahmen:
Technisch:
- Nutzung geprüfter, DSGVO-konformer LLM-Dienste (z. B. On-Premise oder EU-Clouds)
- Prompt-Filter & Logging bei internen Anwendungen
- Einschränkung sensibler Funktionen (z. B. Datenzugriffe, Weiterleitungen)
Organisatorisch:
- Richtlinien zur sicheren KI-Nutzung im Unternehmen
- Schulungen zur Erkennung von Deepfakes und KI-Phishing
- Bewertung von Zulieferern auf KI-Risiken (Third-Party Risk)
Prozessual:
- Einsatz von KI-Governance-Strukturen
- Durchführung von LLM-Risikoanalysen (z. B. Prompt Injection Tests)
- Transparente Kommunikation bei Vorfällen
Was der AI Act und andere Regulierungen dazu sagen
Der EU AI Act adressiert den Missbrauch von KI unter anderem durch:
- Verbot hochriskanter KI-Anwendungen (z. B. verdeckte Manipulation, Deepfakes ohne Kennzeichnung)
- Anforderungen an Transparenz und Kontrolle von generativer KI
- Verpflichtung zur Dokumentation, Risikobewertung und menschlicher Aufsicht
Weitere Regelwerke wie die NIS2-Richtlinie, der Digital Services Act oder das EU Cyber Resilience Act erweitern den regulatorischen Rahmen und fordern u. a.:
- Schutz vor Missbrauch von digitalen Diensten
- Sicherstellung der Resilienz von Produkten mit Softwarekomponenten
- Verantwortlichkeit bei der Integration externer KI-Systeme
Fazit: Verantwortungsvolle KI-Nutzung braucht Sicherheitsbewusstsein
LLMs sind Werkzeuge – nicht gut oder böse. Aber wie jedes mächtige Werkzeug können sie missbraucht werden. Unternehmen, Behörden und Entwickler:innen stehen in der Pflicht, sich aktiv mit den neuen Bedrohungen auseinanderzusetzen.
Wer LLMs einsetzt, muss:
- ihre Risiken verstehen,
- ihre Grenzen definieren,
- und Missbrauch aktiv verhindern.
Nur so lässt sich KI verantwortungsvoll und langfristig im Unternehmen integrieren – ohne ungewollte Kollateralschäden oder Compliance-Verstöße.
Wichtiger Hinweis: Der Inhalt dieses Artikels dient ausschließlich Informationszwecken und stellt keine Rechtsberatung dar. Die hier bereitgestellten Informationen können eine individuelle Rechtsberatung durch (je nach Anwendungsfall) einen Datenschutzbeauftragten oder Rechtsanwalt nicht ersetzen. Wir übernehmen keine Gewähr für die Aktualität, Vollständigkeit und Richtigkeit der bereitgestellten Informationen. Jegliche Handlungen, die auf Grundlage der in diesem Artikel enthaltenen Informationen vorgenommen werden, erfolgen auf eigenes Risiko. Wir empfehlen, bei rechtlichen Fragen oder Problemen stets (je nach Anwendungsfall) einen Datenschutzbeauftragten oder Rechtsanwalt zu konsultieren.