Missbrauch von ChatGPT

KI-Assistent für Kriminelle

2. Februar 2023, 7:00 Uhr | Dr. Wilhelm Greiner
© Wolfgang Traub

Nutzt ein Schüler im Englischunterricht ChatGPT für einen Hausaufgaben-Aufsatz zum Thema „Die Bedeutung der Empathie in Philip K. Dicks Roman ‚Do Androids Dream of Electric Sheep?‘ und im Spielfim ‚Blade Runner‘“, ist das dann Betrug (zu meiner Schulzeit „Unterschleif“ genannt) oder aber eine nützliche Übung in puncto Digitalkompetenz? Wo eine Innovation mit neuen Möglichkeiten lockt, da sprießt sofort auch der Missbrauch, und die Grenzen sind mitunter fließend. Lehrkräfte werden lernen müssen, mit den neuen Risiken umzugehen – und IT-Security-Teams ebenso. Denn KI à la ChatGPT erleichtert es Cyberkriminellen, ihre Angriffe mit geringem Aufwand schnell zu verfeinern.

ChatGPT schlägt hohe Wellen. Benutzer sind erstaunt, was die von OpenAI entwickelte und seit November als Cloud-Service öffentlich, vorerst sogar kostenlos zugängliche Chat-KI alles kann, und Microsoft will laut Medienberichten zehn Milliarden Dollar in OpenAI investieren, um die KI in seine Lösungen, darunter Bing, zu integrieren. Der Chatbot ist per LLM (Large Language Model) GPT-3.5 darauf trainiert, auf Fragen oder auch Anweisungen möglichst stimmige, menschlich klingende Antworten beziehungsweise Resultate zu liefern. Dazu zieht Chat-GPT Wissen und Formulierungen aus dem weltweiten Web heran, traininiert wurde die KI zudem mit Büchern und menschlichem Feedback (Supervised Learning, Reinforcement Learning). Das Ergebnis: Der ChatGPT-Output wirkt erstaunlich „menschlich“, nützlich und zumindest auf den ersten Blick überzeugend.

Anbieter zum Thema

zu Matchmaker+
ChatGPT Phishing-Mails
Check-Point-Forscher konnten mittels ChatGPT Phishing-Mails (siehe Bild) und sogar Schadcode erstellen.
© Check Point Research

Digitaler Telefonjoker

Auch wenn der aktuelle Hype anderes vermuten lässt: ChatGPT ist keine künstliche allgemeine Intelligenz, sondern kann lediglich nachvollziehbar und ausführlich im Tonfall einer Konversation antworten. Manche sehen die Chat-KI bereits als Konkurrenz zu Google, allerdings ist sie zumindest derzeit eher eine Art „Telefonjoker“: ChatGPT gibt stimmige Antworten selbst auf sehr konkrete oder obskure Fragen, doch man kann sich letztlich nicht sicher sein, ob die Auskunft tatsächlich korrekt ist – im Web kursieren zahlreiche Anekdoten über frei erfundene Aussagen. Auch Tagesaktuelles darf man den Chatbot nicht fragen: Seine Trainingsdaten reichen nur bis 2021.

Ein Chatbot ist, wie Fachleute betonen, nur so gut wie die Vorgaben (Prompts), mit denen man ihn füttert. Bei geschickt gewählten Prompts sei er längst nicht darauf beschränkt, in Google-Manier Fakten auszuspucken oder einen garantiert fast echten Schulaufsatz abzuliefern. In Rollenspielen lässt sich ChatGPT zum Beispiel als Drehbuchautor oder als Sparringspartner für Job-Interviews nutzen – sofern die Anweisungen nur klar genug sind: „Agiere in einem Bewerbungsgespräch als Interviewer. Ich werde der Bewerber sein und du wirst mir Fragen stellen.“ Mit der Anordnung, die gestellten Fragen nicht zu begründen (Chat-GPT ist auf ausführlichen, kontextualisierten Output trainiert) und vor jeder neuen Frage erst die Antwort auf die vorherige abzuwarten, lässt sich die Szene durchspielen. Dass die KI Jobsuchenden auch helfen kann, das Bewerbungsschreiben aufzupolieren, versteht sich da von selbst.

Das Beispiel des simulierten Job-Interviews lässt erahnen, wie groß die Einsatzfelder sind, auf denen ChatGPT, DeepMind, Watson und Co. künftig zum Zuge kommen werden. Doch wo vielfältiger Nutzen lockt, da lauert vielfältiger Missbrauch. In einem wissenschaftlichen Artikel vom Oktober 2022 gaben Evan Crothers et al. einen Überblick über die Risiken maschinell erzeugter Texte und diskutierten Gegenmaßnahmen. „In dem Maße, in dem die NLG-Fähigkeiten (Natural Language Generator, d.Red.) wachsen und Zugangsbarrieren verschwinden, steigt unweigerlich die Akzeptanzkurve, mit der Cyberkriminelle, Desinformationsagenturen, Betrüger und anderen Bedrohungsakteure diese Technologie in großem Umfang missbrauchen können“, schreibt das Forschungsteam.

Lothar Geuenich von Check Point
„Ransomware ist nach wie vor auf dem Vormarsch“, so Lothar Geuenich von Check Point.
© Check Point Software Technologies

Crothers et al. sehen vier Bedrohungsmodelle. Erstens könnten im Bereich Malware und Social Engineering künftig Phishing, Spear-Phishing und Betrug dank KI echter wirken als je zuvor. Aber auch das Sabotieren von KI-Modellen (Model Poisoning) sei ein Risiko. Zweitens rechnen sie künftig mit mehr KI-gestützten Desinformationskampagnen, von automatisierten betrügerischen Produktbewertungen bis hin zu hoch skalierender Fake-News-Propaganda.

Ein drittes Bedrohungsszenario bestehe im Ausnutzen der KI-Autorschaft, von gefälschten wissenschaftlichen Publikationen bis hin zur Überflutung von Online-Plattformen mit Fake-Inhalten. Und viertens warnen sie vor Spam und Belästigung (etwa Kommentarfluten zu unliebsamen Social-Media-Posts), beispielsweise durch „Brigading“, bei dem die Akteure Einzelpersonen oder Organisationen mit orchestrierten Hasskommentaren überschwemmen. Eine weitere Variante: „Document Submission Spam“, das Überfluten unliebsamer Publikationen oder Konferenzen mit nutzlosen Vorschlägen oder Abstracts.


  1. KI-Assistent für Kriminelle
  2. Effektiveres Phishing dank KI

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu CONNECT GmbH KOMMUNIKATIONSSYSTEME

Weitere Artikel zu CEA Automatisierung GmbH

Weitere Artikel zu Kaspersky

Weitere Artikel zu Astaro AG

Weitere Artikel zu Informationssicherheit

Weitere Artikel zu Cybercrime

Weitere Artikel zu Hisense Germany

Weitere Artikel zu Swissphone Telecommunications

Weitere Artikel zu Broadcom

Matchmaker+