Die Software ChatGPT von Open AI schlägt hohe Wellen. Manch einer vergleicht sie mit dem Erscheinen der Suchmaschine Google. Der Chatbot beantwortet mit Hilfe von KI sehr eloquent unterschiedlichste Fragen, schreibt Vorträge, Gedichte und vieles mehr. Daher sollte es niemand überraschen, dass Kriminelle – wie immer bei neuer Technik – bereits darüber nachdenken, wie sie diese Fähigkeiten für ihre Zwecke nutzen können. Nun, wie gefährlich ist das für die IT-Security, und wie gut sind wir darauf vorbereitet? Richard Werner, Business Consultant bei Trend Micro, kommentierte vor Kurzem die aktuelle Lage aus Sicht der Sicherheitsbranche.
Eine gemeinsame Studie von Europol, Unicri und Trend Micro hat dies untersucht. Für die Open-AI-Software kämen diesen Ergebnissen zufolge noch besser erzeugte Social-Engineering-Mittel wie Phishing oder BEC infrage. Aktuell haben auch weitere Sicherheitsforscher mit der derzeit gehypten KI erzeugte Betrüger-Mails untersucht, und bedrohliche Ergebnisse erhalten. Auch scheinen die Kriminellen bereits in Untergrundforen über Wege zu diskutieren, ChatGPT ins Dark Web zu bringen.
Klar sei, so Richard Werner, dass ChatGPT nicht die Rolle der legendären „Büchse der Pandora“ inne habe, die nun geöffnet wurde. Der Bot stellt nach Einschätzung des Experten eher die erste Stufe einer vorhersehbaren Entwicklung dar, die früher oder später dazu führen wird, dass KI in der Cyberkriminalität verwendet wird. Für die Macher von Open AI mag die Veröffentlichung der vorläufige Höhepunkt einer langen Entwicklung sein, für die IT jedoch beginne damit die Reise erst.
ChatGPT zeige neue Möglichkeiten, so Werner weiter, und werde Nachahmer zu Ähnlichem inspirieren. Die dahinterstehende Technik wird für eine breite Öffentlichkeit verfügbar sein und als Baustein größerer Lösungen kostengünstig und sinnvoll eingesetzt werden – eine für die IT übliche und auch positive Entwicklung. Die Kehrseite der Medaille sei, dass auch Kriminelle darauf zugreifen werden und die Technik effizient nutzen können.