Innovation ist wichtig, aber kein Selbstzweck, deshalb sollten sich Unternehmen und Wissenschaftler ethische Grenzen setzen. Notfalls müssen die Gesetzgeber nachhelfen, sagt Dinko Eror, Senior Vice President and Managing Director von Dell EMC in Deutschland, in einem aktuellen Statement.

Nicht alles, was technisch möglich ist, sollte auch erlaubt sein. Gerade im Umfeld der künstlichen Intelligenz (KI) sei eine Diskussion entstanden, die stark an die Kritik der ersten Atombombe erinnere: Viele fürchten eine Entwicklung, die unumkehrbar ist und weitreichende Gefahren birgt. Der Unternehmer Elon Musk etwa sieht in der KI „die größte Bedrohung für das Überleben der Menschheit“, und der in diesem Jahr verstorbene Physiker Stephen Hawking war bereits 2014 der Meinung, Menschen könnten aufgrund ihrer biologischen Limitierung mit KI nicht mithalten und würden am Ende „verdrängt“ werden. Eine Verselbstständigung der Technik hatten Science-Fiction-Autoren schon Mitte des vergangenen Jahrhunderts thematisiert.

Mit der Einschätzung, dass eine solche Entwicklung eine besondere Tragweite habe, wenn Fehler entstehen, steht Eror nicht allein. Amazons Gesichtserkennung etwa habe jüngst 28 Abgeordnete des US-Kongresses mit Häftlingen verwechselt. Überträgt man diese Fehlerquote von fünf Prozent auf die Ambitionen des US-Verteidigungsministeriums, werden ethische Zweifel schnell greifbar: Das Pentagon will unter anderem Drohnen und andere Waffen mit KI versehen, damit sie Ziele selbst identifizieren und „Entscheidungen selbst treffen“ können.

Viele KI-Forscher betrachten solche Entwicklungen mit besonderer Skepsis – wenn nicht mit Abscheu. Tausende von ihnen haben deshalb eine freiwillige Selbstverpflichtung unterschrieben, nicht an autonomen Waffensystemen zu forschen. Aber wie stehen die übrigen Forscher zu solchen Einsätzen?

Gefahr komme auch aus einem ganz anderen Bereich: Mit KI, künstlichen neuronalen Netzen und erschreckend wenig Aufwand können mittlerweile mit sogar kostenlosen Apps täuschend echte Fake-Bilder und -Videos hergestellt werden. „Nicht auszudenken, was passiert, wenn durch ein Fake-Video eines Fake-Politikers ein Krieg entsteht“, gibt Dinko Eror zu bedenken.

Auch die Profilerstellung von beliebigen Internet- und Social-Media-Nutzern stelle für KI längst keine Hürde mehr dar. Die Technik kann in Verbindung mit der heutigen Rechenleistung gigantische Datenmengen analysieren und etwa Muster erkennen. Unvergessen ist zum Beispiel die unerlaubte Auswertung der Daten zahlreicher Facebook- und Twitter-Profile durch Cambridge Analytica mit dem Ziel, die US-Wahlen 2016 zu beeinflussen – für viele der erste wirkliche Social-Media-Skandal.

Es gibt laut dem Statement zahlreiche weitere Beispiele, die ethische Fragen aufwerfen – zudem dass die KI sich weiterentwickelt und jeden Tag schneller, leistungsfähiger und treffsicherer wird. Sogar IT-Unternehmen, die Vorreiter in Sachen KI, kommen deshalb mittlerweile ins Grübeln. Microsoft zum Beispiel betrachte eine KI-basierende Gesichtserkennung als Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit, so zumindest President Brad Smith in seinem Blog vor einigen Wochen.

Ist die Selbstverpflichtung von Industrie und Forschung also der richtige Weg, um ethische Innovationen – auch fernab von KI – sicherzustellen? „Nein. Die Wirtschaftsgeschichte hat gezeigt: Die Selbstverpflichtung von Industrie und Forschung führt nicht zu ethischen Innovationen“, erklärt Eror. „Sei es beim Dieselskandal, dem Rauchverbot, der Frauenquote oder der Nahrungsmitteltransparenz. Mögliche Absatzvorteile haben Unternehmen immer höher bewertet als ethisches Handeln. Ich bin mir sehr sicher, dass das auch in Zukunft so bleiben wird.“

Eine gesetzliche Regulierung ist nach Einschätzung des Dell-Managers daher unabdingbar. „Die angekündigte Strategie der Bundesregierung zur künstlichen Intelligenz kommt zwar sehr spät, berücksichtigt aber Datenschutz und Informationssicherheit und betont an vielen Stellen die Notwendigkeit von ethischen Standards“, erklärt Eror, „das ist sehr zu begrüßen“.

Auch die EU hat kürzlich ein KI-Maßnahmenpapier angekündigt, in dem ethische Rahmenbedingungen im Vordergrund stehen. Die Frage bleibt, ob auch andere Regierungen ein Interesse daran haben, sich in diesem Sinne selbst einzuschränken. Die USA haben zwar bereits 2016 einen strategischen Forschungs- und Entwicklungsplan für KI vorgestellt und betonen dort sehr nachdrücklich das Thema „ethische KI“. Es bleibt jedoch offen, wie sie etwa ihre angekündigten aggressiven Verteidigungspläne darauf abstimmen wollen. China, ein Land, das nicht besonders zimperlich mit der Privatsphäre umgehe, wie die jüngste Maßnahme zur allgegenwärtigen Gesichtserkennung beweist, werde ethische Aspekte eher weniger in den Vordergrund stellen.

Seit vielen Jahren wird der Ruf nach einer neuen Wirtschaftsordnung laut. Sie soll, so die große Mehrheit der Deutschen, Turbokapitalismus und Wachstum um jeden Preis zugunsten von mehr Gerechtigkeit und Umweltschutz ablösen. „Angesichts des rapiden Fortschritts der Technik und des potenziellen Missbrauchs der KI ist es an der Zeit, auch die Unternehmensethik ganz oben auf die Agenda zu setzen“, findet Eror.

Weitere Informationen dazu gibt es unter www.dellemc.com.

Dr. Jörg Schröper ist Chefredakteur der LANline.