ZEIT für X
Künstliche Intelligenz

„Künstliche Intelligenz spiegelt gesellschaftliche Probleme“

24. Mai 2022
Ein Artikel von Studio ZX.

Jeder technologische Fortschritt prägt unsere Gesellschaft. Aber zu welchem Preis? Ein Gespräch mit Jasminko Novak über die Konsequenzen von Algorithmen.

von Stella Pfeifer, Studio ZX

Wie sehr der Einsatz neuer Technologien wie künstliche Intelligenz und Algorithmen mit unserer Gesellschaft und damit auch mit unserer Demokratie verbunden ist, dazu haben wir mit Jasminko Novak, Professor an der Hochschule Stralsund und Leiter des Kompetenz­zentrums für Human-Centered Intelligent Systems & Sustainability am Institute for Applied Computer Science gesprochen.

Studio ZX: Künstliche Intelligenz und Demokratie. Herr Novak, was haben diese beiden Themen überhaupt miteinander zu tun?

Jasminko Novak: Ganz grundsätzlich ist künstliche Intelligenz erst einmal eine Sammlung unterschiedlicher Technologien, Methoden und Werkzeuge. Und neue Technologien haben schon immer gesellschaftliche Entwicklungen beeinflusst. Sie verändern, wie Menschen Informationen empfangen, wie sie Entscheidungen treffen, sich eine Meinung bilden. Sie verändern, wie Menschen an der Gesellschaft teilhaben können und wie wir einander und die Gesellschaft als Ganzes wahrnehmen.

Jasminko Novak
© Hochschule Stralsund

Prof. Dr. Jasmniko Novak ist Professor für Wirtschafts­informatik, Leiter des Competence Center Human-centered Intelligent Systems & Sustainability und Vize-Direktor des Institute for Applied Computer Science an der Hochschule Stralsund. Außerdem hat er die Leitung der Lehr­einheit Wirtschafts­informatik inne und ist Vorstand des European Institute for Participatory Media in Berlin.

Wie zum Beispiel auch das Fernsehen oder das Internet unsere Gesellschaft geprägt haben?

Ganz genau. Und mit jeder dieser Entwicklungen kommen neue Möglichkeiten, aber auch Probleme hinzu. Bei der künstlichen Intelligenz ist das noch stärker ausgeprägt, weil sich die Technologie schnell wandelt und auf uns unvertrauten Grund­prinzipien basiert, die intuitiv nicht einfach zu erfassen sind. Die „Anders­artigkeit“ von KI-Technologien umfasst auch eine Form von Kontroll­verlust.

Was meinen Sie damit genau?

Es ist nur eingeschränkt möglich, das genaue Verhalten und die Auswirkungen solcher Systeme im Vorfeld voll­ständig definieren und voraus­zu­sagen. Die Geschwindigkeit, das hohe Maß an Komplexität und die Undurch­dringlichkeit – damit haben wir kaum gesamt­gesellschaftliche Erfahrungen. Insbesondere für diejenigen, die sich nicht täglich mit dem Thema beschäftigen, wird es immer schwieriger, die Konsequenzen von künstlicher Intelligenz im Alltag zu verstehen und einzuordnen.

Wann wird daraus eine Gefahr für unsere Demokratie?

Beispielsweise, wenn ein Algorithmus dazu genutzt wird, Desinformationen zu verbreiten. Wir haben das beim vergangenen Wahlkampf der USA erlebt und wir erleben es zunehmend in Europa, nicht zuletzt auch in der Corona-Pandemie. Große Social-Media-Platt­formen setzen Methoden der künstlichen Intelligenz so ein, dass die Verbreitung von manipulativen Inhalten, von stark polarisierenden Inhalten, von Fake News und Hass begünstigt und indirekt auch befeuert wird. Oder Politiker können für ihre Wahl­kampagnen ein sogenanntes Micro-Targeting einkaufen.

Micro-Targeting – wie funktioniert das und was daran ist problematisch?

Jedes Soziale Netzwerk sammelt unzählige Daten von Menschen, die die Netzwerke nutzen. Jede Person hat ein Nutzer­profil, in dem nicht nur ihre Interessen gespeichert werden und mit welchen Inhalten sie interagiert hat, sondern es können auch politische Präferenzen und Meinungen abgeleitet werden. Politiker können basierend auf diesen Informationen politische Botschaften gezielt und für diese Person individualisiert ausspielen. Inhalte so angepasst zu präsentieren wird schnell zur Manipulation. Es geht nicht mehr um die Botschaft, um den eigentlichen Inhalt. Vielmehr geht es darum: Wie kann ich etwas so darstellen und vielleicht auch verdrehen, damit es zu den bestehenden Vorurteilen, Meinungen und Interessen des Empfängers passt? Das ist eine sehr hinter­listige Form des Missbrauchs der technischen Möglichkeiten. Insbesondere auch, weil es für die Nutzer nahezu unmöglich ist zu wissen, dass die Inhalte so gezielt und manipulativ für sie personalisiert wurden. Und weil es sehr schwierig ist, die reale Gefahr eines solchen Missbrauchs künstlicher Intelligenz den Nutzern zu vermitteln, wenn sie die zugrunde­liegenden Funktions­weisen solcher Algorithmen intuitiv nicht erfassen können.

Das Problem, dass Algorithmen in den sozialen Netzwerken dazu führen, dass Menschen manipuliert werden, ist bekannt – auch den Unternehmen selbst. Frances Haugen, eine ehemalige Facebook-Mitarbeiterin, hat kürzlich interne Dokumente veröffentlicht, die beweisen sollen, dass das Unternehmen weiß, welche Probleme es gibt – und trotzdem nichts dagegen unternimmt.

Und damit sind wir mitten im Kern des Problems. Denn die Unternehmen, die solche Methoden einsetzen, wissen: Würde man etwas dagegen tun, würde man Algorithmen so programmieren, dass sie polarisierende Inhalte nicht belohnen, dass sie nicht auf die höchste Inter­aktions­rate aus sind, wenn es also weniger Aktivität seitens der Nutzenden geben würde, dann würde das den wirtschaftlichen Interessen des Unternehmens entgegen­stehen und ihre derzeitigen Geschäfts­modelle gefährden, die ja genau darauf ausgerichtet sind.

Wir sehen immer klarer, dass es nicht so einfach möglich ist, zwischen den wirtschaftlichen Interessen eines Unternehmens und deren Auswirkungen auf die Gesellschaft zu differenzieren.

Am Ende geht es also um Geld.

Aus Unternehmenssicht ja, daran gibt es inzwischen wenig Zweifel. Als Gesellschaft sollte uns aber meines Erachtens diese Frage wichtiger sein: Was empfinden wir als Gesellschaft im wirtschaftlichen Kontext überhaupt als zulässig? Wir sehen immer klarer, dass es nicht so einfach möglich ist, zwischen den wirtschaftlichen Interessen eines Unternehmens und deren Auswirkungen auf die Gesellschaft zu differenzieren. Mein Punkt ist aber eigentlich, dass diese Frage immer die grund­legende Frage einer wirtschaftlichen Tätigkeit sein müsste. Natürlich gibt es auch in Deutschland entsprechende gesetzliche Regelungen, die einen Ordnungsrahmen für wirtschaftliche Tätigkeiten vorgeben. Aber an diesem Beispiel sehen wir ein­drucks­voll, wie schwierig es ist, beides voneinander zu trennen: das, was aus wirtschaftlichen Interessen verfolgt wird, zur sogenannten Gewinn­maximierung, und wie neue Technologien dazu missbraucht werden. Und den Preis, den wir dann als Gesellschaft zahlen müssen, weil der Fokus auf eine Gewinn­maximierung in diesem Fall dazu führt, dass demokratische Prozesse gefährdet werden.

Schlussendlich ist es also nicht die Technologie der künstlichen Intelligenz, die unsere Demokratie gefährden kann, sondern wie diese Technologie von wem eingesetzt wird?

Ja. Und auch, wie und wofür sie entwickelt wird. Denn es gibt vielfältige positive Einsatz­möglichkeiten von Algorithmen und künstlicher Intelligenz, von der Medizin bis zur Nach­haltigkeit. Um die Technologie verantwortungs­bewusst zu nutzen und Gefahren für die Gesellschaft zu vermeiden, brauchen wir für unser Handeln ethische Spielregeln: in der Forschung und Entwicklung der Technologien und für ihren wirtschaftlichen Einsatz. Für mich funktioniert das Bild mit einem Spiegel mit Vergrößerungs­linse gut. künstliche Intelligenz spiegelt viele gesellschaftliche Probleme, die auch vorher schon da waren, dessen Bedeutung aber im Alltag nicht so stark wahrgenommen oder sogar verdrängt wurde. Jetzt werden diese gesellschaftlichen Heraus­forderungen verstärkt. Und hier sprechen wir nicht nur über Desinformation und Manipulation, sondern auch über Vorurteile, strukturelle Diskriminierungen und Daten­sicherheit.

Um die Technologie verantwortungs­bewusst zu nutzen und Gefahren für die Gesellschaft zu vermeiden, brauchen wir für unser Handeln ethische Spielregeln.

Haben Sie dafür vielleicht ein ganz konkretes Beispiel?

Klar, bleiben wir bei dem Social-Media-Beispiel: Dort wird durch die von Algorithmen verstärkte Polarisierung und Desinformation plötzlich sichtbar, dass in unserer Gesellschaft bestimmte Themen anders verhandelt werden müssten. Ausgelöst hat diese Ängste kein Algorithmus, denn sie waren schon vorher da. Aber sie wurden verstärkt und zwar in einer hohen Geschwindigkeit. Auch deswegen müssen wir den Einsatz dieser Technologien immer wieder reflektieren. Insofern ist da vielleicht auch die Hoffnung, ironischer­weise, dass es vielleicht genau diese Probleme sind, auf die wir jetzt stoßen, die uns dabei helfen, eine stärkere Sensibilität für gesellschaftliche Heraus­forderungen zu entwickeln, die wir viel zu lange vernachlässigt haben.