Werbung
Kann man KI überhaupt verantwortungsvoll nutzen?

Kann man KI überhaupt verantwortungsvoll nutzen?

KI ist im Alltag angekommen – doch wie ethisch sind ChatGPT und Co.? Ethikprofessor Peter G. Kirchschläger ordnet aktuelle Kritik ein und erklärt, warum heutige KI-Systeme aus seiner Sicht grundlegend problematisch sind.

ChatGTP und Co. sind in unserem Alltag angekommen: Knapp 80 Prozent der Erwachsenen in der Schweiz verwenden heute KI-Werkzeuge, wie eine neue Umfrage von Comparis zeigt. In der Altersgruppe der 18- bis 35-Jährigen beträgt die Nutzungsrate sogar 90 Prozent. Besonders häufig im Einsatz: ChatGTP, der Chatbot von OpenAI.

Gleichzeitig wächst aber auch Skepsis. Anfang Jahr lancierten Demokratie-Aktivist:innen, wie sie sich selbst bezeichnen, die Bewegung «Quit ChatGTP». Dies, nachdem bekannt geworden ist, dass die Open-AI-Führung mutmasslich Millionen an die Regierung von US-Präsident Donald Trump gespendet hatte. Im März hat OpenAI zudem einen Vertrag mit dem US-Verteidigungsministerium geschlossen, um seine KI-Systeme militärisch einzusetzen.

Wie soll und kann man als Nutzer:in darauf reagieren? Und ganz generell: Wie lassen sich die heutigen KI-Modelle ethisch nutzen?

Darüber haben wir mit Ethikprofessor Peter G. Kirchschläger gesprochen. Er forscht zu ethischen Fragen von Künstlicher Intelligenz (KI), die er aufgrund «mangelnder Intelligenz» als datenbasierte Systeme (DS) zu bezeichnen vorschlägt. Deshalb steht der Begriff KI in seinen Antworten in Anführungszeichen.

annabelle: Was halten Sie von der Initiative «Quit ChatGTP»?
Peter G. Kirchschläger: Dass wir als Konsument:innen versuchen, mit unserem Nutzungsverhalten ethische Verantwortung wahrzunehmen, erachte ich als positiv. Wir tragen schliesslich eine Mitverantwortung. Die ist natürlich klein im Vergleich zur Verantwortung, die «KI»-Unternehmen innehaben. In meinen Augen gilt hier die Formel, je grösser die Macht, desto grösser die Verantwortung und umgekehrt. Ich denke aber, man muss diese Entwicklungen mit Vorsicht beobachten.

Werbung

"Wir müssen aufpassen, dass wir nicht erneut auf denselben Schmarrn reinfallen"

Weshalb?
In die Lücke, die OpenAI hinterliess, springt jetzt nur zu gern das «KI»-Unternehmen Antrophic mit seinem Chatbot Claude. Jenes Unternehmen, das die Zusammenarbeit mit dem US-Verteidigungsministerium abgelehnt hatte, worauf OpenAI zum Zug kam. Antrophic positioniert sich gerade als vermeintlich einzig «gute» KI-Firma. Das kommt mir bekannt vor.

Weil sich OpenAI früher ebenfalls so dargestellt hat?
Genau. Und unter diesem Mantel der vermeintlichen Korrektheit bestreitet nun auch Anthropic eine Finanzierungsrunde, sammelt also Kapital von Investor:innen ein. Wir müssen aufpassen, dass wir nicht erneut auf denselben Schmarrn reinfallen, wie ich das als gebürtiger Wiener nennen würde. Zumal solche Fragen – wie zum Beispiel jene nach der militärischen Nutzung von «KI» – nicht beliebig und willkürlich von einzelnen Unternehmen entschieden werden sollten, sondern international und rechtlich geregelt gehören, da es hier um die Zukunft der Menschheit und des Planeten geht.

Verfolgen denn die Macher:innen von Antrophic nicht ethischere Standards?
Sie machen die genau gleichen Geschäfte wie die anderen «KI»-Firmen auch. Und dieses stufe ich grundsätzlich als ethisch problematisch ein.

Warum?
In der Entstehungsgeschichte aller «KI»-Modelle, die momentan auf dem Markt sind, stecken Urheberrechtsverletzungen.

Werbung

"Ein 'KI'-generierter Text von 100 Worten verbraucht Schätzungen zufolge einen halben Liter Wasser"

In tatsächlich allen Modellen?
Leider ja. Dazu laufen mehrere Gerichtsverfahren. Ein prominentes Beispiel: Die «New York Times» hat OpenAI verklagt, weil das Unternehmen ungefragt ihre Artikel fürs Training verwendet hat, diese in Antworten des Chatbots aber mutmasslich ohne Quellenangabe zitiert werden. In Deutschland haben die Verwertungsgesellschaft Gema und die Verlagsgruppe Penguin Random House ebenfalls Klage gegen OpenAI eingereicht.

Das Verfahren der «New York Times» läuft noch. OpenAI argumentiert, dass das Training mit urheberrechtlich geschütztem Material unter den US-Rechtsbegriff «fair use» falle. Was sagen Sie dazu?
Das stimmt nicht. Das Urheberrecht schützt explizit vor dem, was OpenAI getan hat. Rechtsstaaten und die internationale Gemeinschaft sollten sich entschlossen gegen diesen erneuten Versuch von multinationalen Technologiekonzernen wehren, rechtliche und ethische Grenzen zu verschieben – wie sie es bereits bei den Menschenrechten auf Datenschutz und Privatsphäre versuchen.

Hier orten Sie weitere ethische Probleme?
Ja, unsere Daten werden für Trainingszwecke verwendet und an Dritte verkauft. Ausserdem können wir durch die riesigen Datenmengen, welche die Unternehmen von uns sammeln, als Konsument:innen und als politische Bürger:innen manipuliert werden. Wer das entsprechende Modell kontrolliert, kann uns dahingehend beeinflussen, wie wir einkaufen oder abstimmen und wählen. Dass wir davor geschützt werden sollten, ist nicht bloss ein frommer Wunsch, sondern menschenrechtlich garantiert – etwa in der Allgemeinen Erklärung der Menschenrechte der UNO und darauf aufbauenden Menschenrechtsverträgen wie der Europäischen Menschenrechtskonvention. Es kommt auch noch andernorts zu Menschenrechtsverletzungen.

Wo?
Etwa bei der Herstellung der Computer und der für die «KI» nötigen Bestandteile an Billigproduktionsstandorten. Und auch schon bei der Schürfung der für «KI» notwendigen Rohstoffe, wobei im Weiteren die Umwelt geschädigt wird.

Die Umwelt leidet stark unter KI.
Ja, «KI»-Modelle verursachen grosse ökologische Probleme: Durch den Abbau der Rohstoffe, die Herstellung der Hardware, den enormen Wasserverbrauch bei der Kühlung der Rechenzentren und den grossen Energiebedarf. Ein «KI»-generierter Text von 100 Worten verbraucht Schätzungen zufolge einen halben Liter Wasser. Und dabei können wir uns nicht mal auf die Qualität und den Wahrheitsgehalt dieses Textes verlassen.

"Wir stellen uns Maschinen oft fair und objektiv vor. Doch das ist nicht der Fall"

Weshalb eigentlich nicht – wenn die Modelle doch immer schlauer werden?
Die Daten, die zum Training der Modelle verwendet worden sind, wurden nicht nach Qualität hierarchisiert und gewichtet. Ein Neonazi-Blatt und die «New York Times» beispielsweise werden als gleich wichtig eingestuft. Das Wahrheitskriterium gilt für diese Modelle nicht. Ob stimmt, was sie rauslassen, ist diesen Systemen nicht einmal egal – als Maschinen verfügen sie ja weder über Bewusstsein noch über Selbstwahrnehmung.

Spannenderweise erwarte ich von einem KI-Modell automatisch eher, dass es neutral und wahr berichtet, als es ein Mensch tun würde.
Ja, wir stellen uns Maschinen oft fair und objektiv vor. Doch das ist nicht der Fall. Was eine Maschine ausspuckt, ist immer abhängig davon, wie ihre Algorithmen gebaut worden sind, und von den Verzerrungen in ihren Daten, die durch die Auswahl entstehen, womit die Modelle trainiert wurden und werden. Hinzu kommt jetzt noch, dass OpenAI bei Nutzer:innen in den USA erste Versuche startet, Inhalte zu kommerzialisieren.

Was bedeutet das?
Das heisst, dass unterhalb der Antworten des Chatbots bezahlte Antworten von Unternehmen eingeblendet werden. Ähnlich, wie wir das leider als ethisch problematische Praxis bereits von Online-Suchmaschinen kennen.

"Der gesamte Lebenszyklus einer sogenannten 'KI' muss menschenrechtskonform sein"

Noch einmal zum Datenschutz: Bei ChatGTP existiert die Funktion «Temporärer Chat». Dort heisst es, dass die eingegeben Daten nicht zum Training verwendet werden.
Die Funktion ist ein Versuch von OpenAI, ein Zeichen für den Datenschutz zu setzen. Wenn man aber unter anderem die enge Zusammenarbeit von OpenAI mit der aktuellen US-amerikanischen Regierung betrachtet, dann würde ich nicht meine Hand ins Feuer legen, dass garantiert keinerlei Daten daraus verwendet werden.

Es gibt keine Kontrolle, die uns als Nutzer:innen schützt?
Bisher leider nicht. Hinzu kommt, dass es im Kampf um den Spitzenplatz unter «KI»-Firmen insbesondere darum geht, wer die meisten Daten zur Verfügung hat, mit denen die Systeme weiterentwickelt werden können. Diese fehlende Kontrolle muss sich dringend ändern.

Wie?
Basierend auf meiner Forschung sollte der gesamte Lebenszyklus einer sogenannten «KI» menschenrechtskonform sein. Ich schlage eine menschenrechtsbasierte globale Regulierung von «KI» vor. Sowie die Schaffung einer Internationalen Agentur für datenbasierte Systeme (IDA) bei der UNO.

"Es existieren bisher keine Systeme, die nachhaltig und ethisch in Ordnung sind"

Ihre Vorschläge stossen weltweit auf positives Echo.
Ja, unter anderen unterstützen UNO-Generalsekretär António Guterres, der Papst, der Dalai Lama sowie zahlreiche Unternehmer:innen und ein stets wachsenden internationales und interdisziplinäres Expert:innen-Netzwerk diese Vorhaben.

Was können wir bis dahin tun? Gibt es tatsächlich kein Modell, bei dem sie weniger ethische Probleme orten?
Sogenannte «KI» besitzt ethisch positives Potenzial. Aber bisher existieren keine Systeme, die nachhaltig und ethisch in Ordnung sind. Eine menschenrechtsbasierte, globale Regulierung und die erwähnte IDA bei der UNO sollten dafür sorgen, dass wir «KI» künftig ohne schlechtes Gewissen nutzen können. Bis dahin lade ich dazu ein, möglichst selbst zu denken und die aktuell zur Verfügung stehenden Modelle nicht zu nutzen. Nicht zuletzt, weil die Antworten aus «KI»-Modellen die Breite, Tiefe und Weite unseres Denkens einschränken.

Peter G. Kirchschläger ist Ethikprofessor an der Universität Luzern sowie Gastprofessor an der ETH Zürich und forscht zu ethischen Fragen von «KI».

Abonniere
Benachrichtigung über
guest
0 Comments
Älteste
Neuste Meistgewählt
Inline Feedbacks
View all comments