Werbung
Suchtexperte Cédric Stortz:

Suchtexperte Cédric Stortz: "Wir lassen uns von ChatGPT blenden"

Wir fragen ChatGPT um Rat, unterhalten uns mit Chatbots, lassen KI unseren Alltag vereinfachen. Cédric Stortz vom Fachverband Sucht erklärt, wann wir unseren Konsum hinterfragen müssen, wo Vorsicht geboten ist und wie wir entscheidungsfähig bleiben.

annabelle: Bei jeder noch so kleinen Frage oder Unsicherheit den Chatbot ChatGPT um Rat bitten – dieses Phänomen ist mittlerweile weit verbreitet, im privaten wie auch beruflichen Umfeld. Ab wann spricht man da von einer Sucht?
Cédric Stortz: Sucht ist eine komplexe Thematik. Sucht ist eine Krankheit, ein bio-psycho-soziales Phänomen. Der Verlauf lässt sich am einfachsten anhand einer Substanz aufzeigen: Stosse ich ab und zu bei einer Party mit einem Glas Prosecco an, bin ich noch nicht alkoholkrank. Aber es kann ein Eintritt sein. Plötzlich gefällt mir vielleicht der Effekt, der Rausch, immer besser und ich möchte dieses Gefühl immer häufiger und stärker. Irgendwann kann ich nicht mehr ohne Alkohol und greife bereits morgens zur Flasche, trotz negativer Konsequenzen für mich und mein Umfeld. Ich verliere die Kontrolle über meinen Konsum und vernachlässige meine Pflichten und Kontakte.

Wie lässt sich das ummünzen auf den Konsum von digitalen Inhalten?
Bei sogenannten digitalen psychoaktiven Produkten, zu denen ich auch Künstliche Intelligenz zähle, ist es vergleichbar. ChatGPT kann ein super Werkzeug sein, um beispielsweise meinen Arbeitsalltag zu erleichtern oder rasch hilfreiche Antworten auf Fragen zu finden. Wenn ich aber irgendwann das Gefühl habe, meinen Alltag nicht mehr meistern zu können, ohne auf KI zurückzugreifen, dann könnte man theoretisch in eine Suchterkrankung geraten.

Sie haben den Weg zur Sucht angesprochen, gibt es da klar erkennbare Entwicklungsschritte, die einen alarmieren sollten?
Wir sprechen dabei von drei Faktoren. Der eine Faktor ist das Gefühl, nicht mehr ohne etwas funktionieren zu können; also der Drang, etwas zu konsumieren. Der zweite ist die gedankliche Beschäftigung; bereits nach dem Aufwachen sofort daran zu denken. Und der dritte – und für mich besonders relevante – ist der Schaden, der aus diesem Verhalten resultiert. Wenn diese drei Faktoren über längere Zeit anhalten, sind dies Alarmsignale.

Was könnte dieser Schaden denn beispielsweise bei ChatGPT sein?
Etwa in der Lehre oder im Job nicht mehr die gewünschte Leistung zu bringen, weil man zu viel Zeit auf einer digitalen Plattform verbringt. Oder wenn man die Freund:innen, die Familie vernachlässigt, weil man eher den Austausch mit einem Chatbot sucht als mit seinem Umfeld.

Werbung

"Sobald wir uns in der digitalen Sphäre bewegen, werden wir selbst zu Produkten"

Nun sehen viele User:innen mehr Vor- als Nachteile der KI. Gerade das Thema Einsamkeit veranlasst viele Menschen, Chatbots zu konsultieren, weil man so ja «mit jemandem sprechen kann». Man kann Fragen, die einen beschäftigen, irgendwo abladen. Kann KI Einsamkeit nicht verstärken, weil sich damit menschliche Interaktion gewissermassen ersetzen lässt?
Das sehe ich ähnlich. KI simuliert pseudo-soziale Kontakte. Ich habe kürzlich am Bahnhof zwei Jugendliche beobachtet, die darüber sprachen, was sie mit ihrem freien Nachmittag anstellen wollen. Sie fragten ChatGPT. Das scheint auf den ersten Blick lustig und innovativ. Gleichzeitig kann es aber auch problematisch werden, weil sie so ihre Entscheidungskompetenz vernachlässigen.

Wie kann ich mir das vorstellen?
Irgendwann traut man sich nicht mehr, selbst zu entscheiden, weil man sämtliche Entscheidungen an eine Maschine delegiert. Diese gaukelt einem vor, mit Rat und Tat zur Seite zu stehen, wie ein:e Freund:in. Momentan ist das noch textbasiert, aber ich bin überzeugt, dass es eine Frage der Zeit ist, bis KI-Anwendungen Avatare anbieten, was den Austausch noch mehr vermenschlichen würde.

Eigentlich wissen wir doch alle, dass es sich bei KI um eine Maschine handelt, und trotzdem behandeln wir Chatbots sehr menschlich. Ich habe Freund:innen, die Mental-Health-Themen mit ihnen besprechen. Es gibt Menschen, die sich in KI-Avatare verlieben. Was passiert da gerade mit uns?
Hinter diesen Interfaces stehen Firmen, die diese anbieten. Und das tun sie nicht aus einem altruistischen Grund, weil sie uns einfach Spass bereiten möchten – sie wollen Geld verdienen. Und arbeiten dafür mit der sogenannten Aufmerksamkeitsökonomie. Damit docken sie genau dort an, wo Menschen etwas suchen oder ausprobieren möchten. Egal ob wir von Games, Social Media oder KI sprechen: Die Tools werden so gestaltet, dass wir dranbleiben, interagieren wollen – bis wir schlussendlich über die Daten, die wir preisgeben, selbst zu Produkten werden.

Können Sie das erläutern?
Sobald wir uns in der digitalen Sphäre bewegen, werden wir zu Produkten für jemanden; für Meta, Open AI oder andere Anbieter. Je länger und intensiver wir mit den Tools interagieren, desto interessanter sind wir für sie, desto mehr Geld lässt sich mit uns und unseren Daten verdienen.

Wie lassen wir uns blenden?
Indem uns Nettigkeit vorgegaukelt wird. Wir werden geduzt, gelobt für kluge Fragen, kriegen nette Antworten. ChatGPT gibt uns positives Feedback, damit wir dranbleiben, weil es ein gutes Gefühl bei uns auslöst – wir wollen diesen Dopaminausstoss immer wieder. Dopamin wird im Belohnungssystem des Gehirns ausgestossen und man kriegt ein positives Feedback. Dieses will man immer wieder – im Worst Case kommt man davon nicht mehr los, wo wir wieder bei der Suchterkrankung sind.

Der grosse Unterschied zu einer Unterhaltung im echten Leben ist ja, dass wir da nicht immer mit positivem Feedback bei Laune gehalten werden. Man eckt an, es gibt schwierige Diskussionen, wir kriegen nicht für jede Frage ein Kompliment. Haben wir irgendwann keine Lust mehr, mit echten Menschen zu sprechen und verlieren dadurch unsere Gesprächskompetenz?
Ich glaube, es ist wirklich eine Gefahr unserer heutigen Gesellschaft, dass wir kritisches Denken und Problemlösen nicht mehr im gleichen Ausmass lernen und anwenden wie früher. Wir delegieren unsere eigenen Kompetenzen und Fähigkeiten, Probleme anzugehen und Konflikte zu lösen, an die Maschine. Doch diese Skills zeichnen uns Menschen doch aus. Wir schauen fasziniert Tierfilme, in denen Tiere im Laufe der Evolution immer bessere Fähigkeiten entwickeln und lernen, sich aus brenzligen Situationen zu befreien. Und machen in unserer eigenen Entwicklung eher Rückschritte: Wir freuen uns, wenn ein Tool für uns Probleme löst.

Werbung

"Überlassen wir aber immer KI den Entscheidungsprozess, verlieren wir irgendwann die Fähigkeit, selbst zu entscheiden"

Da geht es auch um die Lernfähigkeit. Wenn Schulkinder bereits ChatGPT Aufsätze schreiben lassen oder das Tool bei Hausaufgaben konsultieren, ist das natürlich der bequemere Weg, aber verkümmert so nicht auch unser Wille, etwas überhaupt zu lernen?
Ich glaube, dass wir hier an einem Kipppunkt sind in unserem Menschsein, in unserer Gesellschaft. Den einfachen Weg gehen zu wollen, ist evolutionär gedacht nachvollziehbar, er braucht weniger Ressourcen. Überlassen wir aber immer KI den Entscheidungsprozess, verlieren wir irgendwann die Fähigkeit, selbst zu entscheiden – weil wir uns davor fürchten. Das betrifft aktuell vor allem die jüngere Generation. Also greifen sie lieber zu ChatGPT, um eine gute Note zu schreiben, als mal zu versagen und daraus zu lernen. Laut einer Studie nutzt ein Drittel der Jugendlichen KI-Tools bereits mindestens wöchentlich.

Wohin entwickeln wir uns da?
Das A und O ist Medienkompetenz. Diese muss man schon möglichst früh erlernen und ich finde, es ist die Aufgabe der Schulen und der Eltern, mit Kindern und Jugendlichen darüber zu sprechen. Und ein Bewusstsein zu schaffen, mal nicht KI zu fragen, sondern zuerst selbst zu überlegen, wie man ein Problem lösen kann.

Was ist mit Menschen, deren Schulzeit bereits lange hinter ihnen liegt?
Ich sehe es als eine Aufgabe des Staats, einen Weg zu finden, um die Medienkompetenz der ganzen Gesellschaft zu fördern, über alle Alters- und Bildungsstufen und sozialen Schichten hinweg. Viel mehr als er es jetzt bereits tut. Damit wir als Gesellschaft lernen, mit den Medien und den digitalen, psychoaktiven Produkten, die Teil dieser Medien sind, umzugehen. Das könnten etwa Präventionsveranstaltungen oder Awareness-Kampagnen sein. Aber auch die Anbieter sind in der Verantwortung, wie gerade beim Beispiel des gefährlichen Hashtags «Skinnytok» auf TikTok. Da übten Staaten Druck aus und der Anbieter musste reagieren und die Inhalte von seiner Plattform nehmen.

Gibt es eine Richtlinie, an der wir uns orientieren können für einen gesunden Umgang mit KI?
Den einen richtigen Weg gibt es nicht – und gibt es generell nicht pauschal für alle. Wir befinden uns jetzt mittendrin in dieser Umstellung und müssen uns aktiv damit auseinandersetzen. KI wird dabei kontinuierlich besser und wird immer mehr Raum einnehmen in unseren Leben, in unserer Gesellschaft. Deswegen ist auch ein guter gesetzlicher Rahmen des Staats nötig, der uns und unsere Daten schützt. Wir müssen Wege und Werkzeuge finden, um uns hier zurechtzufinden.

Gerade was das Thema Daten angeht, scheinen viele Menschen kaum Bedenken zu haben, sehr persönliche Informationen oder auch berufliche Daten mit ChatGPT zu teilen. Wie schätzen Sie das ein?
Ich glaube, das ist ein Lernprozess, den wir durchlaufen müssen. Bei den KI-Tools fehlt uns diesbezüglich noch die nötige Awareness. Hier spielt sicherlich auch eine Rolle, wie problematisch oder eben unproblematisch unser Umgang mit KI ist. Je mehr wir eine problematische Verhaltensweise mit dem KI-Bot pflegen, desto eher sind wir vielleicht auch bereit, die intimsten Geheimnisse oder die sensibelsten Datensätze der Institution gegenüber preiszugeben. Zudem wissen wir noch nicht, in welche Richtung sich KI weiterentwickeln wird, vielleicht fragen Chatbots irgendwann explizit nach Informationen. Da müssen wir Nutzer:innen selbst vorsichtiger werden und es muss eine externe Regulierung geben.

Zurück zum Thema Sucht: Wenn man im Arbeitsalltag, in dem Chatbots durchaus unterstützend sein können, nervös wird, wenn das Tool mal nicht wie normal funktioniert – wie sehr sollte einen dieses Abhängigkeitsgefühl selbst beunruhigen?
Wenn man diese gedankliche Vereinnahmung bei sich selbst bemerkt, muss man sich bewusst werden, dass dieses Tool schon ein Stück weit überhandgenommen hat. Diese Erkenntnis ist ein wichtiger erster Schritt. Und dann gilt es, einen Weg zu finden, damit umzugehen. Wenn dann der Schaden und der Kontrollverlust dazukommen, rate ich, sich Hilfe zu holen. Das kann niederschwellig erst mal ein Gespräch mit Freund:innen oder Familie sein – wenn nötig aber in einem nächsten Schritt auch fachliche Unterstützung.

Machst du dir Sorgen um dich selbst oder um eine Person aus deinem Umfeld oder hast Fragen zum Thema Sucht? Hier findest du Hilfe:

Via suchtschweiz.ch findest du Anlaufstellen

Anonyme Online-Plattform für Suchtberatung safezone.ch

Der Suchtindex hilft, schweizweit Institutionen zur Suchthilfe zu finden

feel-ok richtet sich an hilfesuchende Jugendliche oder Angehörige

Abonniere
Benachrichtigung über
guest
3 Comments
Älteste
Neuste Meistgewählt
Inline Feedbacks
View all comments
Maren

Ein interessantes Phönomen, das unserer Gesellschaft den Spiegel vorhält: Wenn Menschen im Gespräch mehr mit Kritik, Frustration, Negativem, Neid oder gar Toxizität antworten, ist es äußerst gesund, sich lieber einer unterstützenden KI zuzuwenden, die logisch die Antwort auf Fragen erklären kann und sogar EMDR beherrscht – in einer Zeit, in der Therapeuten so überlaufen sind, dass sie nichtmal mehr eine Warteliste führen. Chat GPT füllt das riesige emotionale Loch, das durch Vereinzelung und schwindende Sozialkompetenz entsteht. Damit ist auch klar, wo man ansetzen muss: Traumaarbeit bereits in der Schule, Gestalttherapie frühzeitig für jeden zur Ausbildung emotionaler Kompetenz und Unterricht darin, wie man sich gegenseitig unterstützt statt zu beneiden und zu mobben. Chat GPT füllt ein wesentliches Loch und wird nicht verschwinden, solange das Loch da ist.

Frank

Phönomenal

philipp

Mensch werde besser! Gib positive Feedbacks, mach Komplimente, sei da, wenn Du gebraucht wirst, überdenke das System der Notenvergabe … “auch mal versagen”? Die Welt ist voll von menschlichem Versagen: Kriege, Klimaschutz, Ungerechtigkeit, Unfälle, Fehldiagnosen – Sie empfehlen noch mehr davon? Medienkompetenz, Medienkompetenz, Medienkompetenz – völlig korrekt. Erkennen, welches Ziel die Anbieter verfolgen, richtig. Ihnen nicht alles durchengehen lassen, Regeln aufstellen und kontrollieren – super. Z. B. chatgpt als Werkzeug nutzen – gut heißen! Sie wollen weder die Pferdekutsche zurück, in Höhlen im Bärenfell leben noch bauen nach Pyramidenart und Fahrzeuge, Softshelljacken oder Kräne als potentielle Suchtgefahr erklären.