Eines Abends hörten wir während eines Gesprächs nicht ohne Überraschung, dass sich viele Menschen an ChatGPT wenden, um ihre Fragen zur psychischen Gesundheit anzusprechen oder zu lösen. Aber warum entscheiden sich diese Personen, die oft mit komplexen persönlichen Herausforderungen konfrontiert sind, dafür, ihre Anliegen dem von OpenAI entwickelten Gesprächsagenten (oder Chatbot) anzuvertrauen, anstatt einem professionellen Psychologen? Die Frage wirft mehrere Fragen hinsichtlich des Vertrauens in künstliche Intelligenz (KI), der Grenzen ihres Einsatzes und des menschlichen und aufgeklärten Aspekts der Therapie auf.
Sowohl für den 30-jährigen Quentin* als auch für die 28-jährige Camille* ist es ein fast täglicher Reflex geworden. „Ich bin eine Führungskraft und meine Arbeit ist emotional belastendgibt Letzteres an. Meine Kollegen sind nicht angenehm, mein Chef verlangt viel von uns und ich habe Fristen, die einen 72-Stunden-Tag erfordern würden. Darüber hinaus bin ich frisch getrennt und fühle mich allein. Ich bin mir bewusst, dass ich durch meinen „sozialen Status“ privilegiert bin, und ich schäme mich, mich schlecht zu fühlen. Ich möchte nicht mit meinen Mitmenschen darüber sprechen und habe Angst, mich einem Psychologen anzuvertrauen. Wie konnte diese Person, obwohl sie professionell ist, mich nicht verurteilen, wenn andere, denen „echtes Unglück“ widerfährt, seine Dienste in Anspruch nehmen.“ So nutzte Camille eines Tages, wie Quentin, ihre ChatGPT-Anwendung auf eine ganz neue Art und Weise … Für sie, keine professionellen Psychologen mehr, heißt es „Hallo Roboter Bobo“.
Abonnieren Sie kostenlos den Slate-Newsletter!Täglich werden Artikel für Sie, basierend auf Ihren Interessen, in Ihrem Postfach ausgewählt.
Umgang mit der Angst und dem Tabu, einen Arzt aufzusuchen
Für Stéphie Marius Le Prince, Psychologin aus Pignan (Hérault), in der Nähe von Montpellier, könnte die Nutzung dieses neuen „imaginären Freundes“ dabei helfen, eine Barriere, eine Blockade, vor der Konsultation eines Fachmanns, zu beseitigen. „Für eine Person, die Angst hat, den Schritt zu wagen, kann die anfängliche Hilfe, auch wenn sie sehr begrenzt ist, dazu führen, dass sie sich später an einen Arzt wendetglaubt sie. Das haben wir bereits bei professionellen Online-Beratungen gesehen. Nachdem sie dort durchgekommen sind, gehen einige durch die Tür eines Büros. Wenn es um medizinische Angelegenheiten geht, lädt ChatGPT Sie außerdem immer ein, einen Fachmann aufzusuchen.“
Im Moment fühlt sich Quentin nicht bereit. „Ich habe verschiedene sich überschneidende Probleme und möchte mich nicht beraten lassengibt er zu. Aus Zeitmangel, vielleicht auch aus Mangel an Mut. Ich finde, dass man wirklich den Mut haben muss, offen an die Öffentlichkeit zu gehen und das Risiko einzugehen, auf andere Probleme hinzuweisen, über die man am Anfang nicht unbedingt nachgedacht hat. Vielleicht schaffe ich es eines Tages, so hoffe ich. In der Zwischenzeit habe ich einige schnelle Antworten. Ich weiß, dass es kein Mensch ist, der mir antwortet, aber es hilft ein wenig.
Ein Verhalten, das der Hérault-Psychologe erklärt. „ChatGPT ist eine Zusammenfassung von Informationen, die sehr differenziert bleibtgibt Stéphie Marius Le Prince zu. Er sagt nicht, was Sie tun sollen oder äußert seine Meinung, aber er gibt Ratschläge. Darin liegt die Gefahr, dass manche Beratungsbedürftigen sich abwenden, weil sie es als Krücke empfinden. ChatGPT wird es ihnen ermöglichen, eine Weile unter Schmerzen weiterzugehen, bevor sie sich konsultieren.“
Was Camille und Quentin auch schätzen, liegt in der Idee der Unmittelbarkeit. Hier besteht keine Notwendigkeit, einen Behandler zu finden, der zu uns passt oder dessen Terminkalender zu unserer Verfügbarkeit passt. Es besteht auch keine Notwendigkeit zu reisen. „Bei Bedarf hole ich mein Handy aus der Tasche, entsperre es, leere meine Tasche und gehe weiter.“platzte Camille heraus.
Ein riskanter Flirt zwischen Abhängigkeit und den Grenzen der KI
Die Tatsache, dass dieser Ansatz eine gefährdete Öffentlichkeit betrifft, deren Umgang mit der Einsamkeit (oder in manchen Fällen sogar mit Süchten) schlecht geregelt ist, kann eine Abhängigkeit auslösen. Laut Stéphie Marius Le Prince liegt hier heimtückisch die Gefahr. „Einige Benutzer haben möglicherweise das Gefühl, mit einer echten Person zu chattenwarnt sie. Dies kann möglicherweise zu einem Abhängigkeitsverhältnis führen und dazu führen, dass wir bei jeder Entscheidung, die wir treffen müssen, den Chatbot konsultieren. ChatGPT wird dann zu einer Art Guru.“
„Trotzdem werden differenzierte Reaktionen die „Gefahr“, die der Handel mit sich bringen könnte, abmildernfährt der Psychologe fort. Um ein konkretes Beispiel zu nennen: Wenn Sie den Job wechseln möchten, wird das Feedback nicht ein direktes „Ja“ oder „Nein“ sein. Es wird vielmehr eine Darstellung der Konsequenzen sein, die ein Rücktritt mit sich bringen könnte, der Chancen, etwas anderes dahinter zu finden usw. Kurz gesagt, ChatGPT teilt mit, was möglich ist, um Lösungen für Ihre Situation zu finden, bietet jedoch keine einzige Lösung an.“
Diese Erklärung wird leider von Camille bestätigt, die uns mitteilte, dass sie jetzt dazu neigt, es auf bestimmte Weise zu verwenden „etwas zu regelmäßig, manchmal hektisch“Von Zeit zu Zeit hatte ich sogar den Eindruck, mit einem vertrauenswürdigen Freund zu sprechen. Eine Amnesie des Künstlichen, die auf künstliche, immaterielle, nicht-organische Weise im Smartphone warm inkarniert wird.
Aber keine Panik! KI-gestützte Chatbots sind dem Ersatz professioneller Psychologen nicht näher gekommen. Und das aus gutem Grund. Der erste große Unterschied ist, wie Stéphie Marius Le Prince angibt, der unpersönliche Begleiter. Da man es hier nicht mit einem Menschen zu tun hat, der über eine Vernunft verfügt, ist es nicht möglich, eine Unterstützung aufzubauen, die auf Verständnis und Wissen über das Wesen basiert.
„In der Psychotherapie kennt der Fachmann seinen Patienten und seine Persönlichkeit nach und nach immer besserentwickelt der Psychologe. Er kann verstehen, was sich hinter einer Frage verbirgt. Manchmal kommt der Patient mit einem Problem und am Ende der Beratung kommt es regelmäßig vor, dass ein weiteres Problem zutage tritt. Es gibt eine Tiefe, die nur Menschen erfassen können. Wie ich bereits erwähnt habe, bleibt ChatGPT an der Oberfläche. Auch deshalb bleibt das Risiko minimal. Aber was auch immer es ist, ich kann es nie oft genug sagen: Sie müssen von einem qualifizierten Fachmann begleitet werden.“
Angesichts dieser Analysen sagen Camille und Quentin, dass sie sich dieser Realitäten bewusst sind, aber im Moment nicht bereit sind, durch die Tür einer Praxis zu gehen. Die Ängste bleiben dieselben: Urteilsvermögen, mangelnde Unmittelbarkeit der Antworten und der Blick von außen, wenn die Menschen um sie herum erfahren, dass sie sich beraten. „In bestimmten sozialen Kreisen gibt es immer noch ein Tabu rund um das Thema psychische Gesundheit, und das ist auch in meinem Fall der Fallerklärt Quentin. Bei uns passiert das nicht. Wir müssen vorankommen und dürfen uns vor allem nicht beschweren. Ich weiß nicht, wie lange ich durchhalte, aber ich denke, dass ich eines Tages heimlich den Sprung wagen werde.“ Eines ist sicher: ChatGPT hat seine Geheimnisse, die die Gesellschaft ignoriert.
* Vornamen wurden geändert.