Select Page

Wie schlimm sind KI-Wahnvorstellungen? Wir haben Menschen gefragt, die sie behandeln.

Wie schlimm sind KI-Wahnvorstellungen? Wir haben Menschen gefragt, die sie behandeln.

Julia Sheffield, eine Psychologin, die sich auf die Behandlung von Menschen mit Wahnvorstellungen spezialisiert hat, ist schwer aus der Fassung zu bringen. Aber letzten Sommer war sie verunsichert, als Patienten anfingen, ihr von ihren Gesprächen mit KI-Chatbots zu erzählen.

Eine Frau, die in der Vergangenheit keine psychischen Erkrankungen hatte, bat ChatGPT um Rat zu einem größeren Kauf, über den sie sich Sorgen gemacht hatte. Nachdem der Bot tagelang ihre Sorgen bestätigt hatte, kam sie zu der Überzeugung, dass Unternehmen Absprachen getroffen hatten, um staatliche Ermittlungen gegen sie einzuleiten.

Eine andere Patientin kam zu der Überzeugung, dass ihr eine romantische Schwärmerei geheime spirituelle Botschaften übermittelte. Noch ein Gedanke: Er war zufällig auf eine weltverändernde Erfindung gestoßen.

Bis Ende des Jahres hatte Dr. Sheffield sieben solcher Patienten im Vanderbilt University Medical Center in Nashville behandelt. Obwohl sie es gewohnt ist, Menschen mit geistiger Instabilität zu behandeln, war Dr. Sheffield beunruhigt darüber, dass diese neue Technologie die Menschen anscheinend von exzentrischen Gedanken in völlige Wahnvorstellungen verlagert.

„Es war, als würde die KI mit ihnen zusammenarbeiten, um ihre ungewöhnlichen Überzeugungen zu erweitern oder zu stärken“, sagte Dr. Sheffield.

Laut mehr als 100 Therapeuten und Psychiatern, die der New York Times von ihren Erfahrungen berichteten, beschäftigen sich psychiatrische Fachkräfte im ganzen Land mit der Behandlung von Problemen, die durch KI-Chatbots verursacht oder verschlimmert werden.

Während viele positive Effekte der Bots erwähnten – etwa, den Patienten zu helfen, ihre Diagnosen zu verstehen – sagten sie auch, dass die Gespräche das Gefühl der Isolation oder Angst ihrer Patienten verstärkten. Mehr als 30 beschriebene Fälle führten zu gefährlichen Notfällen wie Psychosen oder Selbstmordgedanken. Eine kalifornische Psychiaterin, die häufig Menschen im Rechtssystem beurteilt, sagte, sie habe zwei Fälle von Gewaltverbrechen gesehen, die durch KI beeinflusst wurden

Reporter der Times haben seit letztem Jahr mehr als 50 Fälle von psychischen Krisen im Zusammenhang mit Chatbot-Gesprächen dokumentiert. OpenAI, der Hersteller von ChatGPT, sieht sich mit mindestens 11 Klagen wegen Körperverletzung oder unrechtmäßiger Tötung konfrontiert, in denen behauptet wird, der Chatbot habe psychischen Schaden verursacht.

Die Unternehmen, die hinter den Bots stehen, sagen, dass solche Situationen äußerst selten seien. „Für einen sehr kleinen Prozentsatz der Benutzer in einem psychisch fragilen Zustand kann es zu ernsthaften Problemen kommen“, sagte Sam Altman, der Geschäftsführer von OpenAI, im Oktober. Das Unternehmen schätzt, dass 0,15 Prozent der ChatGPT-Benutzer im Laufe eines Monats über Selbstmordabsichten diskutierten und 0,07 Prozent Anzeichen einer Psychose oder Manie zeigten.

Bei einem Produkt mit 800 Millionen Nutzern bedeutet das, dass 1,2 Millionen Menschen möglicherweise Selbstmordabsichten haben und 560.000 Menschen möglicherweise an einer Psychose oder Manie leiden.

(Die Times hat OpenAI verklagt und ihm vorgeworfen, beim Training seiner Modelle gegen Urheberrechte verstoßen zu haben. Das Unternehmen hat die Klage angefochten.)

Viele Experten sagten, dass die Zahl der Menschen, die anfällig für psychische Schäden, sogar Psychosen, sind, weitaus höher ist, als die breite Öffentlichkeit versteht. Die Bots, so sagten sie, ziehen Menschen häufig aus menschlichen Beziehungen heraus, konditionieren sie dazu, angenehme Reaktionen zu erwarten und verstärken schädliche Impulse.

„KI könnte wirklich in großem Maßstab die Art und Weise verändern, wie viele Menschen betroffen sind“, sagte Haley Wang, eine Doktorandin an der UCLA, die Menschen untersucht, die Symptome einer Psychose zeigen.

Psychosen, die einen Bruch mit der Realität verursachen, werden am häufigsten mit Schizophrenie in Verbindung gebracht. Aber bis zu 3 Prozent der Menschen entwickeln im Laufe ihres Lebens eine diagnostizierbare psychotische Störung, und weitaus mehr neigen zu Wahnvorstellungen.

Dr. Joseph Pierre, ein Psychiater an der University of California in San Francisco, sagte, er habe etwa fünf Patienten mit Wahnerlebnissen im Zusammenhang mit KI gesehen. Bei den meisten sei die Diagnose einer Psychose gestellt worden, sagte er: „Manchmal handelt es sich dabei um sehr gut funktionierende Menschen.“

Für ihn ist die Vorstellung, dass alle durch Chatbots ausgelösten Wahnvorstellungen sowieso passieren würden, „einfach nicht stichhaltig“.

Kürzlich schrieb er in einer wissenschaftlichen Zeitschrift über einen Mediziner, der in einer schlaflosen Nacht begann, sich mit ChatGPT zu unterhalten. Sie nahm Medikamente gegen ADHS und hatte eine Vorgeschichte von Depressionen. Nachdem sie dem Chatbot zwei Nächte lang Fragen zu ihrem toten Bruder gestellt hatte, kam sie zu der Überzeugung, dass er über eine Spur digitaler Fußabdrücke mit ihr kommuniziert hatte.

Dr. Pierre und andere Experten sagten, dass eine Vielzahl von Faktoren zusammenwirken können, um Menschen in eine Psychose zu versetzen. Dazu gehören nicht nur genetische Veranlagung, sondern auch Depressionen, Schlafmangel, Traumata in der Vorgeschichte und der Konsum von Stimulanzien oder Cannabis.

„Ich bin ziemlich überzeugt, dass dies eine echte Sache ist und dass wir nur die Spitze des Eisbergs sehen“, sagte Dr. Soren Dinesen Ostergaard, ein Psychiatrieforscher am Universitätskrankenhaus Aarhus in Dänemark. Im November veröffentlichte er einen Bericht, in dem er 11 Fälle von Chatbot-assoziierten Wahnvorstellungen in psychiatrischen Aufzeichnungen aus einer dänischen Region feststellte.

Es ist nicht ungewöhnlich, dass neue Technologien Wahnvorstellungen hervorrufen. Aber Kliniker, die Patienten im Bann der KI gesehen haben, sagten, dass sie aufgrund ihres persönlichen, interaktiven Charakters und ihres autoritativen Tons einen besonders starken Einfluss habe.

Haben Sie einen vertraulichen Nachrichtentipp? Die New York Times würde gerne von Lesern hören, die Botschaften und Materialien mit unseren Journalisten teilen möchten.

Manchmal können die durch Chatbots ausgelösten psychotischen Episoden zu Gewalt führen.

Dr. Jessica Ferranti, eine Psychiaterin an der UC Davis Health, die häufig Menschen im Rechtssystem beurteilt, sagte, dass zwei von etwa 30 Personen, die sie letztes Jahr in Fällen von Gewaltverbrechen untersuchte, Wahngedanken hatten, die durch KI verstärkt wurden, bevor die Verbrechen stattfanden.

Beide Menschen entwickelten messianische Wahnvorstellungen über ihre eigenen spirituellen Kräfte, sagte Dr. Ferranti. In einem Fall spiegelte und erweiterte der Bot das psychotische Denken, als die Person einen Mordplan entwickelte.

Während wahnhafte Episoden den öffentlichen Diskurs über KI und psychische Gesundheit vorangetrieben haben, haben die Bots andere heimtückische Auswirkungen, die weitaus weiter verbreitet sind, sagten Ärzte.

Mehrere psychiatrische Fachkräfte, die Angstzustände, Depressionen oder Zwangsstörungen behandeln, beschrieben, dass KI entweder die Sorgen ihrer Klienten bestätigte oder so viel Beruhigung vermittelte, dass die Patienten das Gefühl hatten, auf Chatbots angewiesen zu sein, um sich zu beruhigen – beides ist weniger gesund, als sich der Quelle der Angst zu stellen.

Dr. Adam Alghalith vom Mount Sinai Hospital in New York erinnerte sich an einen jungen Mann mit Depressionen, der wiederholt negative Gedanken mit einem Chatbot teilte. Zunächst erklärte ihm der Bot, wie er Hilfe suchen könne. Aber er „fragte einfach weiter und drängte weiter“, sagte Dr. Alghalith.

Sicherheitsbarrieren, die Chatbots davon abhalten, Selbstmord zu fördern, können zusammenbrechen, wenn Menschen die Bots über Tage oder Wochen hinweg in längere Gespräche verwickeln. Schließlich, sagte Dr. Alghalith, sagte der Bot dem Patienten, dass seine Selbstmordgedanken vernünftig seien. Glücklicherweise hatte er ein Unterstützungssystem und begab sich in Behandlung.

Andere Ärzte beschrieben Chatbots, die den grandiosen Tendenzen von Patienten mit Persönlichkeitsstörungen schmeicheln oder Patienten mit Autismus raten, sich in gefährliche soziale Situationen zu begeben. Andere sagten, dass sie die Interaktionen von Patienten mit Chatbots als Sucht betrachteten.

Quenten Visser, ein Therapeut in Ozark, Missouri, sah letzten April einen 56-Jährigen, der eine Panikattacke erlitten hatte. Herr Visser sagte zunächst, er habe angenommen, dass der Patient starke Angstzustände habe.

Doch nach mehreren Therapiesitzungen stellte sich heraus, dass der Mann auf ChatGPT fixiert war. Er kündigte seinen Job als Grafikdesigner, nachdem er ChatGPT 100 Stunden pro Woche genutzt hatte und wahnhafte Gedanken über die Lösung der Energiekrise hatte.

„Das war das Meth dieses Kerls“, sagte Herr Visser. Er ging an die Behandlung heran, wie er es auch bei jeder anderen Sucht tun würde. Sie sprachen darüber, was den Mann dazu bewog, KI zu nutzen: die anhaltende Isolation von der Pandemie und emotionalen Stress, den er durch den Einsatz von Chatbots vermied. Der Mann erzählte der Times, dass er jetzt weniger KI einsetze, Kunst mache und als Mitfahrgelegenheitsfahrer arbeite.

Viele Ärzte sagten, dass die Auswirkungen der KI nicht völlig negativ seien. Einige Patienten nutzten die Bots beispielsweise zum Üben von Techniken, die sie in der Therapie gelernt hatten, oder als unvoreingenommenen Resonanzboden. Dr. Bob Lee, Assistenzarzt für Psychiatrie in einem Krankenhaus in East Meadow, New York, schrieb der KI sogar zu, dass sie das Leben eines Patienten gerettet habe.

Der Patient kam letzten Herbst in der Notaufnahme in einer wahnhaften Panik über übernatürliche Kräfte an. Er erzählte den Ärzten, dass ein Chatbot seine Gedanken als Symptome einer Krise identifiziert und ihm geraten habe, ins Krankenhaus zu gehen.

„Wie alle neuen Technologien kann sie sowohl auf positive als auch auf negative Weise als starke Kraft genutzt werden“, sagte Dr. Lee.

Shannon Pagdon, eine Doktorandin an der University of Pittsburgh, die als Teenager an Episoden von Psychosen litt und jetzt in Peer-Support-Netzwerken aktiv ist, sagte, KI könne nützlich sein, um zu überprüfen, ob ihre Eindrücke mit der Realität übereinstimmen.

„Als würde man ein Foto hochladen und sagen: ‚Hey, siehst du etwas auf diesem Foto?‘“, erklärte sie. Aber sie sagte, sie habe auch gesehen, dass KI bei anderen Psychosen „verstärkte“.

OpenAI hat Experten für psychische Gesundheit konsultiert, um die Reaktion von ChatGPT auf Menschen zu verbessern, die sich offenbar in einer psychischen Krise befinden. Das Unternehmen hat außerdem einen Rat mit acht Mitgliedern gebildet externe Experten für Psychologie und Mensch-Computer-Interaktion zur Beratung seines Politikteams.

„Wie können wir die Menschen nicht in dieser endlosen Gesprächsschleife mit einer Maschine halten?“ sagte Munmun De Choudhury, Professor und Ratsmitglied der Georgia Tech.

Obwohl ChatGPT bei weitem der am häufigsten verwendete Chatbot für Verbraucher ist, haben auch die von Google, Anthropic und anderen hergestellten Chatbots Millionen von Nutzern. Niemand konnte Wahnvorstellungen und andere schädliche psychologische Auswirkungen vermeiden, sagte Dr. De Choudhury. „Ich glaube nicht, dass eines dieser Unternehmen herausgefunden hat, was zu tun ist.“

Ein Sprecher von Google sagte, sein Gemini-Chatbot rate den Nutzern, bei gesundheitsbezogenen Fragen professionellen medizinischen Rat einzuholen. Anthropic, der Hersteller von Claude, veröffentlichte letzten Monat einen Blogbeitrag über eine neue Funktion, die Diskussionen über Selbstmord oder Selbstverletzung erkennt und Benutzer an Hotlines weiterleitet.

Experten rieten Therapeuten, Patienten zum Einsatz von Chatbots zu befragen, da deren Einfluss möglicherweise nicht offensichtlich ist. Menschen, die versuchen, ihre Lieben aus der Wahnspirale herauszuholen, rieten sie, die Zeit mit dem Bot zu reduzieren und dafür zu sorgen, dass sie genug Schlaf bekommen. Das Beharren darauf, dass die KI falsch liegt, kann kontraproduktiv sein, wenn die Person dadurch wütend oder isolierter wird.

Sascha DuBrul, ein Coach für psychische Gesundheit in Los Angeles, hat aus erster Hand sowohl die Vor- als auch die Nachteile des Chatbot-Einsatzes erlebt. Letzten Sommer wandte sich Herr DuBrul, dessen Arbeit auf seinen eigenen Erfahrungen mit bipolaren Störungen basiert, an ChatGPT, als er ein Buch über psychotische Episoden schrieb. Nach langem Hin und Her kam er zu der Überzeugung, dass KI es uns ermöglichen würde, „auf einer anderen Ebene der Realität“ zu leben.

Mit Hilfe von Freunden erkannte er, was los war, und zog sich vom Bot zurück. Dennoch glaubt er immer noch, dass Patienten mit psychischen Erkrankungen von einer Maschine profitieren könnten, die unendlich zuhört – solange sie mit echter menschlicher Unterstützung verbunden ist.

„Ich denke, dass da viel Potenzial steckt“, sagte er.

About The Author

Leave a reply

Your email address will not be published. Required fields are marked *

RECENT REVIEWS

Recent Videos

Loading...