Das Thema Künstliche Intelligenz (KI) ist aktuell sehr präsent und wird kontrovers diskutiert. Immer wieder hört man auch von Anwendungen in der Diagnostik und Behandlung von psychischen Erkrankungen. Ich habe mich gefragt, inwieweit die KI hier schon eine Rolle spielt und ob sie mehr Chancen oder Risiken mit sich bringt.

1. Was ist künstliche Intelligenz?

Künstliche Intelligenz (Englisch: Artificial Intelligence, Abkürzung: AI) zu definieren, scheint nicht so leicht zu sein, da der Begriff Intelligenz selbst nicht eindeutig definiert ist. Grundsätzlich geht es darum, dass Computer lernen, Aufgaben zu lösen, in welchen Menschen ihnen bislang überlegen waren bzw. noch sind. Ein künstliches System lernt, anhand von Trainingsdaten die Gesetzmäßigkeiten in den Daten zu erkennen und kann dann bei Präsentation eines neuen Stimulus eine Aussage über diesen treffen. Einfachere Anwendungsfelder sind zum Beispiel das Erkennen von handgeschriebenen Zahlen, anspruchsvollere Anwendungen sind zum Beispiel Textübersetzung, Spracherkennung auf dem Smartphone (z. B. Siri) und Spiele, welche komplexe Entscheidungen erfordern wie Schach oder Go.

Künstliche Systeme werden dabei häufig in Form von neuronalen Netzen repräsentiert. Neuronale Netze sind vom Gehirnaufbau inspiriert, also davon, dass einzelne Neuronen miteinander verknüpft sind und einander aktivieren können. Neuronale Netze bestehen aus verschiedenen Schichten von Neuronen, die miteinander verbunden sind. Diese Netzwerke werden darin trainiert, Bilder, Sprache, Text oder andere Formate zu erkennen. Wer mehr darüber lernen möchte oder einen Eindruck vom Aufbau eines neuronalen Netzes bekommen möchte, dem empfehle ich diese Videoserie.

2. Mögliche Anwendungsfelder von künstlicher Intelligenz in der Psychotherapie

Im Bereich der Diagnostik und Therapie von psychischen Erkrankungen ergeben sich verschiedene Anwendungsfelder. Ein System könnte zu diagnostischen Zwecken lernen, aus verschiedenen Daten Diagnosen zu stellen. Diese Daten könnten in Form von Anamnesedaten, Fragebögen, Stimmanalysen, Schrittprofilen oder anderen Merkmalen bestehen. Dafür benötigt man einen großen, bereits vorhandenen Datensatz, um das System zu trainieren. Dann kann man neue Daten präsentieren und das System trifft eine Aussage über wahrscheinliche Diagnosen. Je häufiger man das System trainiert und je größer die Datensätze sind, desto besser werden die Vorhersagen. Im Bereich der Therapie kann ein System mit Skripten von erfolgreichen Therapiegesprächen trainiert werden. Vorher müsste es jedoch lernen, Sprache zu erkennen und zu verarbeiten.

Nachfolgend möchte ich euch nach Diagnostik und Therapie aufgeteilte schon bestehende Anwendungen vorstellen und daraus ableiten, welche Chancen und Risiken die Anwendungen mit sich bringen.

3. Diagnostik

Wer sich psychisch oder physisch nicht wohlfühlt, googelt häufig die Symptome. Um validere Ergebnisse und Empfehlungen anbieten zu können, wurde Ada Health gegründet. Ada Health gibt auf Basis bestimmter Symptomeingaben und allgemeiner Parameter wie Alter und Geschlecht eine Diagnose- und Behandlungsempfehlung für physische und psychische Erkrankungen aus. Solche Anwendungen können die Arbeit von Fachkräften unterstützen, den Anteil an falschen oder übersehenden Diagnosen verringern und die Zeit bis zur Diagnosestellung verkürzen. Gerade hinsichtlich seltener und schwer zu diagnostizierender Erkrankungen steckt dort ein großes Potenzial.

Ein weiterer Bereich, der von KI-Anwendungen profitieren kann, sind schwere psychische und psychiatrische Erkrankungen wie Schizophrenie und bipolare affektive Störungen. Hier steckt das Potenzial in der Erkennung von Frühwarnzeichen. Das Startup MindPax forscht daran, mithilfe einer App in Kombination mit einem Tracking-Armband schwere psychische Erkrankungen besser vorherzusagen und dadurch Behandlungen anzupassen und Symptome abzumildern. Durch die Visualisierung der Daten können die Behandler/-innen ein besseres Verständnis über den Verlauf der Erkrankung bekommen. In Zukunft sollen selbstlernende Algorithmen auch validere Diagnosehinweise geben und beispielsweise die Art der affektiven Störung schneller erkennen können.
Nikolaos Koutsouleris et al (2021) haben herausgefunden, dass durch die Integration von KI und der Einschätzung von Fachkräften die Rate an falsch-negativen Diagnosen von Schizophrenie deutlich verringert wurde. Das KI-Modell wurde dafür mit Daten bekannter Patientenbiografien trainiert. Koutsouleris weist darauf hin, dass durch die Erkennung von Frühwarnzeichen und das Einleiten präventiver Programme schwere Krankheitsverläufe und daraus folgende Schädigungen am Gehirn verhindert werden können.

Auch in den Bereichen Migräne/Kopfschmerzen und Schlafstörungen gibt es mit M-Sense und Somnio zwei Start-ups, die täglich viele verschiedene Daten ihrer Nutzer/-innen sammeln, um den Diagnose- und Therapieprozess zu unterstützen. Für die Erfassung von Schlafdaten kann zusätzlich ein Activity-Tracker miteinbezogen werden. Algorithmen können durch die eingegebenen und erfassten Symptome eine differenzierte Diagnostik anbieten und die Arbeit von Behandler/-innen erleichtern. Dadurch wird auch das Selbstwirksamkeitserleben der Nutzer/-innen erhöht, denn aus der Visualisierung und Auswertung der Daten ergeben sich verschiedene Interventionsmöglichkeiten.

3.1 Datengewinnung durch Mensch-Computer-Interaktion

Eine andere Möglichkeit, Daten zu gewinnen, bietet das Tracking von Nutzerverhalten am Smartphone. Abweichungen im Nutzerverhalten könnten Indikatoren für den Beginn einer psychischen Erkrankung wie einer Depression sein. So können beispielsweise passive Daten wie Tipp-, Scroll- und Swipe-Verhalten gemessen und im Fall von Abweichungen Interventionen empfohlen werden.

3.2 Analyse der Stimme

Aber auch andere Nutzerdaten könnten gute Prädiktoren für psychische Erkrankungen darstellen. Darunter fallen Schrittmesser, Schlafanalyse, Bewegungsprofile oder die Analyse der Stimme. Das Unternehmen PeakProfiling GmbH hat Tools entwickelt, um anhand von Stimmanalysen die Diagnostik von Erkrankungen wie Depression und ADHS zu unterstützen. Eine Studie in Kooperation mit der Chartié Berlin und dem Forschungszentrum Jülich zeigte, dass ADHS anhand von Stimmanalysen überwiegend gut vorhergesagt werden konnte. Die beste Klassifikationsperformance zeigte sich für jüngere weibliche Betroffene.

3.3 KI zur Suizidprävention

Das Unternehmen Koko ist neben anderen Funktionen in verschiedenen sozialen Netzwerken eingebettet und versucht mithilfe von Deep Learning Modellen Menschen ausfindig zu machen, die ein hohes Risiko für Selbstverletzungen oder einen Suizidversuch aufweisen. Den Betroffenen werden dann verschiedene Krisen- und Hilfsangebote vorgeschlagen. Laut einer Studie konnte die Inanspruchnahme von Hilfsangeboten dadurch um 23 % erhöht werden.

Auch Facebook versucht durch den Einsatz von KI Nutzer/-innen aufzuspüren, die ein hohes Risiko für Selbstverletzungen und Suizidabsichten aufweisen. Kommentare, Beiträge und Nachrichten werden nach bestimmten Signalen gescannt. Auf eine hohe Gefahr weisen laut Facebook Beiträge wie „Hat jemand etwas von ihr/ihm gehört?“ hin. Zudem werden Daten wie Tageszeit und Wochentag berücksichtigt. Bei Verdachtsfällen prüfen Facebook-Mitarbeiter/-innen das Risiko und können Hilfsangebote einblenden oder den Notruf wählen. Es wird kritisiert, dass Facebook wenig transparent über den genauen Mechanismus ist und es unklar ist, ob durch dieses Tool mehr Nutzen als Schaden entsteht. Schaden könnte zum Beispiel durch Fehlalarme entstehen, indem Menschen durch fälschlich ausgelöste Polizei- oder Notrufeinsätze verunsichert oder stigmatisiert werden. Außerdem wird kritisiert, dass Facebook sich nicht das Einverständnis der Nutzer/-innen darüber holt, dass sie Teil dieses Präventionsprogramms sind und eine allgemeine Aufklärung ausbleibt. In der Europäischen Union ist der Einsatz dieses Programm aufgrund der Datenschutzgrundverordnung nicht erlaubt.

4. Therapie

Man kann es sich schwer vorstellen, Psychotherapeuten/-innen mit einem Chatbot zu ersetzen. Abgesehen davon, dass ein therapeutisches Gespräch auch nonverbale Signale miteinbezieht, ist trotz großer Fortschritte in den letzten Jahren das Führen eines menschlich wirkenden Gesprächs für einen Computer immer noch eine enorme Herausforderung. Dabei gibt es die Idee, einen von einem menschlichen Gesprächspartner ununterscheidbaren Chatbot als ultimativen Beweis für künstliche Intelligenz zu verwenden bereits seit den 50er-Jahren. In dem sogenannten Turing-Test unterhalten sich Juroren mit zwei Gesprächspartnern, einer davon ist ein Mensch, einer eine Maschine. Der Chatbot, der die Mehrheit der Juroren täuschen kann, gewinnt. Bisher ist das noch keinem Chatbot gelungen. In diesem Zusammenhang ist 1966 auch das Computerprogramm ELIZA entstanden. ELIZA simulierte mithilfe eines non-direktiven Gesprächsstils ein Therapiegespräch. Benutzer/-innen konnten eine Frage stellen oder etwas berichten und das Computerprogramm reagierte darauf. ELIZA stellte vor allem viele Rückfragen und nutzte dafür die eingegebenen Wörter. Einige Wörter wurden durch Synonyme oder Oberbegriffe ersetzt, wodurch das Gefühl entstand, dass das Programm versteht, worüber man spricht. Erstaunlicherweise schienen sich viele Benutzer/-innen von dem Programm verstanden zu fühlen und schütteten diesem ihr Herz aus, obwohl sie wussten, dass sie es mit einem Computerprogramm zu tun hatten.

4.1 Therapie-Chatbots

Heute gibt es einige Chatbots, welche zur Verbesserung der mentalen Gesundheit beitragen sollen. Zwei bekannte Therapie-Chatbots sind “Woebot” und “Wysa“. Die Chatbots, welche (auf Englisch) als Apps kostenlos verfügbar sind, basieren überwiegend auf der kognitiven Verhaltenstherapie. Wysa verwendet der Webseite zufolge auch DBT, Meditation, Atmungsübungen, Yoga und „micro-actions“.    
Ich habe beide Chatbots mal ausprobiert, was sehr interessant für mich war, da ich sonst auf der anderen Seite sitze. Zu Beginn stellen sich beide Chatbots kurz vor, fragen nach der Stimmung und bieten verschiedene Übungen an. Der Woebot fragt zudem ein paar Kriterien wie Interessenverlust, traurige Stimmung und Hoffnungslosigkeit, Ängste, Nervosität und unkontrollierbare Sorgen ab. Dabei bezieht er sich auf die letzten zwei Wochen. Hierbei handelt es sich vermutlich um ein Screening in Richtung Angststörungen und Depression, wobei nicht alle Kriterien der betreffenden Diagnosen abgefragt werden. In der Wysa App gibt es zu Beginn die Möglichkeit ein oder mehrere Themen wie Angst, Motivation, Selbstwert, Schlaf, Depression, Schwangerschaft, Trauma etc. anzugeben. Zudem kann man Therapiesitzungen zubuchen und mehr Übungen durch einen Premium-Account freischalten. Der Woebot redet sehr umgangssprachlich und lässt auch mal Scherze einfließen, wodurch er viel menschlicher wirkt. Er validiert und lobt häufig, zeigt Verständnis und berichtet auch von eigenen Beispielen. Wysa wirkt auf mich etwas ernster, obwohl der Chatbot die Form eines kleinen Pinguins hat. Ich finde es etwas irritierend, dass der Chatbot direkt mit tiefer gehenden Fragen beginnt. In der Therapie stehen solche Fragen erst nach der Diagnostik, dem Beziehungsaufbau, der Motivationsklärung und der Psychoedukation an. Die Therapie-Chatbots haben da eine ganz andere Herangehensweise. Die „Sitzungen“ sind viel kürzer und dafür möglichst täglich. Zudem geht es darum, direkt ein konkretes Problem oder ein Thema zu bearbeiten. Wysa schlägt beispielsweise zu Beginn vor, Denkverzerrungen wie Übergeneralisierung zu bearbeiten. Ich stelle es mir sehr schwierig vor fünf Minuten nachdem man die App installiert hat, schon erste Denkmuster verändert zu haben. In der Therapie ist dies oft ein monatelanger Prozess. Ich persönlich hätte es daher angenehmer gefunden, wenn zuerst eine Art Psychoedukation und ein langsames Herantasten an die Themen stattgefunden hätte. Beide Chatbots arbeiten überwiegend mit Textbausteinen und vorgegebenen Antwortmöglichkeiten. Man landet dadurch in einer Art Entscheidungsbaum und klickt sich durch das Gespräch. Manchmal gibt man einen Text ein, zum Beispiel um erst einen dysfunktionalen und dann einen funktionalen Gedanken aufzuschreiben. In der Woebot-App gibt es zu Beginn die Möglichkeit, Freitext einzugeben und der Chatbot versucht dann herauszufinden, worum es geht. Sobald er es herausgefunden hat, landet man wieder im Entscheidungsbaum. Ich habe die Freitext-Funktion in der Woebot-App mal getestet und das Thema Schlafprobleme eingegeben. Der Woebot erkennt, worum es geht und stellt gezielte Nachfragen, um das Problem zu konkretisieren. Dabei lässt er auch Psychoedukation (zum Beispiel zum REM-Schlaf) mit einfließen und schlägt dann verschiedene Übungen vor. Andere Themen, die ich eingebe, erkennt der Woebot (noch) nicht. Auch in der Wysa App kann man von seinem Tag erzählen und dort Freitext eingeben. Die App stellt Rückfragen dazu, beispielsweise wie man sich dabei gefühlt hat. Auf die Inhalte scheint sie nicht wirklich einzugehen.

Um ein frei geführtes Gespräch wie in dem Computerprogramm ELIZA handelt es sich also nicht. Das wäre aktuell auch gar nicht möglich, schließlich dürfen solche Anwendungen nicht ausschließlich KI-geführt sein, sondern müssen von Fachkräften entwickelt und kontrolliert werden. Die Chatbots arbeiten daher überwiegend mit Textbausteinen, bieten aber mithilfe von Natural Language Processing die Möglichkeit, Freitext zu erkennen und zu verarbeiten. Solche Anwendungen scheinen den anderen Gesundheitsanwendungen im Bereich Digital Mental Health zu ähneln, nur fühlt es sich durch den Chatbot zusätzlich so an, als ob man die Inhalte während eines Gesprächs erarbeiten würde und jemand zuhört und Verständnis zeigt.

Ein weiterer Therapie-Chatbot, den ich vorstellen möchte, ist “Tess”. Tess wurde insbesondere für Menschen ohne Zugang zur psychotherapeutischen Versorgung entwickelt und soll einen schnellen Zugang zu hochwertigen therapeutischen Gesundheitsangeboten ermöglichen. Alle Inhalte, die Tess anbietet, sind von klinischen Psychologen/-innen entwickelt und geprüft. Krisensituationen sollen vom System erkannt werden, sodass Psychologen/-innen einspringen und die Unterhaltung übernehmen können. Erste Studien zeigten, dass Angst- und Depressionssymptome durch die Benutzung von Tess verringert werden konnten. Tess ist bereits in verschiedenen Sprachen verfügbar, z. B. auch auf Arabisch. Leider konnte ich Tess nicht ausprobieren und prüfen, inwieweit es sich von anderen Chatbots unterscheidet.

4.2 Wie können KI gestützte Therapiebots in der Psychotherapie helfen und wo stoßen sie an Grenzen?

Ich könnte mir vorstellen, dass einige der vorgestellten Anwendungen ähnlich wie andere webbasierte Gesundheitsanwendungen in der Prävention von psychischen Erkrankungen hilfreich sein könnten und das Potenzial haben, einen therapeutischen Prozess zu unterstützen. Solche Anwendungen sind meiner Meinung nach besonders im Bereich der Psychoedukation hilfreich, da sie ein großes Wissen über verschiedene Felder umfassen können. So können beispielsweise Wissen rund um das Thema Schlaf durch eine App erlernt und Tipps bzw. Übungen ausprobiert werden. Manchmal tut es vielleicht auch einfach gut, einem sympathisch wirkenden Chatbot sein Herz auszuschütten, gerade dann, wenn man niemanden erreicht oder es mitten in der Nacht ist. Hilfreich könnten auch “Matching-Algorithmen” sein, die den aktuellen Bedarf prüfen und eine intelligente Zuordnung der Nutzer/-innen zu Therapieinhalten vornehmen. Dies könnte auch Übungen betreffen, die Patienten/-innen zwischen Therapiesitzungen durchführen.

In der Psychotherapie gibt es jedoch auch komplexere Techniken und Gesprächsführungen, die ich mir schwer in Form eines trainierten Chatbots vorstellen kann. Die Erarbeitung von Grundannahmen oder einen sokratischen Dialog zu führen sind kognitiv anspruchsvolle Aufgaben für Therapeut/-innen. Zudem kommt es oft auf kleine Bemerkungen oder genaue Formulierungen der Patienten/-innen an oder darum, Themen zu verbinden, die in früheren Sitzungen schon mal angesprochen wurden. Es gehört auch viel Erfahrung und Übung dazu, einzuschätzen, wann man als Therapeut/-in welche Übung einfließen lässt und in welche Richtung man ein Gespräch lenkt. Manchmal nehmen Gespräche auch eine ganz andere Wendung, als man vorher gedacht hätte. Die in der Therapie angewendeten Techniken wirken außerdem häufig nicht beim ersten Mal, sondern müssen immer wieder wiederholt und auf verschiedene Situationen übertragen werden. Die Chatbots verwenden zwar Fragen oder Techniken, welche auch häufig in der Therapie eingesetzt werden, beispielsweise die “Wunderfrage” (Angenommen, das Problem wäre weg, was wäre dann anders?) oder das Hinterfragen von Denkmustern. Ich habe die Erfahrung gemacht, dass viele Menschen Schwierigkeiten damit haben, solche Fragen zu beantworten. Einige antworten mit “weiß nicht”, andere beantworten die Frage oberflächlich oder haben Schwierigkeiten, ihre Gedanken zu benennen. Dann ist es die Aufgabe der Therapeuten/-innen, zu unterstützen und durch gezielte Rückfragen, das Benennen von Beispielen oder durch Imaginationsübungen zu helfen. Meiner Meinung nach ist es nicht nur wichtig, “schlaue” Fragen zu stellen, sondern auch Hilfestellungen zu geben und die Fragen individuell anzupassen. Andernfalls profitieren nur reflektierte und sprachlich fitte Menschen von solchen therapeutischen Übungen. Nutzer/-innen, welche damit überfordert sind, könnten das Gefühl bekommen, dass Therapie nicht hilft oder sie nicht schlau genug für Therapie sind.

Es kommt natürlich auch nicht nur auf das Gesprochene, sondern auch auf nonverbale Signale an. Wir nehmen bestimmte Stimmungen oder Mimiken unserer Patienten/-innen wahr oder bemerken, dass ein Patient/eine Patientin immer wieder zu spät kommt. Das sind alles wichtige Informationen für den Therapieprozess. Therapiegespräche sind zudem auf die kognitiven Fähigkeiten, die Reflexionsfähigkeit und den Sprachgebrauch der Patienten/-innen angepasst und dadurch sehr individuell. Auch eine therapeutische Beziehung lässt sich schwer in einer App nachbilden. Metaanalysen konnten zeigen, dass circa 8 % der Varianz des Therapieergebnisses durch die therapeutische Beziehung erklärt werden kann.

5. Ethische Fragen

Wir müssen uns mit ethischen Fragen beschäftigen und Regeln zum Einsatz von KI-gestützten Therapie- und Diagnostikanwendung festlegen. Ein Experten-Team der Technischen Universität München fordert beispielsweise, dass für therapeutische KI-Anwendungen Zulassungsverfahren und ethische Handlungsvorgaben entwickelt werden. Programme, die Suizidalität bei Nutzer/-innen erkennen, müssen sich beispielsweise an klare Vorgaben zu Kriseninterventionen halten. Zudem fordert das Team eine umfassende Forschung dazu, wie sich der Umgang mit therapeutischen KI-Anwendungen auf die Menschen auswirkt. Sie warnen auch davor, dass durch das Implementieren von therapeutischen KI-Anwendungen im Gesundheitssystem andere Anlaufstellen im Gesundheitswesen reduziert werden. Das Unternehmen Open-AI hält in seinen Richtlinien Regeln zur Entwicklung von therapeutischen KI-Anwendungen fest. Bisher dürfen therapeutische KI-Anwendungen nur unter der Einbeziehung von klinischem Fachwissen entwickelt werden. Ein Therapie Chatbot ohne menschliche Beteiligung wäre nicht erlaubt.

6. Weitere Herausforderungen

Damit ein Modell gute Vorhersagen treffen kann, benötigt es eine sehr große Datenmenge. Ein Problem liegt darin, dass Forschungsgruppen häufig eigene Datensätze erheben und verwalten und so das Potenzial ungenutzt bleibt, was aus der Zusammenfassung mehrerer Datensätze entstehen würde. Schwierigkeiten ergeben sich auch für seltene psychische Erkrankungen und für psychische Erkrankungen, die häufig unbemerkt bleiben.

Ein weiterer Konflikt besteht darin, möglichst viele Daten und Merkmale erheben und verarbeiten zu wollen, ohne dass dabei Rückschlüsse auf die Nutzer/-innen möglich sind. Das Startup Newsenselab, das hinter der Migräne App M-Sense steckt, versucht dieses Problem durch eine Kooperation mit dem Unternehmen Statice zu lösen. Statice generiert aus den vorhandenen Daten neue synthetische Daten, welche die ursprünglichen Daten nachahmen ohne persönliche Informationen zu beinhalten.

Die meisten digitalen Gesundheitsanwendungen basieren auf der kognitiven Verhaltenstherapie. Hinsichtlich der Ätiologie und Therapie von psychischen Erkrankungen gibt es auch andere Ansätze. Vermutlich würde der Schwerpunkt von KI-gestützten Anwendungen weiterhin auf der kognitiven Verhaltenstherapie liegen, da diese sich gut operationalisieren und untersuchen lässt. Das würde jedoch andere Therapierichtungen vernachlässigen.

7. Fazit zu künstlicher Intelligenz in der Psychotherapie

Ich denke, dass KI-gestützte Therapieanwendungen und Psychotherapie schwer zu vergleichen sind und einander nicht ersetzten können. Da es kaum präventive Angebote hinsichtlich psychischer Gesundheit gibt, sehe ich in (KI-gestützten) webbasierten Therapieanwendungen ein großes Potenzial. Vermutlich würde es den meisten Menschen guttun, mehr über Themen wie Schlaf, Stress, Emotionsregulation etc. zu lernen. Und so ein umfassendes Wissen zu allen Bereichen kann man als Therapeut/-in nicht abdecken. Mir geht es jedenfalls so, dass ich mich immer wieder belesen oder Dinge nachschlagen muss. Und vielleicht lassen sich durch solche Anwendungen auch psychische Erkrankungen vorbeugen. Wichtig ist auch, die Menschen im Blick zu haben, die eine klassische Psychotherapie nicht machen können oder wollen. Auf der anderen Seite lässt sich meiner Meinung nach Psychotherapie nicht in Form einer reinen künstlichen Intelligenz umsetzten und ist dafür viel zu komplex. Zudem würden dann viele ethische und datenschutzrechtliche Fragen aufkommen. Es ist nicht klar, ob solche Anwendungen auch schädigen können, sollte die KI beispielsweise etwas übersehen oder falsch verstehen. Meiner Meinung nach ist es wichtig, dass Nutzer/-innen darüber aufgeklärt werden, dass KI-gestützte Therapieanwendungen eine Psychotherapie nicht ersetzen können. Wichtig wäre auch, umfassende und unabhängige Forschung zu KI-gestützten Therapieprogrammen durchzuführen und alle Vor- und Nachteile zu evaluieren und zu diskutieren.

Im Bereich der Diagnostik sehe ich einen großen Nutzen darin, dass gut trainierte Modelle Hinweise auf psychische Erkrankungen und Frühwarnzeichen geben können, wodurch Fachkräfte eine gezielte Diagnostik und Behandlung anschließen können. Dies könnte insbesondere bei seltenen, komplexen und schweren Störungsbildern hilfreich sein und die Rate der falschen oder übersehenen Diagnosen verringern. So können Chronifizierungen, schwere Verläufe und Schädigungen häufiger abgewendet und die Lebensqualität der Betroffenen verbessert werden.

Insgesamt liegen in der Verknüpfung von künstlicher Intelligenz mit der Diagnostik und Behandlung von psychischen Erkrankungen also sowohl ein großes Potenzial als auch gewisse Gefahren. Ich bin gespannt, wie sich das Feld weiterentwickelt und wie gut solche Anwendungen angenommen werden.

Was denkt ihr dazu? Seht ihr mehr Vor- oder Nachteile in therapeutischen und diagnostischen KI-Anwendungen? Oder habt ihr vielleicht schon Erfahrungen damit gemacht? Würde euch ein eigener Blogartikel zu ethischen Fragen in diesem Bereich interessieren oder habt ihr andere Vorschläge?