Artikel 02/10/2024

Künstliche Intelligenz im Gespräch: Kann ein Chatbot genauso empathisch sein wie ein Therapeut?

Dipl.-Psych. Britta Bettendorf Psychologe, Heilpraktiker für Psychotherapie
Dipl.-Psych. Britta Bettendorf
Psychologe, Heilpraktiker für Psychotherapie

Künstliche Intelligenz im Gespräch:

Kann ein Chatbot genauso empathisch sein wie ein Therapeut?
In einer Zeit, in der immer mehr Menschen online nach Unterstützung für ihre psychische Gesundheit suchen, stellt sich die spannende Frage: Kann Künstliche Intelligenz (KI) empathisch auf die Bedürfnisse von Menschen reagieren? Eine aktuelle Studie gibt darauf eine überraschende Antwort. Forscher aus Israel haben den KI-Chatbot ChatGPT mit menschlichen Therapeuten verglichen. Die Frage lautete: Wie gut können beide auf Hilferufe in Online-Foren antworten? Dabei wurde untersucht, wie empathisch diese Antworten wahrgenommen werden und welche Art von psychologischen Hilfestellungen sie bieten.

Hier wird ein lächelnder Roboter gezeigt mit einer gelben Sprechblase. Dies symbolisiert künstliche Intelligenz.

Was hat die Studie herausgefunden?

Das Überraschende: Die KI schnitt besser ab, als viele erwartet hätten! ChatGPT wurde von den Nutzern als besonders empathisch wahrgenommen – in einigen Fällen sogar mehr als die menschlichen Therapeuten. Die KI verstand gut, wie sich die Menschen fühlten, und reagierte darauf mit einfühlsamen, unterstützenden Antworten. Das bedeutet nicht, dass menschliche Therapeuten schlecht abschnitten. Sie waren eher auf praktische Ratschläge oder tiefere Erklärungen fokussiert, während die KI oft sofort emotionalen Beistand leistete. Besonders in einem kurzen, schriftlichen Austausch, wie er in Online-Foren stattfindet, konnte ChatGPT also punkten.

Was ist daran neu?

Viele Menschen glauben, dass Empathie etwas rein Menschliches ist – und das ist es in vielen Aspekten auch. Allerdings zeigt diese Studie, dass KI in der Lage ist, in schriftlicher Kommunikation Empathie überzeugend zu simulieren. Das war bisher nicht so bekannt und öffnet neue Türen für den Einsatz von KI in der psychischen Gesundheitsversorgung. Die Studie hat auch gezeigt, dass KIs wie ChatGPT vor allem in der ersten Phase der Unterstützung nützlich sein könnten. Sie könnten Menschen helfen, die sofortige Hilfe brauchen, indem sie beruhigende und unterstützende Antworten geben, bevor ein Mensch übernimmt, wenn mehr Tiefe oder fortlaufende Therapie benötigt wird.

Was bedeutet das für die Zukunft?

Während die KI in schriftlichen Interaktionen sehr gut abschneidet, bleibt sie in anderen Bereichen noch zurück. Sie kann nicht auf Mimik, Gestik oder Tonfall reagieren – Dinge, die für eine tiefere menschliche Verbindung wichtig sind. Aber für schnelle, erste Hilfe, wie sie in vielen Online-Foren oder Chat-Programmen gebraucht wird, zeigt diese Studie, dass KI eine vielversprechende Rolle spielen könnte. Wenn Sie sich also das nächste Mal fragen, ob ein KI-Chatbot Ihnen in einem Moment der Verzweiflung helfen kann, zeigt diese Forschung: Zumindest in der ersten Phase der Unterstützung könnte die KI eine echte Hilfe sein.

Fazit

Die Zukunft der psychischen Gesundheitsversorgung könnte eine Kombination aus menschlicher und künstlicher Intelligenz sein. Während Menschen in der Tiefe und im persönlichen Kontakt weiterhin unverzichtbar bleiben, könnte die KI in vielen Fällen die erste Hürde zur Hilfe sein. Wenn wir bedenken, wie viele Menschen heute online nach Unterstützung suchen, ist das ein spannender Gedanke.

Die Veröffentlichung dieser Inhalte durch jameda GmbH erfolgt mit ausdrücklicher Genehmigung der Autoren. Die Vervielfältigung, Bearbeitung, Verbreitung und jede Art der Verwertung außerhalb der Grenzen des Urheberrechtes bedürfen der schriftlichen Zustimmung der jeweiligen Autoren.

Die Inhalte der Experten Ratgeber ersetzen nicht die Konsultation von medizinischen Spezialisten. Wir empfehlen Ihnen dringend, bei Fragen zu Ihrer Gesundheit oder medizinischen Behandlung stets eine qualifizierte medizinische Fachperson zu konsultieren. Der Inhalt dieser Seite sowie die Texte, Grafiken, Bilder und sonstigen Materialien dienen ausschließlich Informationszwecken und ersetzen keine gesundheitlichen Diagnosen oder Behandlungen. Es wird ausdrücklich darauf hingewiesen, dass Meinungen, Schlussfolgerungen oder sonstige Informationen in den von Dritten verfassten Inhalten ausschließlich die Meinung des jeweiligen Autors darstellen und nicht notwendigerweise von jameda GmbH gebilligt werden. Wenn die jameda GmbH feststellt oder von anderen darauf hingewiesen wird, dass ein konkreter Inhalt eine zivil- oder strafrechtliche Verantwortlichkeit auslöst, wird sie die Inhalte prüfen und behält sich das Recht vor, diese zu entfernen. Eigene Inhalte auf unserer Website werden regelmäßig sorgfältig geprüft. Wir bemühen uns stets, unser Informationsangebot vollständig, inhaltlich richtig und aktuell anzubieten. Das Auftreten von Fehlern ist dennoch möglich, daher kann eine Garantie für die Vollständigkeit, Richtigkeit und Aktualität nicht übernommen werden. Korrekturen oder Hinweise senden Sie bitte an experten-ratgeber@jameda.de.


www.jameda.de © 2023 - Wunscharzt finden und Termin online buchen.

Diese Webseite verwendet Cookies.
Surfen Sie weiter, wenn Sie unserer Cookie-Richtlinie zustimmen.