In einer prospektiven kanadischen Studie wurden Menschen mit Krebserfahrung gebeten, die Empathie in schriftlichen Antworten von Ärztinnen sowie Ärzten und KI-Chatbots auf onkologische Patientenfragen zu bewerten. Es zeigte sich, dass Chatbot-Antworten insgesamt als empathischer wahrgenommen wurden als die von Ärztinnen und Ärzten. Am höchsten wurden die Antworten des Chatbots „Claude V2 mit Chain-of-Thought (CoT)-Prompting“ eingestuft, gefolgt von Claude V2, Claude V1 und schließlich den ärztlichen Antworten.
Die Studie basiert auf echten, öffentlich geposteten Patientenfragen aus einem Online-Forum. Zu jeder Frage wurden vier anonymisierte Antworten gezeigt – drei von verschiedenen Chatbot-Varianten und eine von einem Arzt bzw. einer Ärztin. Die Teilnehmenden bewerteten die Empathie jeder Antwort auf einer Skala von 1 bis 5. Insgesamt nahmen 45 Personen teil. Die Antworten der Chatbots waren im Durchschnitt länger als die der Menschen, was möglicherweise die Empathie-Wahrnehmung beeinflusst hat. Auch Unterschiede im Lese-Niveau der Texte wurden festgestellt, hatten aber keinen Zusammenhang mit der wahrgenommenen Empathie.
Der methodische Vergleich mit früheren Einschätzungen durch Ärztinnen und Ärzte zeigt, dass Patientinnen und Patienten systematisch niedrigere Empathie-Werte vergeben – auch für dieselben ärztlichen Texte. Das legt nahe, dass Patientinnen und Patienten andere Aspekte von Empathie wahrnehmen als medizinisches Fachpersonal. Die Ergebnisse deuten darauf hin, dass KI-gestützte Systeme mit gezieltem Prompting in der Lage sind, emotional angemessene Antworten zu generieren, die von Patientinnen und Patienten als besonders empathisch erlebt werden.
Die Studie war auf schriftliche Einzelantworten begrenzt und berücksichtigt keine dynamischen oder nonverbalen Aspekte realer Arzt-Patienten-Kommunikation. Dennoch zeigt sie, dass empathisch wirkende Chatbot-Antworten das Potential haben, die Kommunikation im onkologischen Kontext zu ergänzen – unter der Voraussetzung, dass ethische, rechtliche und klinisch-praktische Fragen angemessen berücksichtigt werden. Weitere Studien sollten untersuchen, wie empathisch wirkende KI in unterschiedlichen Patientengruppen wahrgenommen wird und wie sich solche Systeme verantwortungsvoll in die Versorgung integrieren lassen.
Prompting bezeichnet die gezielte Formulierung von Eingaben (Prompts), mit denen ein Sprachmodell wie ein Chatbot gesteuert wird. Dadurch lässt sich beeinflussen, wie inhaltlich, stilistisch oder emotional eine Antwort ausfällt.
Chen D et al.: Patient perceptions of empathy in physician and artificial intelligence chatbot responses to patient questions about cancer. NPJ Digit Med. 2025 May 13;8(1):275 (DOI 10.1038/s41746-025-01671-6).