Large Language Models (LLMs) wie ChatGPT haben sich in kurzer Zeit von einem digitalen Informationswerkzeug zu einem potenziellen klinischen Assistenzsystem entwickelt. Sie sind in der Lage, große Textmengen – Leitlinien, SOPs oder wissenschaftliche Publikationen – effizient zu verarbeiten, zu strukturieren und zusammenzufassen.
Untersuchungen aus der Geburtshilfe zeigen, dass ChatGPT bei klar strukturierten Fragestellungen und qualitativ hochwertigen Leitlinien (z. B. Gestationsdiabetes, dichoriale Zwillingsschwangerschaft) eine hohe inhaltliche Übereinstimmung mit medizinischen Standards erreicht. Schwächen zeigten sich hingegen bei komplexen, weniger eindeutig Guideline-basierten Situationen. LLMs „denken“ nicht, sondern generieren Antworten auf Basis statistischer Wahrscheinlichkeiten von Wortfolgen – mit der Gefahr plausibel klingender, aber fachlich inkorrekter Aussagen („Halluzinationen“).
Weitere Limitationen betreffen das Black-Box-Problem, Trainingsbias sowie Datenschutz und Haftungsfragen. Spezialisierte medizinische Modelle (z. B. OpenEvidence) können diese Risiken reduzieren, bleiben jedoch häufig US-zentriert. Zusammenfassend ist „Dr. ChatGPT“ ein potenziell leistungsfähiges Werkzeug. Der medizinische Mehrwert entsteht dort, wo KI gezielt, kritisch geprüft und aktiv mitgestaltet eingesetzt wird – als Copilot, nicht als Ersatz ärztlicher Verantwortung.
Session „KI und Telemedizin 1“