Mein Lernstatus
0.0
von 1 Stunden
News
Aktuelles, Alle Branchen, Datenschutz
KI-Chatbots statt Arztgespräch: Chancen und Grenzen digitaler Diagnose
Bei gesundheitlichen Beschwerden und langen Wartezeiten für Arzttermine, greifen viele Betroffene zunächst auf eigene Online-Recherchen zu möglichen Ursachen und Behandlungsmöglichkeiten zurück. Dabei wird zunehmend nicht mehr ausschließlich auf klassische Suchmaschinen wie „Dr. Google“ zurückgegriffen, sondern immer mehr auch künstliche Intelligenz als Anlaufstelle genutzt. Künstliche Intelligenz Künstliche Intelligenz (KI) ist laut dem Bundesamt für Sicherheit in der Informationstechnik ein Oberbegriff für Methoden, die auf die Automatisierung von Entscheidungsvorgängen abzielen, die traditionell den Einsatz menschlicher Intelligenz erfordern. Damit KI für diese Prozesse eingesetzt werden kann, wird sie mit einer großen Menge an Daten trainiert, um mittels maschinellen Lernens ihre Lösungskompetenz aufzubauen. Dabei ist die Genauigkeit der KI sowohl von der Qualität wie auch der Quantität der Daten, mit der sie gefüttert wurde, abhängig. KI-Systeme können zwar auch auf thematische Anfragen reagieren die außerhalb der Verteilung ihrer Trainingsdaten liegen, jedoch ist die Chance auf Fehlinformationen größer je unbekannter das Themenfeld für die KI ist. Gesundheitsfragen an KI-Chatbots Zu einen der bekanntesten Formen von KI zählen KI-Chatbots wie ChatGPT, welche auf Large Language Models (LLM) basieren. Diese Programme kommunizieren über Sprache bzw. Text mit Menschen und können Gespräche führen. Statt bei Google nach Ziehen im unteren Bauch zu recherchieren, kann man in solchen Chats seine Symptome, Schmerzstärke, genaue Verortung und Zeitpunkt des Auftretens genausten beschreiben. Gerade durch die lange Wartezeiten auf Arzttermine und die vollen Wartezeiten sind KI-gesteuerte Selbstdiagnose eine bequeme und zugängliche Möglichkeit für Personen, den aktuellen Stand ihrer Gesundheit einschätzen zu lassen. In einer repräsentativen Online-Befragung von Deloitte zum Stand der Digitalisierung in 2025 kam heraus, dass die private Nutzung von KI-Anwendungen zunimmt und damit in Verbindung auch die Bereitschaft zum Teilen von eigenen Gesundheitsdaten wächst. So nutzen bereits ein Viertel der Bevölkerung die KI bei Fragen rund um die eigne Gesundheit. Entscheidend ist dabei, dass die Mehrheit auf Chatbots wie ChatGPT zurückgreift und Symptom-Checker Lösungen von Krankenkassen oder Krankenhäusern verhältnismäßig seltener genutzt werden. LLMs wie ChatGPT zeigten bereits in einer Studie aus 2023 beeindruckende Fähigkeiten bei der Analyse medizinischer Informationen, sowohl bei ersten Einschätzungen als auch bei Vorschlägen für Diagnose oder Triage. Gerade weil sie so einfach zu bedienen sind und oft verständliche, überzeugend formulierte Antworten liefern, wirken sie auf viele Menschen als attraktive Anlaufstelle bei Gesundheitsfragen. Risiko von Fehlinformation Gleichzeitig zeigt die Forschung jedoch ein zweischneidiges Bild: Neben großem Potenzial bestehen erhebliche Unsicherheiten hinsichtlich Zuverlässigkeit und Sicherheit. Ohne sorgfältige klinische Prüfung und klare Leitlinien besteht die Gefahr, dass solche Systeme entweder riskante Fehleinschätzungen liefern oder umgekehrt unnötige Arztbesuche auslösen. Die Antworten der KI-Chtabots werden anhand von Mustern und Wahrscheinlichkeiten erzeugt. So werden die Informationen bevorzugt, die am häufigsten in ihrem Speicher sind, da diese die höchste Wahrscheinlichkeit für eine passende Antwort bieten. Handelt es sich bei einer Gesundheitsanfrage nun aber um Sonderfälle, wie bspw. seltene Krankheiten oder atypische Symptomatik, besteht ein höheres Risiko eine falsche oder unpassende Antwort zu erhalten. Die Genauigkeit einer Diagnose ist dabei aber nicht nur vom Chatbot allein abhängig sondern wird maßgeblich von den Patient:innen beeinflusst. Wie die Anfrage formuliert ist, wie akkurat die Symptomatik beschrieben wird und welche, krankheitsunabhängigen Faktoren ebenfalls geschildert werden, beeinflussen letztendlich das Ergebnis. So können voreingenommene Fragen oder Suggestivfragen zu falschen Ausgaben führen. Zudem sind KI-Chatbots darauf programmiert, auf jede Frage eine Antwort zu liefern auch wenn keine passenden Informationen vorliegen. Diese Antwort, wie auch Quellenangaben, können frei erfunden sein. Tipps für einen verantwortungsvollen Umgang Insgesamt betrachtet antwortet ChatGPT überwiegend korrekt auf Gesundheitsfragen und wird tendenziell genauer in seinen Antworten. Trotz dessen ist es wichtig die Aussagen von Chatbots stets kritisch zu hinterfragen, denn manchmal sind falsche, veraltete oder widersprüchliche Antworten dabei. Entscheidend ist daher die Antworten zu überprüfen: Gibt es widersprüchliche Aussagen? Lassen Sie sich die Quellen der Aussagen nennen. Sind die Quellen vertrauenswürdig? Enthalten die Quellen auch die verwendeten Aussagen? Entscheidend bleibt daher, KI-Chatbots als unterstützendes Werkzeug zu verstehen, jedoch nicht als Ersatz für eine medizinische Hilfe durch Fachpersonal.   Quellen: Deloitte Center for Health Solutions_Digitalisierung_Befragung_2025 Fraser H, Crossland D, Bacher I, Ranney M, Madsen T, Hilliard R. Comparison of Diagnostic and Triage Accuracy of Ada Health and WebMD Symptom Checkers, ChatGPT, and Physicians for Patients in an Emergency Department: Clinical Data Analysis Study. JMIR Mhealth Uhealth. 2023 Oct 3;11:e49995. doi: 10.2196/49995. PMID: 37788063; PMCID: PMC10582809. KI-Chatbot statt Arzt?
Mehr lesen
Präsenztermine