
Die Ernüchternde Wahrheit über KI und Suizidvorhersagen
2025-09-18
Autor: Leonardo
Beeindruckende Technologie, enttäuschende Ergebnisse
Die Vorstellung klingt verblüffend: Künstliche Intelligenz könnte durch die Analyse gewaltiger Gesundheitsdaten Muster aufdecken, die selbst erfahrene Ärztinnen und Ärzte übersehen. Weltweit arbeiten Forschungsteams an Algorithmen, die mithilfe von Krankenakten, Registerdaten und psychologischen Fragebögen das Suizidrisiko von Patientinnen und Patienten bewerten sollen. Doch eine aktuelle Meta-Studie, veröffentlicht im Fachblatt ‚PLOS Medicine‘, dämpft diese vielversprechenden Erwartungen erheblich.
Enttäuschende Ergebnisse aus umfangreicher Forschung
Ein Team um den Epidemiologen Matthew J. Spittal von der University of Melbourne hat beeindruckende 53 Studien ausgewertet, die zusammen Daten von etwa 35 Millionen Menschen und rund 249.000 Suizid- oder Selbstverletzungsfällen umfassen. Die Ergebnisse sind durchwachsen und geben Anlass zur Besorgnis: Obwohl die KI-Programme in vielen Fällen präzise vorhersagen können, dass jemand kein Risiko für Selbstverletzungen darstellt, liegt ihre Trefferquote bei der Einstufung von ‚hochgefährdeten‘ Personen oft weit daneben.
Alarmierende Fehlalarme und geringe Prognosegenauigkeit
In vielen Fällen schlagen die Prognosesysteme Alarm, wo keiner erforderlich ist. In Bevölkerungsgruppen mit geringer Suizidrate erweist sich ihre Vorhersage als nahezu unbrauchbar – nur eine von tausend Warnungen war letztendlich zutreffend. Die Situation verbessert sich nur minimal in high-risk Gruppen, wie beispielsweise nach einem Klinikaufenthalt: Hier liegt die Quote, bei der die KI tatsächlich Recht hat, bei etwa zwei Dritteln.
Kliniken sollten auf umfassende Unterstützung setzen
Diese Ernüchterung zeigt, dass die Systeme kaum besser abschneiden als traditionelle Einschätzungen durch medizinisches Personal. Tatsächlich sind die Trefferquoten bislang zu niedrig, um nennenswerte Hilfe zu leisten. Anstatt sich auf selektive KI-Prognosen zu verlassen, appellieren die Autoren dieser Studie an Kliniken, angebotene Nachsorge und psychotherapeutische Unterstützung gleichmäßig allen Betroffenen zugänglich zu machen.
Fazit: KI bleibt hinter den Erwartungen zurück
Die Hoffnung, dass maschinelles Lernen einen Durchbruch bei der Suizidvorhersage bringen könnte, bleibt bisher unerfüllt. Die Technologie steht zwar bereit, doch ihre Effektivität in kritischen Lebenslagen ist bisher fraglich. Die Herausforderung bleibt: Wie können wir Menschen in Krisensituationen besser unterstützen?