Versuche, Künstliche Intelligenz (KI) auch in der psychiatrischen Versorgung einzusetzen, zeigten bisher nur mäßigen Erfolg. Die Einbeziehung von Informationen aus der Patientenakte könnte das Potenzial dieser Modelle verbessern.
Ein deutsches Forscherteam hat jetzt in einer Studie sog. Large Language Models (LLM, große Sprachmodelle) eingesetzt, mit denen es möglich ist, das Suizidrisiko durch Auswertung der elektronischen Patientenakte einzuschätzen. Die Extraktion von Informationen über den Suizidalitätsstatus aus den klinischen Aufnahmenotizen erfolgt dabei unter Verwendung datenschutzsensibler, lokal gehosteter LLMs. Aus 100 psychiatrischen Berichten bewerteten die Wissenschaftler verschiedene Open-Source-LLM-Varianten nach deren Genauigkeit, Sensitivität und Spezifität. Ein auf die deutsche Sprache abgestimmtes Llama-2-Modell zeigte die höchste Genauigkeit (87,5%), Sensitivität (83,0%) und Spezifität (91,8%) bei der Identifizierung des Suizidrisikos.
Der Studie zufolge ist es mit dem LLM Llama-2-Modell möglich, Informationen über Suizidalität aus psychiatrischen Aufzeichnungen genauer als bisher einzuschätzen und gleichzeitig den Datenschutz zu wahren.
Quelle: Wiest IC et al. The British Journal of Psychiatry 2024. Published online:1-6. doi:10.1192/bjp.2024.134
Bildquelle:© lembergvector – stock.adobe.com



