Nicolas Carl, Daniel Uysal, Frederik Wessels
Large Language Models (LLMs) sind KI-Modelle, die darauf trainiert wurden, natürliche Sprache zu verstehen und zu generieren. Insbesondere durch ChatGPT sind sie im Alltag angekommen, werden aber auch in der medizinischen Forschung zunehmend eingesetzt. Hier wurde eine Vielzahl an LLMs entwickelt, um den wichtigen Schritt der Literaturrecherche zu vereinfachen. Aktuelle Anwendungen können wissenschaftliche Datenbanken über Application Programming Interfaces (APIs) oder Retrieval-Augmented Generation (RAG) effizient durchsuchen, um für die spezifische Fragestellung prägnante Zusammenfassungen zu erstellen und die relevantesten Arbeiten hervorzuheben. Sie bieten somit das Potenzial, die Literaturrecherche zu vereinfachen und effizienter zu gestalten. Im Folgenden werden exemplarisch ausgewählte Tools vorgestellt und anhand einer beispielhaften Suchanfrage präsentiert.

Anwendungsbeispiel für eine LLM-basierte Literaturrecherche
Es erfolgte zunächst eine konventionelle Literatursuche über Pubmed mit der Anfrage: “large language models in urologic research”. Hierbei wurden 86 zwischen 2019 und 2024 publizierte Artikel identifiziert. Bereits der erste Artikel: „Defining the Role of Large Language Models in Urologic Care and Research“ von Gupta et al. [5] gibt einen Überblick über die Rolle von LLMs in der urologischen Forschung und Patientenversorgung.
Anschließend wurden die Anwendungen Scite.ai [1], Research Rabbit [2], Connected Papers [3] und OpenEvidence [4] zur Optimierung der Recherche untersucht.
Um die Recherche über einen primären Artikel zu ergänzen, kann Scite.ai [1] verwendet werden. Nach Eingabe der DOI des Artikels von Gupta et al. [5] erscheint ein Dashboard, auf dem angezeigt wird, dass der Artikel von acht Publikationen zitiert wurde und zwölf Referenzen enthält. Der Volltext jeder dieser Arbeiten kann (sofern verfügbar) bezogen und im Kontext des primären Artikels interpretiert werden. Eine Besonderheit stellt die Klassifikation der Referenzen dar. Diese werden automatisch in „den Primärartikel unterstützend“, „kontrastierend“ oder „erwähnend“ eingeteilt. In unserem Beispiel wurde der Artikel von Gupta et al. [5] nur einmal als „erwähnt“ bezeichnet. Eine weitere nützliche Eigenschaft ist die Möglichkeit, Informationen über redaktionelle Änderungen oder eine Retraktion eines Artikels direkt angezeigt zu bekommen.
Während Zusammenhänge zwischen Arbeiten mittels Scite.ai [1] klassifiziert werden, können diese Zusammenhänge mittels Research Rabbit [2] oder Connected Papers [3] visualisiert und ein Netzwerk erstellt werden. Auch hier muss mindestens ein primärer Artikel als Suchanfrage eingegeben werden (in unserem Beispiel der von Gupta et al. [5]).
Neben Referenzen und Zitationen können über Research Rabbit [2] ähnliche Arbeiten („similar work“) herausgesucht werden. Es wurde z. B. ein Editorial von Kleebayoon et al. [6] identifiziert mit generellen Themen in Bezug auf KI, Chatbots und Plagiarismus. Unter Zuhilfenahme dieses Editorials [6] konnten 28 weitere ähnliche Artikel identifiziert werden.
Connected Papers [3] visualisiert und gewichtet die Stärke der thematischen Verbindung in Abhängigkeit der Anzahl der Zitationen je Arbeit und den Zeitpunkt der Publikation in einer übersichtlichen graphischen Darstellung.
Einen anderen Ansatz verfolgt OpenEvidence [4], ein Chatbot, der eine generative KI mit evidenzbasierter klinischer Information kombiniert. OpenEvidence beantwortet Fragen mit Outputs und Zitaten im wissenschaftlichen Stil und stuft diese nach Relevanz und Aktualität ein. Die initiale Suchanfrage konnte OpenEvidence jedoch nicht beantworten und begründete dies mit fehlender relevanter Literatur und unzureichenden Qualitätsstandards. Stattdessen wurde auf verschiedene Quellen verwiesen.
Fazit
Die vorgestellten KI-Tools bieten innovative Ansätze, um die Literaturrecherche multimodal und effizient zu erweitern. Scite.ai bietet eine inhaltliche Klassifikation von Referenzen und Einblicke in Zitationsdynamiken. ResearchRabbit und Connected Papers visualisieren thematische Verbindungen zwischen Arbeiten. OpenEvidence kombiniert generative KI mit evidenzbasierten Informationen und klassifiziert Arbeiten nach Relevanz in Form eines Chatbots. Obwohl diese Tools wertvolle Unterstützung bieten, gibt es Einschränkungen. Viele dieser KI-Tools sind kostenpflichtig und der Output sollte niemals ungeprüft übernommen werden. Eine sorgfältige Verifizierung und ein kritischer Gegencheck sind unerlässlich. Zudem fordern viele Journals eine transparente Angabe darüber, welche KI-Tools eingesetzt und zu welchem Zweck sie verwendet wurden, um die wissenschaftliche Integrität zu wahren. ◼
Disclaimer
Dieser Artikel erhebt keinen Anspruch auf Vollständigkeit und stellt keine systematische Übersichtsarbeit dar. Ziel war es, ausgewählte Tools vorzustellen, die sich in unserer wissenschaftlichen Praxis als hilfreich erwiesen haben. Es bestehen keine finanziellen Interessenkonflikte in Bezug auf die hier vorgestellten Tools, und die Auswahl basiert ausschließlich auf praktischen Erfahrungen und Einschätzungen.
Weitere Informationen sind im Supplementary Material einsehbar
Literatur unter www.uroforum.de
Aus UroForum Heft 01/2025


