Die Sprachmodelle, wie sie bspw. bei ChatGPT zur Anwendung kommen, können für die Medizinregulierer eine erhebliche Unterstützung darstellen. So zum Beispiel bei der Abfrage umfangreicher Dokumentation, zur Automatisierung von Data-Mining-Prozessen oder als virtuelle KI-Assistenten bei alltäglichen Verwaltungsaufgaben. LLMs bringen, so die EMA, jedoch auch Herausforderungen mit sich, z. B. die Variabilität der Ergebnisse, irrelevante oder ungenaue Antworten (sogenannte Halluzinationen) und potenzielle Datensicherheitsrisiken. Vor diesem Hintergrund wird neben anderem auch empfohlen, Mitarbeitenden bei der Verwendung von LLMs durch verschiedene Maßnahmen, wie die Festlegung von Richtlinien für deren Verwendung, die Spezifizierung zulässiger Anwendungsfälle, die Bereitstellung von Schulungen und die Überwachung von Risiken zu unterstützen.
Die Leitprinzipien sind eines der Ergebnisse des mehrjährigen KI-Arbeitsplans von EMA und HMA bis 2028. Sie sollen ein „lebendes Dokument“ darstellen und regelmäßig aktualisiert werden. (MK)