Die öffentliche Apotheke steht unter wachsendem Druck, Servicequalität, Wirtschaftlichkeit und Arzneimitteltherapiesicherheit gleichzeitig zu verbessern. Künstliche Intelligenz eröffnet hierfür konkrete Chancen: Chatbots können Standardanfragen beantworten, Assistenzsysteme interne Informationen schneller verfügbar machen und analytische Werkzeuge Preis- oder Sortimentsentscheidungen fundierter vorbereiten. Auch im Bereich der Unterstützung der Arzneimitteltherapiesicherheit wird KI zunehmend erprobt. Doch so groß das technische Potenzial ist, so klar gilt in Apotheken: Nicht alles, was technisch möglich ist, ist rechtlich oder organisatorisch zulässig. Wer KI in der Apotheke einsetzen möchte, benötigt deshalb einen belastbaren Rahmen, der Rechtssicherheit, Datenschutz, fachliche Verantwortung und praktische Umsetzbarkeit miteinander verbindet.
Ein zentraler Ausgangspunkt ist der Rechtsrahmen, der für den KI-Einsatz in Apotheken besonders relevant ist. Maßgeblich ist zunächst die EU-KI-Verordnung, die Verordnung (EU) 2024/1689. Sie verfolgt einen risikobasierten Ansatz und unterscheidet je nach Einsatzbereich zwischen verschiedenen Risikostufen. Für Apotheken bedeutet das: Ein einfacher konversationeller Assistent zur Beantwortung allgemeiner Servicefragen ist anders zu bewerten als ein System, das in kliniknahe Entscheidungsprozesse eingreift oder Empfehlungen mit potenziellen Auswirkungen auf die Arzneimitteltherapiesicherheit ausspricht. Gerade bei kliniknahen oder gesundheitsbezogenen Entscheidungsfunktionen kann ein hohes regulatorisches Risiko entstehen. Zusätzlich gelten Transparenzpflichten, insbesondere bei konversationellen Systemen: Nutzerinnen und Nutzer müssen erkennen können, dass sie mit einem KI-System interagieren. Parallel dazu ist die Datenschutz-Grundverordnung uneingeschränkt zu beachten. In Apotheken werden regelmäßig Gesundheitsdaten verarbeitet, die als besondere Kategorien personenbezogener Daten nach Art. 9 DSGVO einem erhöhten Schutzniveau unterliegen. Daraus folgen Anforderungen an Datensparsamkeit, Zweckbindung, Zugriffsbeschränkungen, Löschkonzepte sowie in vielen Fällen die Pflicht zur Durchführung einer Datenschutz-Folgenabschätzung. Hinzu kommen Dokumentations- und Rechenschaftspflichten, die den gesamten Lebenszyklus eines KI-Systems betreffen.
Neben dem Datenschutz und dem KI-Recht spielen berufsrechtliche und fachliche Anforderungen eine entscheidende Rolle. Die Verantwortung für pharmazeutische Entscheidungen verbleibt stets beim qualifizierten pharmazeutischen Personal. KI darf diese Verantwortung unterstützen, aber nicht ersetzen. Vollautomatisierte Therapieentscheidungen sind daher in der apothekerlichen Praxis kein zulässiger Weg. Auch dort, wo KI Hinweise, Verdachtsmomente oder Auswertungen bereitstellt, bleibt die Pflicht zur Plausibilitätsprüfung bestehen. Das bedeutet: Ergebnisse müssen fachlich geprüft, eingeordnet und freigegeben werden, bevor sie in patientenbezogene Prozesse einfließen. Ebenso wichtig sind die Grenzen der Kommunikation nach außen. Apotheken unterliegen im Gesundheitskontext besonderen Werbevorgaben. KI-generierte Aussagen dürfen daher keine unzulässigen Heilversprechen enthalten, keine Diagnose suggerieren und keine fachlich ungesicherten Aussagen zu Wirkungen oder Therapieerfolgen verbreiten. Gerade generative Systeme bergen hier Risiken, wenn sie frei formulieren oder Inhalte ohne verlässliche Quellen erzeugen.
Für einen rechtssicheren Einstieg empfiehlt es sich, zunächst auf Use-Cases mit niedrigerer Risikostufe zu setzen. Dazu zählt beispielsweise eine FAQ-Assistenz, die Öffnungszeiten, Botendienste, Verfügbarkeiten oder allgemeine Hinweise zur Einlösung von Rezepten beantwortet. Solche Systeme können den Kundenservice spürbar entlasten, sofern sie klar als KI gekennzeichnet sind und bei komplexeren oder sensiblen Anliegen an das Apothekenteam übergeben. Ebenfalls gut geeignet ist die interne Wissenssuche, etwa zur schnelleren Auffindung von Arbeitsanweisungen, Sortimentsinformationen oder standardisierten Prozessdokumenten. Auch die Unterstützung bei Preis- und Sortimentsentscheidungen kann sinnvoll sein, wenn die KI Analysen, Trends oder strukturierte Entscheidungsgrundlagen liefert, ohne eigenständig verbindliche Entscheidungen zu treffen. Hinzu kommen Textbausteine für Dokumentation, interne Kommunikation oder organisatorische Routinen, sofern keine sensiblen Inhalte unkontrolliert verarbeitet werden. Diese Anwendungsfälle bieten einen hohen praktischen Nutzen bei vergleichsweise überschaubarem regulatorischem Risiko.
Anders ist die Lage bei höher regulierten Use-Cases, insbesondere dort, wo KI die Arzneimitteltherapiesicherheit unterstützt. Systeme zur AMTS-Unterstützung können einen erheblichen Mehrwert bieten, etwa indem sie mögliche Wechselwirkungsrisiken, Doppelverordnungen oder auffällige Konstellationen strukturierter sichtbar machen. Sie dürfen jedoch nur als Empfehlungssysteme ausgestaltet werden, nicht als autonom handelnde Instanz. Entscheidend ist, dass solche Systeme nachvollziehbare Quellen angeben, beispielsweise Fachinformationen, Leitlinien oder andere kuratierte Referenzen. Die KI darf Hinweise liefern, aber keine Therapieempfehlungen im engeren Sinn aussprechen. Jede Nutzung in patientennahen Entscheidungen erfordert eine verpflichtende menschliche Freigabe durch fachlich qualifiziertes Personal. Damit wird sichergestellt, dass die abschließende Bewertung nicht durch ein Modell, sondern durch eine verantwortliche Fachperson erfolgt. Gerade in diesem Bereich sollte die technische Lösung nicht auf freier Generierung basieren, sondern auf einer kontrollierten Informationsarchitektur.
Ein praxissicherer KI-Einsatz in Apotheken beginnt deshalb mit der richtigen technischen Gestaltung. Empfehlenswert sind lokale oder EU-basierte Verarbeitungsmodelle, um Datenflüsse besser kontrollieren und datenschutzrechtliche Anforderungen verlässlicher erfüllen zu können. Zugleich sollte das Prinzip der Datenminimierung konsequent umgesetzt werden: Es sollten nur diejenigen Daten verarbeitet werden, die für den konkreten Zweck zwingend erforderlich sind. Wo immer möglich, ist eine Pseudonymisierung vorzusehen. Rollen- und Rechtekonzepte stellen sicher, dass nur berechtigte Personen Zugriff auf Systeme, Eingaben und Ergebnisse erhalten. Ebenso wichtig sind Protokollierung und Audit-Trails, damit nachvollziehbar bleibt, welche Informationen verarbeitet, welche Antworten generiert und welche Freigaben erteilt wurden. Für generative Systeme sollten Prompt- und Ausgangsfilter implementiert werden, um Diagnosen, Heilversprechen oder sensible unzulässige Inhalte zu blockieren. Besonders bewährt ist ein Retrieval-Ansatz auf Basis kuratierter Quellen, also etwa Fachinformationen, Leitlinien, internen SOPs oder verifizierten Wissensdatenbanken, statt einer freien textlichen Erzeugung ohne belastbare Grundlage. Ergänzend sollten Confidence-Schwellen definiert werden: Ist die Sicherheit eines Ergebnisses zu gering oder fehlt eine belastbare Quelle, muss das System automatisch an menschliche Expertise übergeben. Kontinuierliches Monitoring und regelmäßige Evaluation sind unverzichtbar, um Qualität, Sicherheit und Regelkonformität dauerhaft sicherzustellen.
Neben der Technik müssen auch Verträge, Prozesse und Verantwortlichkeiten klar geregelt sein. Wenn externe Anbieter oder Cloud-Dienste eingebunden werden, sind Auftragsverarbeitungsverträge erforderlich, die Zweckbindung, Sicherheitsmaßnahmen, Unterauftragsverhältnisse und Kontrollrechte sauber abbilden. Löschkonzepte müssen definieren, wann Eingaben, Protokolle oder Trainingsdaten gelöscht oder anonymisiert werden. Ebenso gehört ein Incident-Response-Konzept dazu, das festlegt, wie bei Datenschutzvorfällen, Fehlfunktionen oder sicherheitsrelevanten Auffälligkeiten vorzugehen ist. Schulungen des Teams sind ein entscheidender Erfolgsfaktor, denn selbst das beste System bleibt riskant, wenn seine Grenzen nicht verstanden werden. Standard Operating Procedures sollten deshalb regeln, wann KI verwendet werden darf, welche Inhalte eingegeben werden dürfen, wann eine Eskalation erfolgt und wer die Verantwortung für Freigaben trägt. Auch Change- und Modellversionsmanagement ist wichtig: Änderungen an Modellen, Wissensquellen, Filtern oder Benutzeroberflächen müssen dokumentiert, bewertet und kontrolliert ausgerollt werden. Nur so bleibt die Compliance auch über die Zeit hinweg belastbar.
Für die Einführung eines KI-Systems in der Apotheke empfiehlt sich ein strukturiertes Vorgehen in klaren Schritten. Erstens sollten alle vorgesehenen Use-Cases inventarisiert und einem Risikoniveau zugeordnet werden. Zweitens sind Rechtsgrundlagen und Datenflüsse zu prüfen; bei sensiblen Anwendungen sollte eine Datenschutz-Folgenabschätzung durchgeführt werden. Drittens ist ein präzises Anforderungsprofil mit fachlichen, technischen und rechtlichen Erfolgskriterien zu definieren. Viertens folgt die Wahl der Architektur, etwa On-Premises oder Cloud in der EU, ergänzt um Logging, Zugriffskontrollen und gegebenenfalls Retrieval-Augmented Generation. Fünftens sollten kuratierte Wissensquellen festgelegt und eine verbindliche Quellenzitierung vorgesehen werden. Sechstens sind Mensch-in-der-Schleife-Mechanismen und Freigabeprozesse zu gestalten. Siebtens müssen Transparenz- und Hinweistexte in der Nutzeroberfläche umgesetzt werden, damit sowohl Mitarbeitende als auch Kundinnen und Kunden den Charakter und die Grenzen des Systems erkennen. Achtens sind Verträge, Richtlinien und interne Policies zu finalisieren. Neuntens sollte ein Pilot mit Testkatalog durchgeführt werden, der Bias, Halluzinationen, Datenschutzrisiken und fachliche Fehler gezielt prüft und an klaren Abnahmekriterien misst. Zehntens folgen Rollout, Schulung, Monitoring und eine periodische Re-Evaluation, um das System an neue rechtliche, technische und organisatorische Anforderungen anzupassen.
Wie diese Prinzipien in der Praxis aussehen können, zeigen typische Anwendungsbeispiele. Ein Kundenchat kann rechtssicher gestaltet werden, wenn er eindeutig als KI-System gekennzeichnet ist, nur klar definierte Serviceauskünfte beantwortet, alle Antworten protokolliert und bei Unsicherheit oder sensiblen Anliegen automatisch an das Apothekenteam eskaliert. Ein AMTS-Assistent kann sinnvoll unterstützen, wenn er Wechselwirkungsrisiken ausschließlich mit belastbaren Quellenangaben auflistet und ausdrücklich keine Therapieempfehlungen ausspricht. So bleibt die KI ein Recherche- und Strukturierungswerkzeug, während die pharmazeutische Bewertung beim Fachpersonal liegt. Eine Preishilfe wiederum kann Analysen, Vergleichswerte oder begründete Vorschläge liefern, ohne selbst Preise festzulegen oder eigenständig kaufmännische Maßnahmen auszulösen. In allen drei Fällen bleibt entscheidend, dass die letzte Entscheidung durch Menschen getroffen wird, dass die zugrunde liegenden Daten kontrolliert sind und dass das System technisch wie organisatorisch eingehegt ist.
Ob ein KI-System in der Apotheke wirklich praxistauglich ist, lässt sich nur anhand geeigneter Kennzahlen beurteilen. Dazu zählen operative Größen wie Antwortzeit, Abbruchrate oder Eskalationsquote im Kundenservice. Bei fachlich sensibleren Anwendungen ist die Genauigkeit gegenüber einem definierten Goldstandard wesentlich, ebenso die Häufigkeit unzulässiger oder nicht belastbarer Ausgaben. Hinzu kommen Compliance-bezogene Kennzahlen, etwa Ergebnisse interner oder externer Audits, dokumentierte Vorfälle, Erfolgsquoten bei Schulungen oder die Einhaltung von Freigabe- und Dokumentationspflichten. Solche Metriken helfen nicht nur bei der Qualitätssteuerung, sondern auch beim Nachweis, dass das System kontrolliert betrieben wird. Gerade im regulierten Umfeld der Apotheke ist dies ein wesentlicher Bestandteil verantwortungsvoller KI-Nutzung.
KI kann öffentliche Apotheken dabei unterstützen, Service zu verbessern, interne Prozesse zu beschleunigen und Fachkräfte gezielter zu entlasten. Der Schlüssel zum rechtssicheren Einsatz liegt jedoch nicht in möglichst spektakulären Funktionen, sondern in einer sauberen Architektur, klarer Governance und konsequenter menschlicher Aufsicht. Wer mit risikoarmen Use-Cases beginnt, regulatorische Anforderungen früh berücksichtigt, technische Schutzmechanismen einbaut und Verantwortlichkeiten eindeutig regelt, kann KI effizient und zugleich praxissicher implementieren. Genau darin liegt für Apotheken der nachhaltige Mehrwert: nicht in unkontrollierter Automatisierung, sondern in verlässlicher, nachvollziehbarer und verantwortbar eingesetzter Unterstützung.
