Der Einsatz von Künstlicher Intelligenz (KI) im regulierten Umfeld: Chancen, Risiken und bewährte Praktiken

6. Juni 2024

Der Einsatz von Künstlicher Intelligenz (KI) in Unternehmen bietet zahlreiche Chancen zur Optimierung von Prozessen, zur Steigerung der Effizienz und zur Verbesserung der Qualität. Doch trotz dieser Vorteile müssen auch Risiken und Herausforderungen berücksichtigt werden, insbesondere im regulierten Umfeld der Pharma- und Medizintechnikbranche. Im Folgenden beleuchten wir die verschiedenen Aspekte des Einsatzes von KI im regulierten Umfeld.

KI, Chancen und Risiken

KI kann die Art und Weise, wie Unternehmen im regulierten Umfeld arbeiten, revolutionieren. Sie ermöglicht es, grosse Datenmengen und/oder unstrukturierte Daten schnell und präzise zu analysieren, Muster zu erkennen und Vorhersagen zu treffen. Dies kann zu erheblichen Verbesserungen in der Qualität und Effizienz führen. Beispiele sind die Automatisierung von Routineaufgaben, die Verbesserung der Fehlererkennung und die Optimierung von Produktionsprozessen.

Grenzen von KI

Trotz der beeindruckenden Fähigkeiten von KI gibt es auch Grenzen. KI-Systeme sind nur so gut wie die Daten, mit denen sie trainiert wurden. Schlechte Datenqualität oder verzerrte Datensätze können zu ungenauen oder diskriminierenden Ergebnissen führen. Zudem erfordert der Einsatz von KI umfassende Ressourcen und Fachwissen, was für einige Unternehmen eine Hürde darstellen kann. KI-Algorithmen können im Umfeld von z.B. Pharma- und Medizintechnikbranche keine Menschen ersetzen, sondern nur assistieren.

Vorgehen bei der Umsetzung von KI (MLOps)

Was DevOps (Development Operations) für die Softwareentwicklung sind, sind MLOps (Machine Learning Operations) für die Umsetzung von KI. Sie umfassen Best Practices für die Entwicklung, Bereitstellung und Wartung von KI-Modellen. Durch die Anwendung von MLOps können Unternehmen sicherstellen, dass KI-Systeme effizient und zuverlässig arbeiten, während gleichzeitig regulatorische Anforderungen erfüllt werden.

Diskriminierung und Trustworthy AI

Eine der größten Herausforderungen beim Einsatz von KI ist die Vermeidung von Diskriminierung. KI-Systeme können unbeabsichtigt Vorurteile verstärken, die in den Trainingsdaten vorhanden sind. Trustworthy AI, oder vertrauenswürdige KI, umfasst Prinzipien und Praktiken, die darauf abzielen, faire, transparente und nachvollziehbare KI-Systeme zu entwickeln. Dazu gehört auch die Einhaltung ethischer Standards und die Sicherstellung, dass KI-Modelle gerecht und unparteiisch arbeiten.

Explainable AI und Critical Thinking beim Einsatz von KI

Explainable AI bezieht sich auf Methoden und Techniken, die es ermöglichen, die Entscheidungen und Vorhersagen von KI-Modellen zu verstehen und nachzuvollziehen. Dies ist besonders wichtig im regulierten Umfeld, wo Transparenz und Erklärbarkeit entscheidend sind, um regulatorische Anforderungen zu erfüllen und das Vertrauen der Stakeholder zu gewinnen.

Critical Thinking ist im Kontext der Good Automated Manufacturing Practice (GAMP) Richtlinien unerlässlich. Dieser Grundsatz muss auch im gesamten Lebenszyklus der KI berücksichtigt werden. Es geht darum, die Funktionsweise von KI-Modellen kritisch zu hinterfragen, um sicherzustellen, dass sie den hohen Standards der Branche entsprechen. Dies umfasst die Bewertung der Datenqualität, die Überprüfung der Modellleistung und die Sicherstellung der Nachvollziehbarkeit von Entscheidungen.

Artificial Intelligence Act (AIA) der EU

Der Artificial Intelligence Act (AIA) der Europäischen Union zielt darauf ab, einen rechtlichen Rahmen für den Einsatz von KI zu schaffen. Er legt Anforderungen und Pflichten fest, die sicherstellen sollen, dass KI-Systeme sicher, transparent und ethisch vertretbar sind. Unternehmen aller Branchen müssen diese Vorgaben einhalten, um den rechtlichen und ethischen Standards gerecht zu werden. Dabei werden einige KI-Systeme, insbesondere solche die im Bereich der Life Sciences Branche zum Einsatz kommen könnten, im Rahmen des KI-Gesetzes als Hochrisikosysteme eingestuft. Hieraus ergeben sich gemäss Art. 8-25 besondere Anforderungen für die Entwicklung und den Einsatz solcher Systeme, die es zu beachten gilt.

Webforum „Einsatz von Künstlicher Intelligenz (KI) im regulierten Umfeld“

Der Einsatz von KI im regulierten Umfeld bietet enorme also Chancen, birgt aber auch Herausforderungen. Durch die Anwendung von Best Practices wie MLOps, der Berücksichtigung von Trustworthy AI-Prinzipien und Explainable AI und der Einhaltung gesetzlicher Rahmenbedingungen wie dem AIA können Unternehmen die Vorteile von KI nutzen und gleichzeitig Risiken minimieren. Transparenz und Erklärbarkeit bleiben dabei wesentliche Elemente, um das Vertrauen in KI-Systeme zu stärken und ihre Akzeptanz zu fördern.

Mehr zu den Möglichkeiten, aber auch den Herausforderungen der KI-Nutzung im regulierten Umfeld erfahren Sie in unserem Webforum „Einsatz von Künstlicher Intelligenz (KI) im regulierten Umfeld“, am Mittwoch, 19. Juni 2024, 14:15 – 16:00 Uhr. Neben interessanten Fachvorträgen erwartet Sie auch eine Podiumsdiskussion über Erfahrungen und Perspektiven zum Einsatz von KI in der Validierung.

Jetzt kostenlos anmelden und dabei sein: https://www.dhc-consulting.com/termin/ki-im-regulierten-umfeld/.

Sie haben keine Zeit an diesem Termin? Melden Sie sich trotzdem an und sichern Sie sich damit den Podcast, den wir Ihnen kurz nach der Veranstaltung zusenden und den Sie sich dann bei passender Gelegenheit in Ruhe anschauen können.

Wir freuen uns auf Sie!

Kostenfreie Websession

Unsere Websessions sind ein kostenloser Service für Kunden und Interessenten der DHC.