• Newsroom
  • Join us!
  • Newsletter
  • Kontakt
  • English English Englisch en
  • Deutsch Deutsch Deutsch de
+49 (0)6321 969210
Experts Institut
  • Business Consulting
    • Business Solutions
      • Digitalisierung
      • Sustainability
      • Managementsysteme
      • Projektmanagement
      • Strategie & Performance
      • Transformation & Leadership
  • GXP Consulting
    • GMP Beratung
      • GMP Audits & Inspektionen
      • GMP-/GDP-Schulungen
      • GMP-/Pharmaengineering
      • Continuous Manufacturing
  • Industries
    • Pharma
    • Dienstleister & Handel
    • Automotive
    • Food & Beverages
    • Finanzdienstleister & Versicherungen
    • Informationstechnik (IT)
    • Luft & Raumfahrt
  • Academy
    • Individuelle Inhouse-Schulungen
      • GMP / GxP
    • Experts Institut Events
      • Academy
    • Direkt buchen
      • Live-Events
      • On-Demand Webinar
  • Kunden
  • Über uns
    • Über uns
      • Leitlinie
      • Portrait
      • Team
      • Geschäftsführung
      • Vision
      • Events
      • Historie
      • Nachhaltigkeit
      • Soziale Verantwortung
    • Wissen
      • GMP Glossar
      • FAQ
      • Videos
    • Blog
      • Newsroom
  • Click to open the search input field Click to open the search input field Suche
  • Menü Menü
  • Link zu LinkedIn
  • Link zu Xing

Schlagwortarchiv für: EU AI Act

GMP, GXP, KI

Pharmatauglicher Einsatz von generativer KI: Regularien, Grenzen und konkrete Umsetzungsansätze

Generative Künstliche Intelligenz (KI) und Large Language Models (LLMs) sind längst im Arbeitsalltag angekommen – auch in der Pharmaindustrie. Doch gerade in regulierten Umfeldern stellt sich nicht die Frage ob, sondern wie KI regelkonform, sicher und sinnvoll eingesetzt werden kann. Zwischen Effizienzpotenzialen, EU AI Act, GMP-Anforderungen und dem Draft des Annex 22 herrscht bei vielen Unternehmen Unsicherheit.

Im Experts Talk „Pharmatauglicher Einsatz von generativer KI“ zeigten wir praxisnah auf, welche regulatorischen Rahmenbedingungen gelten, wo reale Risiken liegen und welche KI-Anwendungen heute bereits compliant und validierbar eingesetzt werden können. Dieser Beitrag fasst die wichtigsten Inhalte des Webinars zusammen.

Experts Talk

Warum generative KI im Pharmaumfeld ein kritisches Thema ist

Die Relevanz von KI im pharmazeutischen Umfeld ist unbestritten. Studien und Marktanalysen zeigen, dass insbesondere in Quality Control / Manufacturing ein hohes Potenzial für KI-gestützte Anwendungen besteht. Gleichzeitig verdeutlichen aktuelle Zahlen ein ernstzunehmendes Risiko: Ein Großteil der Mitarbeitenden nutzt KI-Tools bereits heute, häufig ohne Freigabe, ohne Schulung und ohne klare Regeln.

Dieses Phänomen wird als Shadow AI bezeichnet. Es entsteht immer dann, wenn Mitarbeitende generische KI-Tools einsetzen, ohne dass das Unternehmen davon weiß oder den Einsatz kontrolliert. Die Folgen reichen von Datenschutzproblemen über Compliance-Risiken bis hin zu Verstößen gegen den EU AI Act, insbesondere gegen die Pflicht zur AI Literacy.

Welche Regularien gelten beim Einsatz von LLMs in der Pharmaindustrie?

Ein zentrales Thema ist die Einordnung der geltenden und kommenden Regularien. Entscheidend ist dabei: Nicht jedes KI-System unterliegt denselben Anforderungen. Der Einsatzkontext bestimmt die regulatorische Tiefe.

Der EU AI Act

Der EU AI Act gilt sektorübergreifend und betrifft sämtliche KI-Anwendungen im Unternehmen, vom Office-Chatbot bis zur Entscheidungsunterstützung in der Qualitätssicherung. Besonders relevant für Pharmaunternehmen sind:

  • Pflicht zur AI Literacy (Schulung der Mitarbeitenden)
  • Klassifizierung von KI-Anwendungen als High-Risk
  • Verpflichtende menschliche Aufsicht bei Hochrisiko-Systemen

Pharma zählt klar zu den Hochrisiko-Branchen, sodass automatisierte Entscheidungen ohne Human-in-the-Loop nicht zulässig sind.

GMP-Rahmenwerke

Unabhängig vom Annex 22 greifen bereits bestehende GMP-Regularien, unter anderem:

  • ICH Q9 – Qualitätsrisikomanagement
  • Annex 15 – Qualifizierung und Validierung
  • Annex 11 – Datenmanagement
  • GAMP 5 (Version 2) mit explizitem KI-Bezug

Diese bilden bereits heute den Rahmen für eine risikobasierte Bewertung und Validierung von KI-Systemen.

Annex 22 (Draft)

Der Draft des Annex 22 konkretisiert erstmals die Erwartungen an KI im GMP-Umfeld. Besonders relevant:

  • Keine generative KI für kritische GMP-Anwendungen
  • Nur statische Modelle (kein automatisches Retraining)
  • Deterministische Ergebnisse (gleicher Input → gleicher Output)
  • Anforderungen an Erklärbarkeit (XAI) – keine Black-Box-Systeme

Im Fokus stehen Anwendungen mit direktem Einfluss auf Patientensicherheit, Produktqualität oder Datenintegrität.

Was bedeutet das konkret? KI-Use-Cases im GMP-Umfeld

Trotz klarer Einschränkungen bleibt ein breites Feld an zulässigen, validierbaren und wirtschaftlich sinnvollen Einsatzmöglichkeiten.

Compliant nutzbare Anwendungsfälle:

Zu den praxistauglichen Use-Cases zählen unter anderem:

  • Unterstützung beim Dokumentenentwurf
  • Klassifikation und Extraktion von Informationen (z. B. Abweichungen)
  • Recherche in vorhandenen Dokumenten und GAP-Identifikation
  • Hyperindividualisiertes Training für Mitarbeitende
  • Datenaggregation und Trend- oder Clusteranalysen
  • Identifikation wiederkehrender Abweichungen

Diese Anwendungen sind unterstützend, nicht entscheidend – und lassen sich mit klarer Governance validierbar betreiben.

Kritische Anwendungen mit hohem Risiko:

Nicht oder nur sehr eingeschränkt zulässig sind u. a.:

  • Automatischer Batch Release
  • Echtzeit-Entscheidungen ohne menschliche Kontrolle
  • Automatische CAPA-Generierung
  • Vollautomatische Vorfallsbeschreibungen

Hier ist das Risiko von Halluzinationen, Fehlentscheidungen und regulatorischen Verstößen besonders hoch.

Human-in-the-Loop, Intended Use & Performance Monitoring

Human-in-the-Loop (HITL) bedeutet, dass KI-Systeme Mitarbeitende unterstützen, die Entscheidung jedoch immer beim Menschen verbleibt. Dieses Prinzip ist sowohl im EU AI Act als auch im Draft des Annex 22 gefordert und notwendig.

Gleichzeitig wurde aus der Praxis aufgezeigt, dass Human-in-the-Loop allein nicht ausreicht. Der langfristige Einsatz von KI kann das Entscheidungsverhalten von Mitarbeitenden beeinflussen. Wenn KI-Vorschläge über längere Zeit als zuverlässig wahrgenommen werden, besteht die Gefahr, dass Entscheidungen zunehmend unkritisch bestätigt werden.

Deshalb sind zusätzliche Maßnahmen erforderlich:

  • Klar definierter Intended Use: Es muss eindeutig festgelegt werden, wofür die KI genutzt werden darf und wofür nicht. Da generative KI oft mehr kann als ursprünglich geplant, muss jede Nutzung außerhalb des definierten Anwendungszwecks bewusst geprüft werden.
  • Überwachung des Zusammenspiels von Mensch und KI: Neben der technischen Funktion der KI muss beobachtet werden, wie Mitarbeitende mit den KI-Vorschlägen umgehen und ob Entscheidungen weiterhin aktiv und kritisch getroffen werden.
  • Performance-Validierung und Versionskontrolle: Die Leistung der KI muss über die Zeit hinweg überprüft werden – insbesondere bei Änderungen von Prozessen, Regularien oder Daten. Gleichzeitig muss nachvollziehbar sein, welche System- oder Modellversion zu welchem Zeitpunkt im Einsatz war.
  • Strukturiertes Datenmanagement: Trainings-, Test- und produktiv genutzte Daten müssen klar getrennt, dokumentiert und nachvollziehbar sein, um die Qualität und Validierbarkeit der KI-Anwendung sicherzustellen.

Diese Punkte wurden im Webinar als zentrale Voraussetzungen benannt, um generative KI im GMP-Umfeld kontrolliert, nachvollziehbar und regelkonform einzusetzen.

Praxisbeispiel: Generative KI mit MyGPT von Leftshift One

Im zweiten Teil des Experts Talks zeigte Robert Spari von Leftshift One anhand von MyGPT, wie generative KI kontrolliert und compliant eingesetzt werden kann.

MyGPT ist eine KI-Plattform, die:

  • in einer geschützten Private-Cloud-Umgebung betrieben wird
  • garantiert, dass keine Daten für Retraining gespeichert werden
  • sich in bestehende Systeme integrieren lässt
  • den Einsatz generativer KI ohne Datenabfluss ermöglicht (interne oder sensible Daten verlassen das kontrollierte System nicht und werden nicht für andere Zwecke weiterverwendet)

Typische Anwendungsbeispiele:

  • Strukturierung unstrukturierter Audit-Notizen zu formalen Audit-Reports
  • Unterstützung bei wissenschaftlichen Texten nach definierten Formalkriterien
  • Nutzung interner GMP-Dokumente mittels Retrieval-Augmented Generation (die KI greift bei Anfragen gezielt auf freigegebene interne Dokumente zu, ohne diese zu trainieren oder dauerhaft zu speichern)
  • Transparente Quellenangaben zur Nachvollziehbarkeit (XAI-Ansatz)

Besonders wichtig: Die Systeme sind so konfiguriert, dass sie nicht halluzinieren, sondern ausschließlich auf freigegebene Inhalte zugreifen, was einen entscheidenden Faktor für die GMP-Tauglichkeit darstellt. Bei Fragen zu dem Tool können Sie sich gerne an Robert Spari wenden: robert.spari@leftshift.one

Fazit: Generative KI ist mit klaren Leitplanken nutzbar

Generative KI ist kein No-Go für die Pharmaindustrie, aber auch kein Selbstläufer. Unternehmen müssen heute:

  • Shadow AI aktiv adressieren
  • KI-Use-Cases strukturiert erfassen und bewerten
  • AI Literacy sicherstellen
  • Governance, Dokumentation und Human-in-the-Loop konsequent umsetzen

Wer frühzeitig handelt, kann KI als Effizienz- und Qualitätshebel nutzen, statt sie als Compliance-Risiko zu erleben.

Weitere Fragen? Treffen Sie uns live auf den Lounges in Karlsruhe

Wenn Sie das Thema pharmatauglicher Einsatz von KI weiter vertiefen möchten, freuen wir uns auf den persönlichen Austausch auf den Lounges Cleanroom and Processes 2026 in Karlsruhe. Die Messe bringt Expert*innen aus Pharma, Biotechnologie, Medizintechnik und angrenzenden Branchen zusammen und bietet Raum für fachlichen Austausch zu Reinräumen, Prozessen, Technologie und regulatorischen Anforderungen.

Unser KI-Vortrag auf den LOUNGES 2026

Voraussichtlich am 24.03.2026 | 11:30 – 12:00 Uhr | Raum 11
Qualitätsentscheidungen mit KI: Annex 22 und EU AI Act

In diesem Vortrag zeigen wir, wie sich KI und Large Language Models für Qualitätsentscheidungen einsetzen lassen – ohne regulatorische Anforderungen zu verletzen. Wir geben Einblicke aus realen Projekten, ordnen Annex 22 und den EU AI Act praxisnah ein und sprechen offen über Chancen, Grenzen und typische Hürden bei der Umsetzung.

Weitere Vorträge von uns am 25.03.2026:

  • Annex 1: Große Worte, kleine Media-Fill-Taten – strategische Nutzung von Media-Fill-Tests zur nachhaltigen Verbesserung steriler Prozesse
  • Water Wars: Herausforderungen und Chancen von Reinstwasser – Biofilm-Risiken, Anlagendesign, Standardisierung und Nachhaltigkeit in der Reinstwasseraufbereitung


Besuchen Sie uns an Stand K6.1 – wir freuen uns auf spannende Gespräche und den fachlichen Austausch! Kostenfreie Tickets erhalten Sie mit dem Code EXPERTSLOUNGES26 (Registrierung erforderlich). Über folgenden Link können Sie ein Ticket buchen: https://cleanroom-processes.de/lounges-karlsruhe-2026/besuchertickets-lounges-karlsruhe-2026/

Wie das Experts Institut Sie unterstützen kann

Das Experts Institut begleitet Pharmaunternehmen bei der Einordnung regulatorischer Anforderungen, der praxisnahen Umsetzung von KI-Governance sowie bei Schulungen und Workshops rund um EU AI Act, Annex 22 und KI im GMP-Umfeld. Get ahead and in touch with us: info@expertsinstitut.de

Ergänzend zu diesem Beitrag lohnt sich ein Blick in unseren Blogartikel zum Thema Annex 22 und EU AI Act. Dort zeigen wir auf, welche KI-Anwendungen aus regulatorischer Sicht als risikoarm, begrenzt oder hochkritisch einzustufen sind und welche Vorbereitungen Unternehmen bereits heute treffen sollten: https://experts-institut.de/ki-in-der-pharmaindustrie-annex-22-eu-ai-act/

Bleiben Sie außerdem auf LinkedIn über weitere Experts Talks, Blogbeiträge und Veranstaltungen informiert: https://de.linkedin.com/company/expertsinstitut

2 Wochen /von Christoph Köth
https://experts-institut.de/wp-content/uploads/2026/02/LinkedIn.png 1080 1920 Christoph Köth https://experts-institut.de/wp-content/uploads/2023/02/GEMI_Logo_Slogan_color_RGB.webp Christoph Köth2026-02-04 15:19:352026-02-11 13:09:29Pharmatauglicher Einsatz von generativer KI: Regularien, Grenzen und konkrete Umsetzungsansätze
GMP, GXP, KI

KI in der Pharmaindustrie: Annex 22 & EU AI Act – Aktuelle Pflichten und praxisnahe Umsetzung

Der Einsatz von Künstlicher Intelligenz (KI) gewinnt in der Pharmaindustrie rasant an Bedeutung – von Effizienzsteigerungen im Büroalltag bis hin zu komplexen Anwendungen in GMP-relevanten Prozessen. Gleichzeitig steigen die regulatorischen Anforderungen deutlich. Mit dem EU AI Act und dem geplanten Annex 22 zum EU-GMP-Leitfaden entsteht erstmals ein klarer regulatorischer Rahmen für den Einsatz von KI in regulierten Umfeldern.

Dieser Beitrag fasst die zentralen Inhalte des Experts Talks „KI in der Pharmaindustrie – Annex 22 & EU AI Act als Rahmen für Qualität und Effizienz“ zusammen, der am 27. November 2025 stattfand. Diskutiert wurde, was diese regulatorischen Entwicklungen konkret für Pharmaunternehmen bedeuten, welche Pflichten bereits heute gelten und wie der Weg von der Risikoanalyse zur Regelkonformität gelingen kann.

EU AI Act

Warum EU AI Act und Annex 22 jetzt relevant sind

Der EU AI Act ist die erste umfassende europäische Regulierung für den Einsatz von KI. Er verfolgt einen risikobasierten Ansatz und unterscheidet KI-Anwendungen danach, welchen potenziellen Einfluss sie auf Menschen, Sicherheit und Grundrechte haben. Für Pharmaunternehmen ist der AI Act besonders relevant, da viele KI-Anwendungen als hochrisikorelevant eingestuft werden können.

Parallel dazu konkretisiert der geplante Annex 22 die Erwartungen der Behörden an den Einsatz von KI im GMP-Umfeld. Auch wenn Annex 22 zum Zeitpunkt des Experts Talks noch nicht final verabschiedet ist, wurde im Austausch mit den Referenten deutlich: Die regulatorische Richtung ist klar – und Unternehmen sollten sich jetzt vorbereiten.

Annex 22 & EU AI Act im Überblick: Welche Regelwerke gelten für welche KI-Use-Cases – vom Office-Chatbot bis zur KI im GMP-Prozess?

Ein zentrales Thema des Experts Talks war die klare Abgrenzung der verschiedenen Regelwerke und ihrer Anwendungsbereiche. Denn nicht jede KI-Anwendung unterliegt denselben Anforderungen. Entscheidend sind Einsatzkontext, Risikopotenzial und Einfluss auf Produktqualität, Patientensicherheit und Menschenrechte.

Zwei Regelwerke – zwei Perspektiven

  • EU AI Act: Der EU AI Act ist eine horizontale, sektorübergreifende Regulierung, die den Einsatz von KI im gesamten Unternehmen adressiert. Er gilt nicht nur für GMP-Prozesse, sondern ebenso für KI-Anwendungen in HR, IT, Office-Bereichen oder im Management. Ziel ist der Schutz von Grundrechten, Sicherheit und Gesundheit sowie die Schaffung von Vertrauen in KI-Systeme.
  • Annex 22 (Draft): Der Annex 22 ist eine vertikale, GMP-spezifische Ergänzung zum EU-GMP-Leitfaden. Er fokussiert sich ausschließlich auf KI-Anwendungen im regulierten Herstellungsumfeld und adressiert insbesondere Systeme mit Einfluss auf Product Quality, Patient Safety und Data Integrity. Der Annex orientiert sich stark an GAMP-5-Prinzipien und ergänzt bestehende Regelwerke wie Annex 11 und Chapter 4.

Typische KI-Use-Cases und ihre regulatorische Einordnung

1. Office- und Support-Anwendungen (geringes bis minimales Risiko)
Beispiele:

  • Office-Chatbots zur Texterstellung oder Übersetzung
  • Rechtschreib- und Formulierungshilfen
  • KI-gestützte Ticket- oder Dokumentensortierung

Diese Anwendungen haben in der Regel keinen direkten Einfluss auf GMP-Entscheidungen oder Patientensicherheit. Dennoch ergeben sich bereits heute Anforderungen aus dem EU AI Act, insbesondere in Bezug auf:

  • Transparenz über den KI-Einsatz
  • Schulung der Mitarbeitenden (AI Literacy)
  • klare interne Regeln zur Nutzung und zum Umgang mit Daten

2. Entscheidungsunterstützende KI-Systeme (begrenztes bis hohes Risiko)
Beispiele:

  • KI-basierte Entscheidungsunterstützung in QA oder Produktion
  • Prognosemodelle für Wartung, Abweichungen oder Kapazitätsplanung

Hier steigen die regulatorischen Anforderungen deutlich. Relevant sind unter anderem:

  • strukturierte Risikobewertung und Klassifizierung
  • Dokumentation von Modellen, Datenbasis und Entscheidungslogiken
  • klare Governance-Strukturen und Verantwortlichkeiten
  • Konzepte zur menschlichen Kontrolle (Human-in-the-Loop)

Je stärker Entscheidungen automatisiert oder vorbereitet werden, desto näher rücken diese Systeme an den Hochrisikobereich des EU AI Acts.

3. KI im GMP-Kernprozess (hohes Risiko / Annex-22-relevant)
Beispiele:

  • KI-gestützte Prozessüberwachung
  • automatisierte Qualitätsbewertungen
  • KI-Systeme mit Einfluss auf Freigabeentscheidungen

Diese Anwendungen stehen klar im Fokus des Annex 22. Der Draft macht deutlich:

  • Kritische KI-Systeme müssen deterministisch, validierbar und erklärbar (XAI) sein
  • Dynamisch lernende Systeme und generative KI sind für kritische GMP-Anwendungen derzeit nicht vorgesehen
  • Human-in-the-Loop ist zwingend erforderlich
  • Datenqualität, Rückverfolgbarkeit und Lebenszyklus-Dokumentation sind zentrale Erfolgsfaktoren

Der Experts Talk zeigte deutlich: EU AI Act und Annex 22 sind keine Alternativen, sondern ergänzen sich. Unternehmen müssen beide Perspektiven berücksichtigen, um KI regelkonform und nachhaltig einzusetzen.

Was Pharmaunternehmen bereits heute beachten müssen

Ein zentrales Fazit des Experts Talks: Warten ist keine Option. Auch ohne final verabschiedeten Annex 22 ergeben sich bereits heute konkrete Anforderungen aus bestehenden GMP-Regularien, dem EU AI Act sowie aus allgemeinen Grundsätzen der Qualitätssicherung.

Besonders betont wurde, dass Unternehmen sich einen strukturierten Überblick über alle eingesetzten oder geplanten KI-Anwendungen verschaffen müssen. Unabhängig davon, ob diese im GMP-Kernprozess, in unterstützenden Bereichen oder im Büroalltag eingesetzt werden.

Zu den zentralen Anforderungen zählen insbesondere:

  • Transparenz und Nachvollziehbarkeit von KI-Systemen
  • Risikobewertung und Klassifizierung der KI-Use-Cases
  • Dokumentation und Governance über den gesamten Lebenszyklus
  • Schulung und Qualifikation der Mitarbeitenden

Ein besonderes Risiko stellt dabei Shadow AI dar – also der unkontrollierte Einsatz generischer KI-Tools wie ChatGPT im Arbeitsalltag. Ohne klare Regeln, Freigaben, Schulungen und Dokumentation kann dies schnell zu Abweichungen und Compliance-Risiken führen.

KI-Governance praxisnah umsetzen: Tool zur Unterstützung regulatorischer Anforderungen

Es wurde deutlich, dass regulatorische Anforderungen wie EU AI Act, Annex 22 (Draft) und ISO/IEC 42001 nur dann wirksam umgesetzt werden können, wenn sie in klare, praktikable Strukturen übersetzt werden.

Hier setzt eine KI-Governance-Lösung von Goodly Technologies an, die derzeit speziell für regulierte Branchen entwickelt wird. Das Tool unterstützt Unternehmen dabei, KI-Systeme strukturiert und nachvollziehbar über ihren gesamten Lebenszyklus hinweg zu steuern: von der Planung über den Einsatz bis zur kontinuierlichen Überwachung.

Im Fokus stehen unter anderem:

  • systematische Erfassung und Klassifizierung von KI-Anwendungen
  • Dokumentation von Verantwortlichkeiten, Risiken und Kontrollen
  • Abbildung zentraler Anforderungen aus Annex 22
  • Integration von SOPs, Schulungen und Nachweisen zur Audit- und Inspektionsfähigkeit

Ziel ist es, KI nicht zu begrenzen, sondern als Grundlage für Innovation und regulatorische Sicherheit kontrolliert nutzbar zu machen. Bei Fragen zu dem Tool können Sie sich gerne an Robert Hoffmeister wenden: robert.hoffmeister@goodly-technologies.com

Fazit: Jetzt die Weichen für regelkonforme KI stellen

Der Experts Talk vom 27. November 2025 machte deutlich, dass der EU AI Act und der geplante Annex 22 keine abstrakten Zukunftsthemen sind, sondern bereits heute konkrete Auswirkungen auf den Arbeitsalltag in Pharmaunternehmen haben.

Unternehmen, die KI bereits einsetzen oder den Einsatz planen, sollten frühzeitig handeln:

  • KI-Use-Cases identifizieren
  • Risiken bewerten
  • Verantwortlichkeiten klären
  • Prozesse definieren
  • Mitarbeitende schulen

Eine strukturierte Vorbereitung ermöglicht es, regulatorische Anforderungen nicht als Bremse, sondern als Fundament für einen sicheren, effizienten und nachhaltigen KI-Einsatz zu nutzen.

Wie das Experts Institut Sie unterstützen kann

Das Experts Institut begleitet Pharmaunternehmen bei der Einordnung regulatorischer Anforderungen, der praxisnahen Umsetzung von KI-Governance sowie bei Schulungen und Workshops rund um EU AI Act, Annex 22 und KI im GMP-Umfeld. Get ahead and in touch with us: info@expertsinstitut.de

Darüber hinaus wird die Experts-Talk-Reihe fortgesetzt. Der nächste Experts Talk findet am 22. Januar um 10:30 Uhr zum Thema „Pharmatauglicher Einsatz von generativer KI“ statt. Zur Anmeldung:
https://academy.experts-institut.de/ExpertsTalkmitChristophKthRobertSpariPharmatauglicherEinsatzvongenerativerKI

Weitere Beiträge finden Sie in unserem Newsroom:
https://experts-institut.de/newsroom/

Und folgen Sie uns gerne auf LinkedIn, um keine weiteren Experts Talks zu verpassen:
https://de.linkedin.com/company/expertsinstitut

1 Monat /von Christoph Köth
https://experts-institut.de/wp-content/uploads/2026/01/LinkedIn.jpg 1080 1920 Christoph Köth https://experts-institut.de/wp-content/uploads/2023/02/GEMI_Logo_Slogan_color_RGB.webp Christoph Köth2026-01-12 17:59:082026-01-21 13:15:41KI in der Pharmaindustrie: Annex 22 & EU AI Act – Aktuelle Pflichten und praxisnahe Umsetzung
Kürzlich
  • AI
    Pharmatauglicher Einsatz von generativer KI: Regularien,...2 Wochen 
  • CSRD
    CSRD im Omnibus-Verfahren: Grundlagen, Begriffe und was...4 Wochen 
  • EU AI Act
    KI in der Pharmaindustrie: Annex 22 & EU AI Act –...1 Monat 
  • GMP
    Die wichtigsten GMP-Erkenntnisse 2025 und Prognosen für...15. Dezember 2025 - 15:52
Beliebt
  • Audits
    GxP-Audits: Wie wichtig sind sie und wie werden sie dur...28. Oktober 2024 - 12:20
  • Deviation Management
    Enhancing Process Stability through Effective Deviation...27. März 2025 - 11:07
  • Supplier-Audit Reports
    Untrue Supplier-Audit-Reports: The Danger of Ethnocentric...9. Januar 2025 - 11:29
  • Qualitätssicherungsvereinbarungen
    Einblicke in unsere Projekterfahrungen: Qualitätssicherungsvereinbarungen...4. Dezember 2024 - 8:59

Schlagwörter

AI Annex Annex 11 Annex 22 Apotheke Artificial Intelligence Audit Business Continuity Management Cannabis Computergestützte Systeme Continuous Manufacturing CRA Cultures Data Integrity DORA Draft EU AI Act GMP GXP Informationssicherheit inspections Inspektionen ISMS ISO-Norm ISO/IEC 42001 ISO 9001 ISO 27001 Keimzahl Keimzahl-Monitoring KI Krankenkasse Labor Machine Learning Nachhaltigkeit NIS-2 NIS2 QMS Qualitätsmanagementsystem Reagenzien Regularien Reinraum Retaxation Transformation Zertifizierung Zytostatika

Kategorien

  • Business Solutions
  • GMP
  • GXP
  • KI
  • News
  • Retaxierung
  • Sustainability
  • Unkategorisiert

Archiv

  • Februar 2026 (1)
  • Januar 2026 (2)
  • Dezember 2025 (1)
  • November 2025 (1)
  • Oktober 2025 (1)
  • September 2025 (1)
  • Juli 2025 (2)
  • März 2025 (1)
  • Januar 2025 (1)
  • Dezember 2024 (1)
  • November 2024 (1)
  • Oktober 2024 (3)
  • September 2024 (2)
  • August 2024 (2)
  • Juli 2024 (1)
  • Mai 2024 (1)
  • April 2024 (2)
  • März 2024 (2)
  • Februar 2023 (10)
Logo Experts Institut

Webpräsenz der Allianz für Cyber- Sicherheit
kununu widget

Business Solutions

  • Digitalisierung
  • Sustainability
  • Managementsysteme
  • Projektmanagement
  • Strategie & Performance
  • Transformation & Leadership

GMP / GXP Beratung

  • GMP Beratung
  • GMP Audits & Inspektionen
  • GMP-/GDP-Schulungen
  • GMP-/Pharmaengineering
  • Continuous Manufacturing

EI Academy

  • GMP / GxP
  • Academy
  • Live-Events
  • On-Demand Webinar

Neustadt

Experts Institut Beratungs GmbH
Weinstraße 85

D-67434 Neustadt a. d. Weinstraße

Tel.: +49 (0)6321 969210
E-Mail: info@expertsinstitut.de

Fax: +49 (0)6321 9692199

Bamberg

Experts Institut Beratungs GmbH
Untere Sandstraße 53

D-96047 Bamberg

Tel.: +49 (0)951 51939330
E-Mail: info@expertsinstitut.de

St. Gilgen (Österreich)

Experts Institut Beratungs GmbH
Helenenstraße 16

A-5340 St. Gilgen, Österreich

Tel.: +43 (0)6227 21068
E-Mail: info@expertsinstitut.de

  • Link to LinkedIn
  • Link to Xing

© 2024 Experts Institut Beratungs GmbH
  • Impressum
  • Datenschutz
  • AGBs
  • Cookie-Richtlinie (EU)
Nach oben scrollen Nach oben scrollen Nach oben scrollen