Abstract

Essenzielle Voraussetzung für die erfolgreiche Durchführung von Stabilitätsstudien mit Betäubungsmitteln (BtM) ist, dass neben den Anforderungen von GMP und ICH auch die des Betäubungsmittelgesetzes vollumfänglich umgesetzt werden. Ein reibungsloser Projektablauf lässt sich mit einer klaren Strategie unter Einbezug eines Dienstleisters erreichen, der die erforderliche Kapazität für die BtM-Aufbewahrung, die Erlaubnis zum Umgang mit verschiedenen BtM-Stoffen und die entsprechende Expertise aufweist. Für den Sponsor resultieren daraus eine Einsparung enormer Investitionskosten, die Entlastung seines BtM-Verantwortlichen sowie eine deutliche Reduktion von BtM-Verkehr und Dokumentationsaufwand.

Einleitung

Stabilitätsprüfungen sowie generell analytische Prüfungen von Betäubungsmitteln (BtM) nehmen insofern eine Sonderstellung ein, da zusätzlich zu den GMP- und ICH-Anforderungen auch das Betäubungsmittelgesetz vollumfänglich beachtet werden muss. Beginnend mit der Erlaubnis zum Umgang mit BtM betrifft dies alle nachfolgenden Schritte im Prozessablauf von der Analytik über die Aufbewahrung bis hin zur Vernichtung der BtM-Muster. Beim Outsourcing von BtM-Projekten teilen sich die Aufgaben und auch die Verantwortlichkeiten zwischen Auftraggeber und Auftragnehmer auf. Abhängig vom Umfang des Outsourcings, d. h. Durchführung der Analytik mit oder ohne Einlagerung von Stabilitätsmustern, unterscheiden sich die an den Dienstleister zu stellenden Anforderungen v. a. in Bezug auf seine BtM-Erlaubnis für Stoffart und -menge sowie die baulichen/ sicherheitstechnischen Voraussetzungen für die Einlagerung von Mustern. Auf Sponsor-Seite lassen sich durch das Outsourcing von BtM-Stabilitätsprüfungen Investitionskosten für die Schaffung von Einlagerungskapazitäten vermeiden und zusätzlich wird sein BtM-Verantwortlicher erheblich entlastet. Sofern die Strategie gefahren wird, neben der Analytik auch die Klimaeinlagerung an den Outsourcing-Partner zu vergeben, reduzieren sich außerdem Ausmaß des BtM-Verkehrs und Dokumentationsaufwand beträchtlich. Für einen reibungslosen Projektverlauf ist die Wahl des geeigneten Outsourcing- Partners genauso wichtig wie ein Zeitmanagement, das entsprechende Zeitfenster z. B. für die Beantragung von Genehmigungen berücksichtigt.

Betäubungsmittel

Im ursprünglichen Sinn wurden als BtM diejenigen Stoffe bezeichnet, die zur Betäubung starker Schmerzen angewandt wurden. Beispielhaft werden hier Opium, Morphin und Kokain genannt. Heute ist im Betäubungsmittelgesetz (BtMG, [1]) eine klare Definition gegeben: Unter Betäubungsmitteln werden alle diejenigen Stoffe und Zubereitungen verstanden, die in Anlage I–III zu §1 Abs. 1 BtMG aufgelistet sind. Diese 3 Anlagen werden bei Bedarf aktualisiert. Sie teilen Betäubungsmittel in 3 grundsätzliche Gruppen ein. Unterschieden wird zwischen

  • nicht verkehrsfähigen BtM (Anlage I),
  • verkehrsfähigen aber nicht verschreibungsfähigen BtM (Anlage II) sowie
  • verkehrsfähigen und verschreibungsfähigen BtM (Anlage III)

Anforderungen vor der Stabilitätsprüfung

Rechtliche Anforderungen zum Umgang mit BtM

Insbesondere zur Vermeidung einer missbräuchlichen Verwendung sowie einer potenziellen Suchtentstehung, ist der Umgang mit BtM gesetzlich festgelegt und im BtMG sowie den dazu erlassenen Verordnungen sehr streng geregelt. So ist als grundlegende Voraussetzung eine Erlaubnis zum Umgang mit BtM erforderlich für das:

  • Anbauen,
  • Herstellen,
  • Handeln,
  • Einführen,
  • Ausführen,
  • Abgeben,
  • Veräußern,
  • Inverkehrbringen,
  • Erwerben.

Die Erlaubnis zum Umgang mit BtM muss beantragt werden und wird bei Erfüllung aller Voraussetzungen von der Bundesopiumstelle für eine Betriebsstätte und den benötigten Umfang erteilt. In dieser Erlaubnis wird auch der BtM-Verantwortliche des Unternehmens/der Einrichtung genannt, dessen Eignung durch ein Führungszeugnis und die entsprechende berufliche Qualifikation/Expertise zuvor belegt wurde. Die Funktion als BtM-Verantwortlicher ist alles andere als ein Ehrenamt: Als öffentlich-rechtlicher Garantenträger hat der BtM-Verantwortliche für den ordnungsgemäßen Umgang mit BtM Sorge zu tragen und kann bei einem Verstoß auch persönlich haftbar gemacht werden. Die Benennung eines BtM-Verantwortlichen ist zwingende Voraussetzung für den Erhalt einer Erlaubnis zum Umgang mit BtM und damit für die Teilnahme am BtM-Verkehr.

Lagerung und Aufbewahrung von BtM

Vor allem bei Stabilitätsprüfungen aber auch bei der Durchführung analytischer Qualitätskontrollen ist eine Lagerung bzw. kurzzeitige Aufbewahrung von BtM-Mustern erforderlich. Für die kurz- und langfristige Aufbewahrung von BtM sind explizite gesetzliche Vorgaben einzuhalten. Entsprechende Regelungen finden sich im BtMG sowie in Richtlinien der Bundesopiumstelle. Gemäß § 15 BtMG sind „BtM gesondert aufzubewahren und gegen unbefugte Entnahme zu sichern“. Grundsätzlich ist eine Aufbewahrung in Schränken oder in Räumen möglich, wobei die baulichen Anforderungen (z.B. Widerstandsgrad, Wanddicke) explizit in den Richtlinien vorgegeben sind. Abhängig von der Art der BtM sowie der aufzubewahrenden Menge ist eine elektrische Überwachung von Schränken (allseitig feldmäßig durch kapazitive Feldänderungsanlage) bzw. Räumen (durch Einbruchmeldeanlage mittels Körperschallprinzip) mit Alarmweiterschaltung zur Polizei erforderlich. Die sicherheitstechnischen Anforderungen sind in Abb. 1 zusammengefasst. Zur Ermittlung der Sicherungsmaßnahmen empfiehlt es sich, den Sicherungsrechner der Bundesopiumstelle auf der entsprechenden Webseite [2] zu nutzen und die Sicherungsmaßnahmen bereits in der Projektierungsphase mit der Bundesopiumstelle abzustimmen.

Vom Sender zum Empfänger – BtM auf dem Weg

Grundsätzlich ist zu unterscheiden, ob BtM lediglich innerhalb von Deutschland transportiert werden oder ob es sich um einen grenzüberschreitenden Transport handelt. Der grenzüberschreitende Transport ist geregelt in der Betäubungsmittel-Außenhandelsverordnung und ist deutlich aufwendiger zu organisieren als der innerdeutsche Transportweg. Beim Außenhandel ist der Ablauf für die Einfuhr des BtM durch den Empfänger und auch die Ausfuhr durch den Sender explizit geregelt [3]. Die einzuhaltenden Wege sind schematisch in Abb. 2 beschrieben. Für jede Einfuhr- und für jede Ausfuhrsendung muss eine Genehmigung bei der Bundesopiumstelle beantragt werden. Hierzu ist ein amtliches Formblatt zu verwenden, das gewissenhaft ausgefüllt werden muss. Der Prozess des Außenhandels mit BtM erfolgt mit den Hauptakteuren:

  • inländische Behörde
  • ausländische Behörde
  • Einführer
  • Ausführer
  • ggf. Zoll in beiden betroffenen Ländern (entfällt bei EU-Warenverkehr)

Zunächst stellt der Einführer bei seiner inländischen Behörde (in Deutschland ist das die Bundesopiumstelle) einen Einfuhrantrag (siehe 1 in Abb. 2). Wird dieser genehmigt, so erhält er zwei Ausfertigungen einer Einfuhrgenehmigung, eine dritte Ausfertigung erhält die Behörde des Ausfuhrlandes (2). Der Einführer gibt eine Ausfuhrgenehmigung an den Ausführer weiter (3), der hiermit einen Ausfuhrantrag bei seiner Behörde stellen kann (4). Wird dieser genehmigt, so erhält der Ausführer zwei Ausfertigungen der Ausfuhrgenehmigung, eine dritte Ausfuhrgenehmigung erhält die Berhörde des Einfuhrlandes direkt von der ausländischen Behörde (5). Die Ausfuhrgenehmigungen werden bei Beteiligung des Zolls für die Ausfuhr an der Grenze benötigt (7). Ein Exemplar wird hier vom Zoll mit einem Vermerk versehen und muss vom Ausführer zusammen mit der Ausfuhranzeige an seine zuständige Berhörde versandt werden (11). Das beim Einführer bis dato noch verbliebene Exemplar der Einfuhrerlaubnis benötigt der Zoll des Einfuhrlandes für die Bearbeitung. Diese Einfuhrgenehmigung wird vom Zoll mit einem Vermerk versehen (8) und muss anschließend vom Einführer zusammen mit einer Einfuhranzeige an seine zuständige Behörde versandt werden (10). Durch den beschriebenen Prozess ist sichergestellt, dass alle am BtM-Verkehr beteiligten Akteure denselben Informationsstand haben und jederzeit nachvollziehbar ist, wo sich die BtM gerade befinden. Auch der Binnenhandel ist klar geregelt [4]. Hier ist ebenso einem vorgeschriebenen Ablaufplan zu folgen, der in Abb. 3 beschrieben ist. Es sind nur drei Akteure beteilig

  • die Behörde,
  • der Abgebende sowie
  • der Erwerber.

Zentrales Dokument beim Binnenhandel ist der Abgabebeleg bestehend aus Abgabemeldung, Empfangsbestätigung, Lieferschein und Lieferscheindoppel. Der Abgebende füllt diesen Formularsatz aus und gibt zusammen mit den BtM eine Empfangsbestätigung sowie einen Lieferschein an den Erwerber ab (siehe 1 in Abb. 3). Die Bundesopiumstelle erhält parallel dazu eine Abgabemeldung von ihm (2). Der Erwerber bestätigt dann den Erhalt der BtM, indem er die Empfangsbestätigung an den Abgebenden zurückgibt (3). Falls Abweichungen zwischen Dokumentation und tatsächlicher Lieferung festgestellt werden, so müssen diese vom Erwerber auf dem Lieferschein sowie der Empfangsbestätigung vermerkt und vom Abgebenden auf dem Lieferscheindoppel notiert werden. Durch Zusendung des Lieferscheindoppels durch den Abgebenden wird die Bundesopiumstelle über die Korrektur informiert (4). Mit diesem Prozedere wird wiederum sichergestellt, dass jederzeit nachvollzogen werden kann, wo sich die BtM zum aktuellen Zeitpunkt befinden.

Anforderungen während der Stabilitätsprüfung

Gemäß §17 BtMG sind Aufzeichnungen zum aktuellen Bestand der BtM zwingend vorgeschrieben. Unverzüglich nach jeder Änderung muss der aktuelle Bestand an BtM, für jeden Zu- bzw. Abgang, getrennt für jedes BtM sowie jede Betriebsstätte, dokumentiert werden. Diese Dokumentation muss gesondert für 3 Jahre aufbewahrt werden und ist ggf. inspektionsrelevant. Darüber hinaus sind halbjährlich für jede Betriebsstätte, getrennt für jedes BtM, unaufgefordert Bestandsmeldungen gemäß § 18 BtMG an die Bundesopiumstelle zu machen.

Anforderungen nach der Stabilitätsprüfung

Die nach Abschluss der Stabilitätsprüfung nicht mehr verwendbaren BtM-Muster müssen gemäß den Vorschriften von § 16 BtMG entsprechend vernichtet werden. Welche Methode hierfür eingesetzt werden kann, ist nicht vorgeschrieben, wohl aber, dass die Vernichtung so zu erfolgen hat, dass eine Rückgewinnung – auch teilweise – unmöglich ist. Die dokumentierte Vernichtung erfolgt im 6-Augen-Prinzip, sodass neben dem Durchführenden auch zwei Zeugen anwesend sind. Der Schutz von Mensch und Umwelt ist dabei selbstverständlich zu beachten. Für das Vernichtungsprotokoll besteht eine Aufbewahrungspflicht von drei Jahren.

Voraussetzungen für das Outsourcing

Um Stabilitätsprüfungen von Betäubungsmitteln an einen Dienstleister auslagern zu können, sind gegenüber dem Outsourcing von Nicht-BtM-Prüfungen einige zusätzliche Anforderungen zu erfüllen. Grundlegende Voraussetzung ist die Erlaubnis zum Umgang mit BtM, die beim Dienstleister für die entsprechenden BtM und für den entsprechenden Umfang vorliegen muss. In der Planungsphase ist bereits die Entscheidung zu treffen, ob beim Outsourcing-Partner im Rahmen der Stabilitätsprüfung lediglich die Analytik zu den entsprechend vorgegebenen Zeitpunkten erfolgen oder ob bei diesem auch gleichzeitig die Einlagerung der Muster beauftragt werden soll. Werden die Stabilitätsmuster beim Dienstleister eingelagert, so wirkt sich dies massiv auf dessen BtM-Bestand aus. Die Aufbewahrung größerer BtM-Mengen erfordert hohe Sicherheitsmaßnahmen, deren Aufbau mit erheblichen Investitionen verbunden ist und auch einige Bauzeit in Anspruch nimmt. Werden alle sicherheitstechnischen und baulichen Anforderungen erfüllt, kann der Dienstleister eine an Art und Menge der BtM angepasste Erlaubnis beantragen. Ein entsprechendes Zeitfenster als Vorlauf vor Beginn der Stabilitätsstudie sollte hierfür eingeplant werden. Während es zwar einige Dienstleister gibt die BtM analytisch prüfen können, gibt es nur wenige, die auch die Stabilitätseinlagerung übernehmen und damit sowohl die Bereitschaft besitzen, in die erforderliche Infrastruktur zu investieren als auch eine deutlich größere Verantwortung im BtM-Verkehr zu übernehmen.

Starke Kombination aus Kapazität und Flexibilität – ein Praxisbeispiel

Um als Dienstleister Stabilitätsprojekte mit BtM zuverlässig und routiniert durchführen zu können, sind Flexibilität und Kapazität unerlässlich. Flexibilität bezieht sich hier auf die einzelnen BtM-Stoffe, für die eine Umgangserlaubnis vorliegt bzw. beantragt werden kann. Kapazität betrifft in erster Linie den für die Einlagerung zur Verfügung stehenden Platz. Die einfachste und damit auch kostenintensivste Variante ist es, einen Wertschutzraum zur Verfügung zu stellen, in dem die entsprechenden Klimaschränke oder Klimaräume untergebracht sind. Dieser Wertschutzraum muss den aktuellen baulichen und sicherheitstechnischen Anforderungen der Bundesopiumstelle entsprechen. Hier empfehlen sich dringend die Benutzung des Sicherungsrechners sowie die Abstimmung mit der Bundesopiumstelle bereits in der Projektierungsphase. Für diesen Weg hat sich HHAC Labor Dr. Heusler entschieden und einen solchen Wertschutzraum errichtet. Einen Einblick in den Wertschutzraum gibt Abb. 4. Dieser Wertschutzraum bietet hinreichend Platz, um mehrere Klimaschränke mit den entsprechend geforderten Temperatur-/Feuchte-Bedingungen unterzubringen. Alle Klimaschränke sind an ein qualifiziertes Messwerterfassungssystem mit periodischer Speicherung der Messwerte angeschlossen. Ebenso ist eine kurzzeitige Aufbewahrung von Betäubungsmitteln in diesem Wertschutzraum bei Raumtemperatur möglich. Diese erfolgt in einem separaten dafür vorgesehenen Tresor. Vor unbefugtem Zutritt wird der Raum mithilfe von Körperschallmeldern überwacht, die bei Auslösung eine direkte Alarmierung der Polizei veranlassen, die dann innerhalb weniger Minuten vor Ort ist. Die Zutrittsberechtigung ist nur wenigen autorisierten Personen gestattet, die dazu im Besitz mehrerer Kennwörter sowie eines Chip-Schlüssels sind. Der Wertschutzraum erfüllt die höchsten beschriebenen baulichen und sicherheitstechnischen Anforderungen. Von daher können sowohl unterschiedliche BtM-Stoffe als auch größere Mengen hierin aufbewahrt werden. Abgestimmt an das vom Kunden beauftragte Stabilitätsprojekt ist ggf. eine Anpassung der BtM-Erlaubnis erforderlich, die aber zeitnah erfolgt, da alle baulichen und sicherheitstechnischen Anforderungen vollumfänglich erfüllt sind und der höchsten Sicherungsstufe entsprechen.

Vorteile des Outsourcings für den Sponsor

Die Übertragung von Aufgaben an einen Dienstleister schafft neue Kapazitäten, die genutzt werden, um sich auf seine Kernkompetenzen konzentrieren zu können. Dies hat somit positive Auswirkung auf die eigene Wettbewerbsfähigkeit [5]. Ein großer Vorteil des Outsourcings für den Sponsor ist, dass damit nicht nur eine Übernahme von Aufgaben durch den entsprechenden Dienstleister erfolgt, sondern damit auch eine Übernahme von Verantwortung verbunden ist. Gerade beim Umgang mit BtM ist dies eine nicht zu unterschätzende Erleichterung für den BtM-Verantwortlichen beim Auftraggeber. Verantwortlich für die Bereitstellung der notwendigen Kapazität ist der Dienstleister, der dafür Sorge tragen muss, dass er neben den GMP-Anforderungen die gesetzlich festgelegten Forderungen des BtMG vollumfänglich erfüllt. Wenn neben der analytischen Prüfung der Stabilitätsmuster auch die Einlagerung beim Dienstleister erfolgt, entfällt das wiederholte Abgabe-/Erwerb- bzw. Ausfuhr-/Einfuhr-Prozedere vom Sponsor zum Dienstleister. Sämtliche Dokumentationen während der Stabilitätsprüfung werden vom Dienstleister übernommen und dieser ist auch für die unaufgefordert abzugebenden Meldungen an die Bundesopiumstelle verantwortlich. Nach Abschluss der Stabilitätsprüfung werden die verbliebenen Muster nach dem festgelegten und dokumentierten Ablauf vom Dienstleister vernichtet. Viele Aufgaben, die beim Umgang mit BtM zu erledigen sind, werden im Rahmen des Outsourcings vom BtM-Verantwortlichen des Dienstleisters übernommen und dieser trägt auch Sorge für den gesetzeskonformen Projektablauf im eigenen Unternehmen. Der Betäubungsmittelverantwortliche des Sponsor-Unternehmens wird dadurch ganz erheblich entlastet, was sich auch vereinfachend auf das firmeninterne Risikomanagement auswirkt [6]. Eine Zusammenfassung der Vorteile zeigt Abb. 5.

Fazit

Bei Stabilitätsprüfungen von BtM sind zusätzlich zu den Vorgaben von ICH und GMP auch die gesetzlichen Vorgaben des Betäubungsmittelgesetzes sowie die der dazu erlassenen Verordnungen zu erfüllen. Insbesondere zur Erfüllung der rechtlichen Anforderungen sind erhebliche Investitionen erforderlich, die umso größer sind, je mehr Flexibilität und Kapazität verfügbar sein muss. Durch das Outsourcing von BtM-Stabilitätsprüfungen werden diese Investitionskosten beim Sponsor vermieden und sein BtM-Verantwortlicher wird ganz erheblich entlastet. Sofern die Strategie gefahren wird, neben der Analytik auch die Klimaeinlagerung an den Outsourcing-Partner zu vergeben, reduzieren sich Ausmaß des BtM-Verkehrs und Dokumentationsaufwand nochmals erheblich. Um einen reibungslosen Projektverlauf zu gewährleisten, sind drei Fragestellungen zu klären:

  1. Erfolgt lediglich die Analytik oder zusätzlich auch die Einlagerung der BtM beim Dienstleister?
  2. Welcher Dienstleister ist geeignet (Kapazität, Flexibilität)?
  3. Welche Zeitfenster (für bauliche Maßnahmen, Erlaubnisanträge) müssen eingeplant werden?

Literatur

[1] Gesetz über den Verkehr mit Betäubungsmitteln (BtMG) Fassung vom 16.06.2017.
[2] www.bfarm.de/DE/Bundesopiumstelle/_node.html
[3] Betäubungsmittel-Außenhandelsverordnung (BtMAHV) Fassung vom 06.03.2017.
[4] Betäubungsmittel-Binnenhandelsverordnung (BtMBinHV) Fassung vom 17.08.2011.
[5] Eichhorn J. Outsourcing von Analytik in der Pharmaindustrie. Pharm. Ind. 2015;77(5):734-738
[6] Krebsbach et al. Risiko- und Chancenmanagement im Labor. Pharm. Ind. 2017;79(6):870-875.

Abbildung 1

Abbildung 2

Abbildung 3

Abbildung 4

Abbildung 5

 

Die in der pharmazeutischen Analytik erhaltenen Ergebnisse bilden die Grundlage für Entscheidungen, die oft weitreichende Folgen für die Patientensicherheit haben. Voraussetzung für eine optimale Patienten- und Arzneimittelsicherheit ist dabei die Anwendung validierter Prüfmethoden.

Ziel der analytischen Methodenvalidierung ist der Nachweis der Eignung eines Prüfverfahrens für die beabsichtigte Verwendung. Die bei Untersuchungen zur Anwendung kommenden Analysenverfahren müssen validiert werden, um sicherzustellen, dass die ermittelten Ergebnisse korrekt und präzise sind. Die Validierung ist dabei in dem Umfang durchzuführen, der zur Erfüllung der Erfordernisse der beabsichtigten Anwendung und der Vorgaben der ICH-Richtlinie Q2 (R1) notwendig ist. Der Bereich und die Genauigkeit der mit diesen Verfahren erreichbaren Werte (z. B. Nachweisgrenze) müssen diesen Anforderungen entsprechen.

Die Validierung besteht aus drei Schritten:

1. Erstellen eines Validierungsplans

Der Validierungsplan sollte folgende Punkte beinhalten

  • Auflistung und Beschreibung der zu validierenden analytischen Kenngrößen mit Angaben über die Anzahl der Aufarbeitungen und deren Konzentrationsniveaus
  • Beschreibung des einzusetzenden Proben- und Placebomaterials und Festlegung der Spezifikationen des Referenzmaterials
  • Beschreibung des Verfahrens zur Probenaufarbeitung bzw. Verweis auf Prüfmethode
  • Beschreibung der Messmethode bzw. Verweis auf Prüfmethode
  • Festlegung der Akzeptanzkriterien
  • Änderungshistorie

2. Durchführung der Validierung

Im Vorfeld einer Validierung kann es ratsam sein, eine sogenannte Präanalytik durchzuführen. So können mögliche Probleme frühzeitig erkannt und behoben werden. Ein Beispiel dafür ist die Ermittlung der Bestimmungsgrenze, da diese stets abhängig von dem verwendeten Gerät ist. Die Einhaltung bestimmter Vorgaben kann dabei die Verwendung der analytischen Geräte einschränken.

3. Erstellen des Validierungsberichts

Die Dokumentation erfolgt je nach Anforderung in Form eines Validierungsberichtes. Gibt es keine Kundenvorgaben, so sollte der Validierungsbericht die nachfolgenden Punkte beinhalten:

  • Verweis auf Validierungsplan über Validierungsnummer
  • Aufgabenstellung
  • Prüfgegenstand
  • Prüfverfahren bzw. Verweis auf Prüfverfahren
  • ggf. erfolgte Abweichungen zum Validierungsplan und daraus resultierende Maßnahmen
  • Datum oder Zeitintervall der Untersuchungen
  • Eingesetzte Geräte, Referenzmaterialien und Chemikalien
  • Beschreibung der durchgeführten Arbeiten (z. B. Einwaagen, Herstellen von Lösungen usw.)
  • Geräteparameter, bei beispielsweise chromatographischen Verfahren: chromatographische Bedingungen
  • Ergebnisse der Validierung
  • Bei chromatographischen Methoden: Beispielchromatogramme
  • Eine Zusammenfassung und Bewertung der Daten hinsichtlich der Übereinstimmung mit den Akzeptanzkriterien inkl. der Aussage, ob das analytische Verfahren valide ist
  • Genehmigung durch die verantwortliche Person
  • Historie

Validierungselemente

Je nach Zielsetzung sind folgende Kenngrößen zu validieren:

  • Spezifität/Selektivität
  • Richtigkeit und Wiederfindungsrate
  • Präzision
  • Linearität
  • Arbeitsbereich
  • Nachweisgrenze, Bestimmungsgrenze
  • Robustheit (inkl. Proben- und Standardstabilität)

Bei der Durchführung von Validierungen werden verschiedene Gruppen von Methoden unterschieden. Daraus resultiert die Auswahl der oben beschriebenen Kenngrößen, die für die Validierung angewendet werden. Häufige zu validierende Gruppen von Methoden sind im Folgenden aufgelistet:

  • Identitätstests
  • Prüfung auf Wirkstofffreisetzung (Dissolution)
  • Gehaltsbestimmungen: u. a. von Wirkstoffen oder anderen definierten Bestandteilen, z. B. Konservierungsmittel Quantitative Bestimmungen von Verunreinigungen und Grenzwertbestimmungen von Verunreinigungen

Begrifflichkeiten

1. Selektivität / Spezifität

Selektivität ist die Fähigkeit einer Methode, verschiedene, nebeneinander zu bestimmende Komponenten ohne gegenseitige Störung zu erfassen und sie somit eindeutig zu identifizieren. Spezifität ist die Fähigkeit einer Methode, eine Substanz oder eine Substanzklasse ohne Verfälschung durch andere in der Probe vorhandene Komponenten zu erfassen und sie somit eindeutig zu identifizieren.

2. Präzision

  • Messpräzision / Gerätepräzision: abhängig vom verwendeten Gerät, Maß für Schwankungen des Geräts.
  • Methodenpräzision: Dabei handelt es sich um die zufällige Streuung der Analysenergebnisse.
  • Wiederholpräzision: ein Labor, ein Gerät, ein Analytiker
  • Laborpräzision: ein Labor, mehrere Geräte, mehrere Analytiker, unterschiedliche Tage
  • Vergleichspräzision: mehrere Labore, mehrere Geräte, mehrere Analytiker

3. Linearität

Für quantitative Auswertungen ist die Verwendung geeigneter Kalibrier- und Analysenfunktionen Voraussetzung. Eine Methode ist in einem bestimmten Konzentrationsbereich linear, wenn das Messsignal direkt proportional zur Analytkonzentration in der Probe ist. Zur Überprüfung der Linearität werden üblicherweise fünf äquidistante Konzentrationsniveaus über den Arbeitsbereich überprüft (Aufdotieren von Placebo mit Wirkstoff).

4. Arbeitsbereich

Im Zusammenhang mit der Linearität wird oft der „Arbeitsbereich“ genannt. Dies ist der Bereich zwischen der niedrigsten und der höchsten Konzentration (Menge) des Analyten in der Probe, für den die geforderte Präzision und Genauigkeit bewiesen wurde.

5. Richtigkeit

Die Richtigkeit ist das Maß für die Abweichung vom richtigen Wert aufgrund eines systematischen Fehlers. Wird üblicherweise über die Wiederfindungsrate bestimmt.

6. Wiederfindung

Mit der Wiederfindung wird die Probenaufarbeitung (z. B. Extraktion) überprüft. In der Praxis werden Linearität, Richtigkeit und Wiederfindung, wenn es die Probe zulässt, oft in einem Arbeitsschritt geprüft. Eine mögliche Vorgehensweise ist dabei, fünf Konzentrationen über den Arbeitsbereich mit mindestens zwei (besser drei) Aufarbeitungen über den gesamten Arbeitsbereich. Dabei werden die Placebobestandteile mit Wirkstoff dotiert.

7. Nachweis- und Bestimmungsgrenze

Nachweis- und Bestimmungsgrenze sind üblicherweise bei Reinheitsbestimmungen durchzuführen. Die Nachweisgrenze ist die geringste Menge einer zu bestimmenden Substanz in einer Probe, die qualitativ noch erfasst werden kann. Im Gegensatz dazu ist die Bestimmungsgrenze die geringste Menge einer zu bestimmenden Substanz in einer Probe, die mit gegebener Präzision und Richtigkeit quantitativ bestimmt werden kann.

8. Robustheit

Als Robustheit wird die relative Unempfindlichkeit eines Analyseverfahrens gegenüber Änderungen der analytischen Rahmenbedingungen bezeichnet. Unterschieden werden dabei zum einen die Änderung der Probenaufarbeitung (z. B. Dauer der Extraktion, oder Verwendung unterschiedlicher Filter) und zum anderen die Änderung der gerätespezifischen Bedingungen (z. B. bei HPLC-Methoden:Temperatur des Säulenofens, Änderung des pH-Werts der mobilen Phase). In der Regel werden dabei mindestens die Standardlösung, eine Probelösung sowie eine Selektivitätslösung (enthält 100 % Placebo, 100% Wirkstoff sowie alle potentiellen Verunreinigungen am Grenzwert) überprüft.

Wie lässt sich die neue Akkreditierungs-Forderung der ISO 17025 in der Praxis umsetzen?

Die Beschäftigung mit Risiken und Chancen ist täglich gelebte Praxis in allen Unternehmen und fundamentale Voraussetzung, um am Markt zu bestehen. Während insbesondere größere Kapitalgesellschaften rechtlich längst zum kontinuierlichen Betreiben eines Risikomanagementsystems verpflichtet sind, betrifft die Forderung nach einem risikobasierten Ansatz nun auch alle Qualitätskontroll-/Prüflabore, die gemäß ISO 17025 akkreditiert sind und damit gleichzeitig die Anforderungen der ISO 9001 erfüllen müssen. Für kleinere Labore ist ein ausgefeiltes Risikomanagementsystem überdimensioniert und auch gar nicht erforderlich. Das Risikomanagement sollte hier den Blick auf das Wesentliche, die Konformität von Prüfergebnissen sowie die Kundenzufriedenheit, fokussieren und bringt damit einen echten Nutzen für das eigene Unternehmen.

Der Oberbegriff „Risikomanagementsystem“ bezieht sich auf mehr als nur auf die Konformität und Korrektheit von Ergebnissen, Verfahren und Methoden der durchgeführten Prüfungen und Analysen. Mit einem Risikomanagementsystem soll erreicht werden, dass Unternehmen vorbereitet in die Zukunft gehen, indem sie bestandsbedrohende Risiken rechtzeitig erkennen und darauf reagieren, Chancen nutzen können und so den erfolgreichen Fortbestand des Unternehmens sicherstellen. Insbesondere Aktiengesellschaften wird sofort klar sein, was sich hierunter verbirgt, sind sie doch rechtlich dazu verpflichtet, ein im Managementsystem verankertes Risikomanagement kontinuierlich zu betreiben und zu dokumentieren. Für kleinere Unternehmen, wie kleinen Eigentümer-geführten Firmen, hingegen ist ein ausgefeiltes Risikomanagementsystem ohne Frage überdimensioniert. Das Risikomanagementsystem sollte den Tätigkeiten und der Größe des Unternehmens angepasst sein. Mit der Forderung nach dem Management von Risiken und Chancen werden in Kürze alle Qualitätskontroll-/Prüflabore, die eine ISO 17025-Akkreditierung aufrechterhalten wollen, konfrontiert werden. Die neueste Version dieser ISO-Norm, deren In-Kraft-Treten noch in diesem Jahr erwartet wird, fordert explizit die Evaluierung und Bewertung von Risiken und Chancen sowie die Integration ins Managementsystem. Bislang gab es lediglich die Forderung nach „Vorbeugenden Maßnahmen“: „…Notwendige Verbesserungen und mögliche Fehlerquellen, entweder technischer Art oder bezüglich des Managementsystems, müssen ermittelt werden. Wenn Verbesserungsmöglichkeiten aufgezeigt werden oder wenn eine vorbeugende Maßnahme erforderlich ist, müssen Pläne für Maßnahmen entwickelt, umgesetzt und überwacht werden, um die Wahrscheinlichkeit für das Auftreten solcher Fehler zu verringern und Verbesserungsmöglichkeiten zu nutzen…“ [1]. Neu ist nun die Anforderung, dass das Labor „Maßnahmen plant und umsetzt, mit denen Risiken und Chancen behandelt werden … Das Laboratorium ist dafür verantwortlich zu entscheiden, welche Risiken und Chancen behandelt werden müssen…“ [2]. Die Forderung der ISO 17025 nach einem Risikomanagement war nach der Revision der ISO 9001:2015 zu erwarten, die die Beschäftigung mit Risiken und Chancen aufgegriffen hat. Für alle ISO 17025-akkreditierten Labore wird die Betrachtung von Chancen und Risiken nun verbindlich. Der Gedanke, sich mit Risiken und Chancen zu beschäftigen, ist dabei nicht neu. Bestehende gesetzliche Grundlagen fordern den Umgang mit Chancen und Risiken schon seit längerer Zeit, z. B. mit Neueinführung von § 91 Abs. 2 AktG (Aktiengesetz) im Rahmen des Gesetzes zur Kontrolle und Transparenz im Unternehmensbereich (KonTraG). Kapitalgesellschaften müssen ein Risikomanagementsystem installieren, nutzen, dokumentieren und eine Interne Revision einrichten. Zudem lässt sich die Forderung nach einem Risikomanagement auch aus den Sorgfaltspflichten eines GmbH-Geschäftsführers (§ 43 Abs. 1 GmbHG) ableiten. Vorschriften, wie genau das zu erfolgen hat, gibt es in beiden Gesetzestexten hingegen nicht. Ein Unternehmen hat damit einen großen Freiheitsgrad in der Umsetzung, kann bestehende hausinterne Strukturen dabei nutzen und die eigenen Bedürfnisse berücksichtigen. Alle Unternehmen -große wie kleine- betreiben bereits Tag für Tag ein aktives Risikomanagement. Die gelebte Praxis sieht so aus, dass Entscheidungen doch immer risikobasiert getroffen werden; eine wesentliche Grundlage, um am Markt erfolgreich zu sein. Das gilt für den operativen Bereich genauso wie für den strategischen. Der Umfang der Dokumentation dieser risikobasierten Entscheidungen unterscheidet sich zwischen großen und kleinen Unternehmen jedoch stark. Dieser Unterschied ist aufgrund der Tragweite von Entscheidungen -vor allem bei strategischen- und der personell zur Verfügung stehenden Kapazitäten auch durchaus gerechtfertigt. Unternehmen, die ein Risikomanagementsystem für sich angenommen und etabliert haben, werden ihre Risikobewertung nach intern festgelegten Regeln und den Grundsätzen eines ordentlichen Geschäftsführers ausführen.

Wie kann und sollte ein Labor, das nicht als Konzern/Aktiengesellschaft aufgestellt ist, mit der Forderung der ISO-Normen nach einem Risikomanagementsystem nun umgehen, d. h. wie kann die Umsetzung in der Praxis erfolgen und dabei auch noch einen echten Mehrwert für das eigene Unternehmen liefern?

Risiken und Chancen

Zunächst einmal muss definiert werden, was hier unter Risiken und Chancen verstanden werden soll:

Risiko
potentielles Eintreten eines Ereignisses, dass sich negativ auf das Erreichen der Unternehmensziele auswirkt Risiken sind in allen Systemen, Prozessen und Funktionen vorhanden, z. B. können einzelne Prozessschritte von den Vorgaben abweichen, es gibt Risiken beim Einkauf, bei der Lagerung, bei der Prüfung, bei der Beratung, … . Im Fokus steht dabei immer, was das Erreichen der Managementsystemziele Konformität und Kundenzufriedenheit gefährden kann. Das Schadensausmaß bei Eintritt kann dabei von einem geringen finanziellen Schaden bis hin zu weitreichenden unternehmensbedrohenden Konsequenzen reichen.

Für Chancen gelten dieselben Prinzipien, allerdings durchweg im positiven Sinn:

Chance
potentielles Eintreten eines Ereignisses, dass sich positiv auf das Erreichen der Unternehmensziele auswirkt Voraussetzung für die Erkennung und den Umgang mit Risiken ist eine risikobasierte Denkweise. Diese zeichnet sich durch zukunftsorientiertes und vorbeugendes Denken aus, hat potentielle Einflussfaktoren auf die Erreichung von Zielen sowie Eintrittswahrscheinlichkeiten und das Schadensausmaß im Blick, führt zur Entwicklung von Szenarien und auch dazu, dass das Eingehen von Risiken bewusst und in voller Absicht geschieht. Oberstes Ziel ist es, rechtzeitig einen potentiellen Einfluss zu erkennen, Chancen zu nutzen und Risiken zu steuern, immer mit Blick auf die Ziele des Managementsystems. Risikobasiertes Denken ist als kontinuierlicher Prozess und insbesondere als Bestandteil des kontinuierlichen Verbesserungsprozesses (KVP) zu verstehen.

Prinzipieller Aufbau eines Risikomanagementsystems

Die Betrachtung von strategischen, operativen, finanziellen und Marktumfeld-Risiken stellt den Mindestumfang des Risikomanagementsystems dar. Hierzu ist im Unternehmen die Erfassung der Risiken und der weitere Umgang damit zu organisieren. Der Umgang mit Risiken folgt dem PDCA-Zyklus mit den Bausteinen Plan, Do, Check und Act (s. Abb. 1). Ein erfolgreiches Risikomanagementsystem lebt davon, dass das Risikobewusstsein auf allen Unternehmensebenen vorhanden ist, d. h. alle Ebenen an einem Strang und in die gleiche Richtung ziehen. Ist diese Grundvoraussetzung geschaffen, kann mit der Identifizierung der Risiken begonnen werden. Die ermittelten Risiken werden nun einer Bewertung unterzogen, ein Steuerungsmechanismus sowie die zukünftige Kontrolle werden festgelegt. Von den verschiedenen Möglichkeiten, ein Risikomanagement zu betreiben und dies in die Unternehmensstrategie einzugliedern, wird hier beispielhaft die SWOT-Analyse ausgewählt, die aus den 3 Schritten besteht:

1. Stärken und Schwächen des Unternehmens mit Hilfe einer Unternehmensanalyse bestimmen
2. Chancen und Risiken aus der Umwelt-/Markt- und Mitbewerberanalyse ableiten [3] 3. Zusammenfassende Betrachtung der Stärken, Schwächen, Chancen und Risiken [4]

Im ersten Schritt werden die aktuellen und zukünftigen Stärken und Schwächen des Unternehmens ermittelt [5]. Damit sind z.B. kritische Erfolgsfaktoren oder die Position im Wettbewerbs-Vergleich gemeint. Zu betrachten sind [6]:

  • Unternehmensstrategie
  • Ad hoc-Auflistung wesentlicher vergangener Erfolge und Misserfolge
  • Analyse der zentralen Ursachen für die wesentlichen Erfolge und Misserfolge
  • Ad hoc-Auflistung der möglichen Schlüsselfaktoren für die künftige Entwicklung des Unternehmens, Prüfung auf Plausibilität, Bewertung der Schlüsselfaktoren für die Unternehmensentwicklung
  • Ad hoc-Auflistung der Stärken und Schwächen für die Existenzsicherung des Unternehmens, die sich aus den Schlüsselfaktoren der künftigen Entwicklung ergeben können
  • Bewertung der Stärken und Schwächen in Bezug auf die bedeutenden Wettbewerber

Im zweiten Schritt werden die Risiken und Chancen ermittelt. Dies soll vollständig, systematisch sowie kontinuierlich geschehen und setzt fundierte Kenntnis über das gesamte Unternehmen voraus. Hierzu eignet sich die PESTEL-Analyse [4, 7], bei der das politische, ökonomische, gesellschaftliche, technologische, ökologische und gesetzliche Umfeld betrachtet wird (s. Abb. 2). Das Ziel ist hier die Einschätzung der Attraktivität des Marktes, der Entwicklung des Marktes sowie der zukünftigen Einflussgrößen. Zusätzlich sollte auch das Wettbewerbsumfeld, d. h. Branche und Mitbewerber, betrachtet werden. Hinzu kommen dann noch die operativen Risiken des eigenen Unternehmens. Im Anschluss an die Identifizierung der Risiken folgt deren Bewertung anhand der beiden Parameter „Eintrittswahrscheinlichkeit“ und „Schadensausmaß“. Beide Parameter könnten mathematisch ausgedrückt werden, in der Praxis reicht aber eine qualitative Beschreibung in „fast sicher“ … “unwahrscheinlich“ (Eintrittswahrscheinlichkeit) bzw. „unbedeutend“ … “existenziell“ (Schadensausmaß) völlig aus. Werden alle Risiken anhand der beiden Parameter „Eintrittswahrscheinlichkeit“ und „Schadensausmaß“ geordnet, entsteht das Risiko-Portfolio (Abb. 3.). Auf einen Blick sind Bedrohungspotentiale hier sofort zu erkennen. Da die Risiken und deren Tragweiten nun bestimmt sind, erfolgt im nächsten Schritt die Steuerung der Risiken mit den zur Verfügung stehenden Maßnahmen (Abb. 4). Die Auswahl einer geeigneten Steuerungsmaßnahme hängt von der Positionierung des Risikos in der Matrix (Abb. 5) ab.

Im dritten Schritt werden nun die Stärken, Schwächen, Chancen und Risiken zusammenfassend betrachtet und in einer SWOT-Matrix angeordnet [4, 5, 7]. Hieraus entwickelt dann das Unternehmen die geeignete strategische Option.

Ein gelebtes Risikomanagement zeichnet sich durch eine kontinuierliche Kontrolle und Steuerung und damit einem Verbesserungsprozess aus. Hier ist es zunächst einmal wichtig festzulegen, wer welche Verantwortung im Prozessverlauf übernimmt. Um die Kontrolle dann möglichst einfach und präzise zu gestalten, werden Frühwarnindikatoren inklusive deren Soll- und Grenzwerten definiert. Im Fall von Überschreitungen muss dann mit Steuerungsmaßnahmen umgehend reagiert werden (Abb. 6).

Konsequenzen für das Qualitätskontroll-/Prüflabor

Die Etablierung eines komplexen, umfassenden Risikomanagementsystems ist für kleinere Labore überdimensioniert, nicht gefordert und auch gar nicht nötig [9, 10]. Es ist allerdings hilfreich, die einzelnen Stufen des oben beschriebenen Prozesses einmal zu verstehen, um die Einordnung in die Unternehmensstrategie realisieren zu können und um einschätzen zu können, auf welche Positionen im Prozess fundiert verzichtet werden kann. Anschließend reicht dann eine vereinfachte Umsetzung des Risikomanagementsystems völlig aus. Forderungen aus der ISO-Norm nach konkret anzuwendenden Methoden für den Risikoermittlungs- und Bewertungsprozess sind genauso wenig vorhanden wie die Vorgabe eines formalen Systems. Weiterhin gibt es keine Forderung, sich um alle Risiken sofort zu kümmern. Risiken sollten auch nicht grundsätzlich vermieden werden, weil damit schlussendlich auch Chancen ungenutzt bleiben könnten. Vielmehr stellt die Beschäftigung mit Risiken und Chancen eine separate Komponente des Managementsystems dar und ist nicht mehr eingebettet in die bislang bekannte Forderung nach vorbeugenden Maßnahmen. Die Verantwortung für das Risikomanagementsystem liegt beim Top-Management. Das systematische Managen von Risiken und Chancen muss in allen beteiligten Köpfen verankert sein, so dass Auswirkungen betrachtet werden in Bezug auf die Fähigkeit der Organisation, fortlaufend konforme (in Bezug auf Kunden, Gesetze, Behörden) Dienstleistungen zu erbringen. Das Unternehmen bestimmt die Risiken/Chancen selbst. Umwelt-Risiken (siehe oben PESTEL-Analyse) können hier außen vor bleiben, die Konzentration auf strategische und operative Risiken reicht zunächst einmal völlig aus.

Starthilfe für die Praxis

Wie bei jedem Projekt ist die eigene Grundhaltung entscheidend. Nur wer selbst voll und ganz hinter einem Projekt steht und dafür brennt, kann andere dafür begeistern. Zuerst gilt es daher, sich selbst die Sinnhaftigkeit des Umgangs mit Risiken und Chancen bewusst zu machen, ein Risikobewusstsein zu entwickeln. Daran schließt sich die Zusammenstellung einer Arbeitsgruppe, der RICH-Gruppe (RIsiken/CHancen) an, in der alle Bereiche des Unternehmens vertreten sind, z.B. Qualitätsmanagement, operativer Leistungsbereich, Einkauf, Buchhaltung, Personal, Marketing, Geschäftsleitung. Von den Mitgliedern der RICH-Gruppe wird eine offene Grundhaltung gegenüber Chancen und Risiken erwartet. Für einen gelungenen Start bieten sich zwei unterschiedliche Herangehensweisen an:

Methode A:
Die einzelnen Mitglieder der RICH-Gruppe ermitteln für ihren Aufgabenbereich die 5 wichtigsten Risiken und die 5 wichtigsten Chancen. Diese zunächst einmal subjektive Einschätzung wird in der RICH-Gruppe überprüft, diskutiert und abgestimmt. Am Ende wird eine Auflistung der Risiken und Chancen erhalten, inklusive Eintrittswahrscheinlichkeiten und Schadensausmaß sowie festgelegten Maßnahmen. Für jedes Risiko bzw. für jede Chance wird anschließend ein Verantwortlicher festgelegt.

Methode B:
Um einen leichteren Einstieg bei der Ermittlung von Chancen und Risiken zu finden, bietet sich eine Inventur an. Hier werden eingeleitete Maßnahmen zusammen mit dem Grund der Einführung aufgelistet. Der Grund der Einführung steht entweder für ein Risiko oder eine Chance. Diese Inventur sollte sich nur auf einen kurzen Zeitraum von z. B. einem Jahr beziehen.

Im Anschluss daran -und das ist beiden Methoden wieder gemeinsam- erfolgt eine periodische Fortführung der Beschäftigung mit Risiken. Das schließt jährliche/halbjährliche Treffen der RICH-Gruppe ein sowie einen jährlich erstellten Risikomanagementbericht als Bestandteil der Managementbewertung. Die Ermittlung von Risiken und Chancen, deren Bewertung sowie Maßnahmen und Verantwortliche können übersichtlich in Form einer Tabelle dargestellt werden. Diese Tabelle dient als to do-Liste und wird kontinuierlich fortgeschrieben (Abb.7).

Vorteile für das Labor

Da jedes Unternehmen tagtäglich risikobasiert handelt, um auf dem Markt zu bestehen, könnte bei rein oberflächlicher Betrachtung der neuen ISO-Forderung der Gedanke entstehen, dass lediglich zusätzliche Arbeit generiert wird ohne Einfluss auf den geschäftlichen Erfolg zu nehmen. Dabei führt die Erfüllung der Anforderungen insbesondere dazu, den Prozess der Beschäftigung mit Risiken und Chancen klar zu strukturieren sowie zu dokumentieren, wodurch die Unternehmensführung bei der Erreichung ihrer Ziele wirksam unterstützt wird. So wird durch die Betrachtung von Risiken und Chancen umfassendes Know-how gewonnen, die Planungssicherheit wird verbessert und Chancen werden nach Abwägung aktiv angegangen. Vorbeugen wird zur Gewohnheit und greift weiter als die vorbeugenden Maßnahmen, wie sie in der aktuellen Version der ISO-Norm beschrieben sind. Das Unternehmen geht vorbereitet in die Zukunft, überwacht bestandsbedrohende Risiken nachvollziehbar, erkennt sie frühzeitig und reduziert das Ausmaß. Ein optimales Verhältnis von Chancen und Risiken fördert nicht nur eine positive Unternehmenskultur, sondern unterstützt die Sicherstellung einer qualitativen Gleichmäßigkeit der Dienstleistung und sorgt für erhöhte Kundenbindung, -zufriedenheit und ein begründetes -vertrauen.

Fazit

Risikomanagement bzw. der Ansatz des risikobasierten Denkens ist nichts Neues. Die Forderung aus den ISO-Normen 17025 bzw. 9001 lassen sich auch von kleineren Qualitätskontroll-/Prüflaboren vollumfänglich einhalten. Die Etablierung eines ausgefeilten Risikomanagements ist dabei weder gefordert noch sinnvoll. Mit Blick auf das Wesentliche bringt die Beschäftigung mit Risiken und Chancen einen echten Nutzen für das Unternehmen und dessen Auftraggeber. Im Vordergrund steht dabei eine proaktive Unternehmenskultur mit zukunftsorientierter Fokussierung.

Literatur

[1] ISO/IEC 17025:2005. Allgemeine Anforderungen an die Kompetenz von Prüf- und Kalibrierlaboratorien
[2] ISO/IEC DIS 17025:2016. Allgemeine Anforderungen an die Kompetenz von Prüf- und Kalibrierlaboratorien
[3] Graumann M. Unternehmensverfassung, Strategie und Planung. Koblenz: ZFH; 2009.
[4] Bamberger I, Wrona T. Strategische Unternehmensführung. Strategien, Systeme, Methoden, Prozesse. München: Vahlen; 2012
[5] Corsten H. Grundlagen der Wettbewerbsstrategie. Stuttgart: Teubner; 1998
[6] Graumann M. Controlling. Begriff, Elemente, Methoden und Schnittstellen. Düsseldorf: IDW-Verlag; 2008.
[7] Jung R/ Bruck J/ Quarg S. Allgemeine Managementlehre. Lehrbuch für die angewandte Unternehmens- und Personalführung. Berlin: Schmidt; 2011
[8] Meier H. Unternehmensführung. Aufgaben und Techniken betrieblichen Managements; Unternehmenspolitik und strategische Planung, Unternehmensplanung und Organisation, Human-Resources-Management. Herne: NWB; 2010
[9] ISO-Komitee. Risk-based thinking in ISO 9001:2015. ISO/TC 176/SC 2/N1284
[10] ISO-Komitee. ISO 9001:2015 Risk-based thinking. ISO/TC 176/SC 2/N1283

Abbildung 1: PDCA-Zylkus (PDCA: Plan, Do, Check, Act)

Abbildung 2: Einflussgrößen der PESTEL-Analyse in Anlehnung an [3,6,8]

Abbildung 3: Risiko-Portfolio, Multiplikation der Klassen-Einstufung

Abbildung 4: Steuerung der Risiken, Steuerungsmaßnahmen

Abbildung 5: Steuerungsmaßnahme gemäß Risiko-Portfolio

Abbildung 6: Bericht und Kontrolle der Risiken

Abbildung 7: Beispielhafte Darstellung der Risikotabelle als to-do-Liste

Durch eine Verifizierung (aus dem Lateinischen veritas ‚Wahrheit‘ und facere ‚machen‘) wird allgemein sichergestellt, dass ein im Labor angewandtes Prüfverfahren unter aktuellen Bedingungen akzeptable Ergebnisse liefert. Die Formulierung „aktuelle Bedingungen“ schließt dabei vorhandene Mitarbeiter, Geräte und Reagenzien mit ein.

Wie läuft die Vorbereitung auf eine Verifizierung im Routinealltag ab?

An erster Stelle steht immer die Anfrage eines Kunden nach der Durchführung eines bestimmten Prüfverfahrens für Wirk- und Hilfsstoffe gemäß den Vorgaben des Arzneibuches. Von Laborseite wird nun vor dem eigentlichen Beginn der Verifizierung geprüft, ob das Prüfverfahren im Labor durchgeführt werden kann (Machbarkeitsprüfung). Die wichtigsten Parameter, die hier abgeprüft werden, sind:

  • Technische Ausstattung im Labor: Sind die verwendeten technischen Geräte im Labor vorhanden? Dies gilt sowohl für das Analysenverfahren (z.B. HPLC, GC, IR…) als auch für die Verfahren/Materialien/Behältnisse zur Probenaufarbeitung (z.B. Rotationsverdampfer, Zentrifuge, Mörsermühle…).
  • Bedarf an Chemikalien: Sind die verwendeten Chemikalien bereits vorhanden und falls nicht, sind diese Chemikalien bei Händlern in angemessenem Zeitraum verfügbar?
  • Erfahrungen von Labormitarbeitern mit diesem oder einem vergleichbaren Prüfverfahren.
  • Sichtung des Probenmaterials: sind durch die Formulierung Matrixeffekte oder andere Probleme bei der Analytik zu erwarten?

Eine weitere Möglichkeit, die Machbarkeit im Vorfeld einer Verifizierung zu prüfen, ist eine „Präanalytik“, also ein Ausprobieren der Methoden unter Realbedingungen in sehr abgespecktem Umfang. Die „Präanalytik“ dient vor allem dem vorzeitigen Erkennen von Problemen, insbesondere bei nicht alltäglichen Verfahren oder auch dann, wenn Akzeptanzkriterien sehr eng gesteckt sind. Die beiden nachfolgenden Beispiele zeigen die positiven Effekte der „Präanalytik“:

Beispiel 1: USP-Methode zur Bestimmung von Hypromellose Acetat Succinat, das bei Arzneimitteln mit Magensaftresistenz verwendet wird. Bei dieser Methode wird der Gehalt von Methoxy- und Hydroxypropoxy-Gruppen bestimmt. Dies wird durch Überführen dieser Gruppen in Methyliodid bzw. Isopropyliodid und anschließende chromatografische Bestimmung realisiert. Die Probenaufarbeitung wird in einem geschlossenen Reaktionsgefäß durchgeführt. In einem Zweiphasensystem (wässrig/organisch) wird die Probe (Hypromellose Acetat Succinat) mit konzentrierter Iodwasserstoffsäure auf 150°C erhitzt. Die USP-Vorgabe für die Differenz der Gesamtmasse des Reaktionsgefäßes vor und nach der Reaktion liegt bei maximal 10 mg. Die Herausforderung bei dieser Aufarbeitung liegt hier weder in der chromatografischen Methode noch in der Probenaufarbeitung sondern in der Einhaltung der maximalen Differenz der Gesamtmasse. Es muss dabei ein Reaktionsgefäß gefunden werden, das bei den gegebenen Bedingungen verwendet werden kann (Temperatur über dem Siedepunkt der eingesetzten Reagenzien, geringes Reaktionsvolumen, Iodwasserstoffsäure ist sehr korrosiv, Methyliodid und Isopropyliodid sind flüchtige Verbindungen!). Sind geeignete Gefäße im Rahmen der „Präanalytik“ ausprobiert und dann gefunden worden (inklusive speziellem Heizblock, der für diese Reaktionsgefäße konzipiert ist), kann die Verifizierung im Anschluss problemlos durchgeführt werden.

Auch bei scheinbar einfach durchzuführenden Standardmethoden können Probleme auftreten, die durch eine „Präanalytik“ im Vorfeld schon gelöst werden können.

Beispiel 2: Limittest für Blei aus Povidon gemäß Amerikanischem Arzneibuch USP. Bei diesem Limittest auf Blei erfolgt standardmäßig ein Aufschluss der Probe. Bei Povidon ist im Arzneibuch ein zusätzlicher Vermerk zu finden, wonach Povidon nicht aufgeschlossen sondern nur in Wasser gelöst werden soll. Povidon ist ein polymerer Hilfsstoff, der in unterschiedlichen Kettenlängen eingesetzt wird. Während die kurzkettigen Povidonvarianten mit der Methode analysierbar sind, müssen manche langkettigen jedoch aufgeschlossen werden, um einen zuverlässigen Limittest durchführen zu können. So muss die Verifizierung auf eine Validierung der Methode für die längerkettigen Povidonvarianten ausgeweitet werden, da eine Durchführung nach Arzneibuchvorgaben nicht in vollem Umfang möglich ist.

Beide Beispiele zeigen, welch unterschiedliche Hürden bei der Verifizierung zu nehmen sind und dass eine gute Planung und Methodeninstallation im Vorfeld hilfreich beim Überspringen dieser sind. Werden Problemstellungen frühzeitig durch eine im kleinen Umfang durchgeführte „Präanalytik“ erkannt und gelöst, erleichtert das die Planung der eigentlichen Verfizierung enorm und ermöglicht die Optimierung der anschließenden Routineanalytik.

Ob Analytik oder Stabilitätsprüfungen, chemisch-physikalische oder mikrobiologische Fragestellungen: Lassen Sie sich von uns beraten!

So wie unser Firmenname auf vier Großbuchstaben basiert, so steht auch unser Dienstleistungsangebot auf vier starken Säulen. Bekannt dabei sind vor allem drei:

  • chemisch-physikalische Qualitätskontrolle
  • Stabilitätsprüfung
  • Methodenentwicklung, -validierung, -verifizierung und -transfer

Die vierte Säule ist ebenso fest in unserem Firmennamen verankert und zwar als „C“ von HHAC. Das „C“ steht abgekürzt für „Consulting“.

Unter Consulting als Dienstleistung verstehen wir die wissenschaftliche und technische Beratung innerhalb des Themenspektrums unserer Kernkompetenzen. Einige ausgewählte Beispiele dazu:

Beispiel 1: Analytische Fragestellungen

Insbesondere bei der Etablierung, Validierung, beim Methodentransfer oder bei der Verifizierung von Methoden stellen wir Ihnen gerne unser Know-how zur Verfügung. Dazu unterstützen wie Sie auch bei der Planung von Methodentransfers. Zu Fragen methodenspezifischer Art, sei es HPLC, GC, die Durchführung von Dissolutionsprüfungen oder allen anderen hier im Haus durchgeführten Methoden (siehe auch Methodenverzeichnis) helfen wir Ihnen gerne weiter.

Beispiel 2: Stabilitätsprüfungen

Auf Wunsch erhalten Sie das Rundum-Sorglos-Paket! Wir berechnen für Sie den Prüfmusterbedarf, lagern Ihre Proben ein, lagern zeitgerecht aus und kümmern uns um die Durchführung der Analytik. Auf Wunsch erfolgt eine GMP-gerechte Dokumentation auf Basis der von Ihnen zur Verfügung gestellten Unterlagen sowie die Archivierung. Dies wird natürlich alles gemäß der ICH-Richtlinien durchgeführt.

Beispiel 3: Mikrobiologie

Unser Consultingangebot gibt nicht nur Antworten auf chemisch-physikalische Fragestellungen, sondern bietet auch Lösungen im Bereich Mikrobiologie an. Hierbei unterstützt Sie Dr. Timo Krebsbach. Timo Krebsbach ist:

  • Promovierter Mikrobiologe mit langjähriger Berufserfahrung
  • Erlaubnisinhaber gem. §44 IFSG
  • Lehrbeauftragter der Hochschule Albstadt-Sigmaringen
  • Beirat „Wissenschaft und Technik“ der Fachzeitschrift Pharmind

Die drei Beispiele können lediglich einen groben Überblick über die Beratungspalette geben. Sprechen Sie uns an und wir schnüren gemeinsam ein an Ihre Bedürfnisse angepasstes Paket.

Unter folgendem Link können Sie den in der Pharmind (2) 2017 erschienen Artikel Verifizierung von Arzneibuchmethoden im analytischen Labor – wie umfangreich in der Praxis? als pdf einsehen.

Gerne unterstützen wir Sie bei Ihren Verifizierungen, sei es beratend oder durchführend.

Verifizierung von Arzneibuch-Methoden im analytischen Labor – Wie umfangreich in der Praxis?

Abstract

Die Verifizierung von chemisch-physikalischen Arzneibuchmethoden ist im Bereich der pharmazeutischen Analytik ein wichtiges Instrument zur Eignungsprüfung von bereits bestehenden Methoden aus den Pharmakopöen. Diese gelten als valide und müssen bei Anwendung demnach nicht einer erneuten Validierung unterzogen werden. Lediglich die Eignung unter den Umgebungsbedingungen des durchführenden Labors wird einer Prüfung unterzogen. Doch gerade die praktische Umsetzung steht oft vor vielen Fragezeichen, da Art und Anzahl der zu überprüfenden Parameter und der dazugehörigen Akzeptanzkriterien zur Erstellung eines individuellen Verifizierungsplans im Vorfeld regulatorisch nicht konkret vorgegeben sind. So summieren sich Fragen nach der Beurteilung einer Methode, den relevanten Verifizierungsparametern oder den Akzeptanzkriterien und letztendlich dem gesamten Umfang der Verifizierung, bevor eine geeignete Implementierung in die Routine erfolgen kann.

Einleitung

Die Methodenverifizierung stellt eine Teilvalidierung der Methode dar, bei der nur die für die jeweilige Methode zu den gegebenen Bedingungen kritischen Methodenparameter überprüft werden. Arzneibuchmethoden gelten per se als valide, sie müssen lediglich einer Verifizierung unterzogen werden. Bei jeder anderen validierten Methode muss ein Methodentransfer durchgeführt werden, wenn ein anderes Labor als das, das die Methode validiert hat, nach dieser prüft. In der Praxis stellt sich den meisten durchführenden Laboratorien nun die Frage nach der Art und dem Umfang der Verifizierung. Sie soll so umfangreich sein, dass alle kritischen Faktoren Beachtung finden, jedoch soll der Aufwand gleichzeitig möglichst gering gehalten werden. Im Folgenden werden mögliche Ansätze zur Ermittlung des Prüfumfangs, der Auswahl der Verifizierungsparameter und zu dem Setzen von Akzeptanzkriterien, sowie die Probleme, die damit einhergehen, erörtert.

Regulatorischer Hintergrund

Welche Regelwerke geben handfeste Vorgaben, mit deren Hilfe eine sinnvolle Verifizierung erfolgen und auf die sich berufen werden kann? Wer im europäischen Raum Arzneibuchmethoden verifizieren möchte und Handlungshilfen zur Durchführung des praktischen Eignungstests sucht, wird im europäischen Arzneibuch kaum fündig werden. Lediglich ein kurzer Abschnitt im Europäischen Arzneibuch (Ph. Eur.) weist darauf hin, dass eine komplette Validierung nicht erforderlich, aber eine Eignungsprüfung bzw. Verifizierung der Methode notwendig ist: „Validierung von Arzneibuch-Methoden: […] Falls in der Monographie oder dem Allgemeinen Kapitel nichts anderes vorgeschrieben ist, ist eine Validierung der Prüfmethoden nicht erforderlich.“ „Implementierung von Arzneibuch-Methoden: Wenn eine Arzneibuch-Methode eingesetzt wird, muss der Anwender evaluieren, ob und in welchem Ausmaß die Eignung der Methode […] nachgewiesen werden muss.“[1] Auch im GMP-Leitfaden Kapitel 6 ist beschrieben, dass das durchführende Labor die Eignung der Methode belegen muss, wenn es nicht die Validierung durchgeführt hat. Dies bedeutet für validierte Methoden, die nicht aus dem Arzneibuch stammen, einen Methodentransfer oder eine (Teil-)Validierung und für Arzneibuchmethoden die Durchführung einer Methodenverifizierung [2]. Lässt man den Blick weiter schweifen zu amerikanischen Regelwerken und Leitlinien wie der United States Pharmacopeia (USP) [3], dem Code of Federal Regulations (CFR) [4] oder der im Juli 2015 herausgegebenen FDA Guidance Analytical Procedures and Methods Validation for Drugs and Biologics [5] kann man einige Anhaltspunkte für relevante Parameter finden, um die Eignung der Methode im eigenen Labor zu belegen. Auch wenn es bei einer Prüfung nach europäischem Arzneibuch bzw. für den europäischen Markt nicht bindend ist, stellen diese Vorgaben eine gute Basis, auf die man sich berufen kann, dar. Wann eine Verifizierung und keine Validierung notwendig ist, wird deutlich beschrieben im CFR Laboratory Records. (21 CFR 211.194). Hier wird außerdem der geforderte Umfang, der an eine vollständige Dokumentation von Laboraufzeichnungen gestellt wird, definiert. Laut CFR muss hier ein Verweis auf die verwendete Methode erfolgen und der Nachweis, dass diese Methode auch geeignet bzw. validiert ist. Methoden aus der USP, dem NF (National Formulary) oder AOAC (Association of Analytical Communities) -Methoden müssen nicht vor Ort validiert sein. Es reicht ein einfacher Verweis aus. Aber alle Methoden sollen unter den jeweils aktuellen Umgebungsbedingungen verifiziert sein. Im USP Kapitel <1226> Verification of Compendial Procedures wird festgelegt, dass eine Verifizierung nicht das bloße Nachbilden einer Validierung bedeutet, sondern nur dazu verwendet wird Daten zu erheben, die die Eignung der Methode unter den jetzigen Umgebungsbedingungen aufzeigen. Der Umfang kann also von dem einer vollständigen Validierung nach ICH abweichen bzw. individuell festgelegt werden in Abhängigkeit von

  • der Art der vorliegenden Methode,
  • der Erfahrung des Analytikers mit einem solchen Prüfverfahren,
  • den eingesetzten Geräten oder Ausrüstungen,
  • der Probenaufarbeitung,
  • der Art des Probenmaterials.

In der FDA Guidance Analytical Procedures and Methods Validation for Drugs and Biologics (July 2015) wird ebenfalls die Verifizierung von Arzneibuchmethoden gefordert. Die Guideline führt aus, dass die Verifizierung nach einem Verifizierungsplan mit festgesetzten Akzeptanzkriterien durchgeführt werden soll. Der Plan soll einen detaillierten Bezug zur Methode herstellen. Die Prüfung der Robustheit ist laut Guidance nicht notwendig, wenn keine Abweichungen von der Methode bestehen.

Welche Parameter geprüft werden, soll von der aktuellen Fragestellung abhängig gemacht werden. Dies kann beispielsweise bedeuten, dass bei Abweichung der internen Spezifikation von der Arzneibuchspezifikation, der Umfang der Verifizierung entsprechend erhöht werden muss, da nicht davon ausgegangen werden kann, dass die Methode per se für diesen Zweck geeignet ist. Bei Wirkstoffen, denen verschiedene Syntheserouten und somit unterschiedliche Verunreinigungsmuster zu Grunde liegen können, ist bei einer Reinheitsprüfung die Überprüfung einer möglichen Interferenz einzelner Peaks innerhalb eines Chromatogramms bzw. die Überprüfung der Selektivität sinnvoll und wichtig. Auch bei fertigen Darreichungsformen (FDFs), bei denen der Herstellungsprozess und die Matrix einen großen Einfluss besitzen, muss der Umfang ebenfalls ausgeweitet werden. Liegen diese Fälle nicht vor kann auch eine Verifizierung in einem sehr kleinen Umfang erfolgen. Wenn für den US-amerikanischen Markt geprüft wird, sollte beachtet werden, dass nur Methoden die in 21 CFR 211.194 als solche Methoden benannt sind, verifiziert werden müssen. Methoden aus dem europäischen Arzneibuch sind nicht explizit in der Verordnung benannt und müssen nach rein formeller Lage einer Validierung unterzogen werden, wenn sie für den US-amerikanischen Markt verwendet werden sollen.

Bewertung der Prüfmethode und Bewertung der Komplexität des Probenmaterials

Der erste Schritt im Rahmen der Festlegung des Verifizierungsumfangs ist die Bewertung der in der jeweiligen Monographie beschriebenen Methode. Dies beginnt mit der Betrachtung, ob es sich beispielsweise um eine Prüfung auf Identität, Gehalt, Reinheit, Wirkstofffreisetzung oder um eine einfache Standardmethode wie der Bestimmung des pH-Werts, der Säurezahl oder des Trocknungsverlusts handelt, welche laut USP nicht verifiziert werden muss. Bei einer Gehaltsmethode muss unterschieden werden, ob es sich um eine absolute Methode wie die Titration handelt, bei der ein hohes Maß an Präzision vorliegt, dafür vielleicht ein einhergehender Verlust der Spezifität in Kauf genommen werden muss, oder um eine relative Methode wie ein chromatographisches Verfahren, bei der von einer höheren Spezifität ausgegangen werden kann. Ebenso kann das Beispiel um die Reinheitsprüfung erweitert werden. Hier kann es sich um einen Limittest wie die Bestimmung von Restlösemitteln handeln oder um eine quantitative Methode, wie sie zur Bestimmung von verwandten Substanzen angewandt wird. So ist die Art der Methode schon ausschlaggebend für den Umfang der Verifizierung. Die Beschreibung von Arzneibuchmethoden ist meistens sehr knapp gehalten, so dass der Analytiker sich fragen muss, ob alle relevanten Methodenparameter ausreichend beschrieben sind oder ob der Interpretationsspielraum direkt Auswirkungen auf die Qualität der Analysenergebnisse hat. Dies betrifft insbesonder

  • Probenaufarbeitungen
  • Detektionsmethoden
  • verwendete Materialien im Allgemeinen
  • Lagerung und Probenzug

Die eigentliche Fülle an möglichen Einflussgrößen kann durch ein Ishikawa-Diagramm (Abbildung 1) veranschaulicht werden.

Auswahl der Verifizierungsparameter

Wie wählt man nun die relevanten Verifizierungsparameter aus?
In der USP gibt es ein längeres Kapitel zur Verifizierung von Arzneibuchmethoden, das gute Hilfestellung liefert und den Umfang einer solchen Verifizierung konkretisiert. Im Kapiteil USP<1226> Verification of Compendial Procedures wird auf das allgemeine Validierungskapitel USP <1225> Validation of Compendial Procedures hingewiesen, in dem alle relevanten Parameter gelistet sind und je nach Verfahren eine konkrete Auswahl an möglichen zu prüfenden Parametern vorgeschlagen wird (Tabelle 1; vgl. ICH Q2(R1) Validation of Analytical Procedures: Text and Methodology [6]). Da dies Empfehlungen für Validierungen sind, kann davon ausgegangen werden, dass der Umfang für Verifizierungen im Normalfall immer geringer als hier vorgegeben ausfällt. Der Verifizierungsumfang wird vorab durch den Verifizierungsplan festgelegt. Dieser kann bei Standardmethoden unter anderem als eine Art Formblatt vorliegen. Bei der Erstellung des Plans sollten im Vorfeld bestimmte Faktoren abgeklärt werden, um den letztendlich relevanten Prüfumfang zu ermitteln. Im Folgenden sind mögliche Punkte zur Abklärung des Verifizierungsumfangs genannt:

1. Überprüfung der Methode (Arzneibuch, Klassifizierung der Methode)

  • Ist die Methode bereits etabliert?
  • Handelt es sich um eine einfache Standardmethode?
  • Ist die Herstellung und Stabilität aller Lösungen genau beschrieben?
  • Sind alle notwendigen Geräteparameter gegeben?
  • Ist die Art der Auswertung und Formel gegeben und korrekt dargestellt?
  • Gibt es Punkte, die nicht dem Stand der Technik entsprechen?

2. Untersuchungsumfang

  • Feste Parameter, die standardmäßig überprüft werden können, wenn keine Vorgaben/ Beurteilungen vorliegen bzw. keine einfache Standardmethode vorliegt.
  • SST
  • Selektivität (Reinheitsbestimmungen)
  • Linearität
  • Methodenpräzision
  • Intermediärpräzision
  • Standardstabilität
  • Probenstabilität

Als wichtigste Prüfparameter werden die Bestimmung der Selektivität sowie das Bestehen des der Methode eigenen System suitability tests (SST) als obligatorisch angeführt. Die allgemeinen Kapitel der Pharmakopöen sollten bei der Prüfparameterwahl hier nicht außer Acht gelassen werden. Bei der Überprüfung des SST nach Ph. Eur. für chromatographische Methoden werden beispielsweise die Systemeignungsparameter aus dem Kapitel 2.2.46 Chromatographische Trennmethoden aus dem europäischen Arzneibuch herangezogen. Diese müssen bei jeder Bestimmung erfüllt werden. Analog hierzu werden bei Prüfungen nach USP die Systemeignungsparameter des USP Kapitel <621> Chromatography – System Suitability herangezogen. Zur Durchführung chromatographischen Methoden empfiehlt es sich, die Retentionszeit im Vorfeld zu bestimmen, den System Suitability Test (SST) und die Tendenz zu Verschleppungen oder die Stabilität der Sequenz zu prüfen. Es lohnt sich unter Umständen eine Überprüfung, ob die Systemeignungstests aus der Monographie und dem allgemeinen Kapitel ausreichend sind oder ob noch weitere Tests hinzugefügt werden müssen. Beispielsweise kann ein Kontrollstandard am Ende der Analytik, die Bestimmung der Höhe der Abweichung zweier parallel hergestellter Referenzstandards, eine doppelte Probenaufarbeitung oder auch eine Injektion mit einem Wirkstoffgehalt an der Detektionsgrenze oder die Herstellung eines Wirkstoffstandards mit 100% Gehalt bei Reinheitsmethoden zur Überprüfung der vollständigen Extraktion der Probe stattfinden. Bei Reinheitsbestimmungen (auch bei Limittests) empfiehlt sich eine Ermittlung des Limit of Detection (LOD) bzw. des Limit of Quantification (LOQ). Die Überprüfung der Bestimmungsgrenze ist unter anderem sinnvoll, damit zum Beispiel im Analysen-Zertifikat falls in der Probe keine Verunreinigungen detektiert werden, ein Reporting Limit angegeben werden kann. Eine Bestimmung der Selektivität bei chromatographischen Reinheitsmethoden erleichtert es später in der Routine bekannte Verunreinigungen zuzuordnen, da dem Analytiker Vergleichs-Chromatogramme vorliegen. In der USP sind auch Verfahren für Fertigarzneimittel beschrieben. Hier empfiehlt es sich, auch eine Wiederfindung von Verunreinigungen und Wirkstoff aus der Matrix zu ermitteln. Die Prüfungen der Richtigkeit und Wiederfindung sind nur nötig bei komplexer Matrix (z.B. bei Methoden für FDFs in der USP) oder bei komplexer Probenaufarbeitung wie z.B. bei einer Derivatisierungsreaktion oder aufwendiger Extraktion. Die Bestimmung der Linearität ist im Prinzip nicht nötig, trotzdem sollte bei einer hohen Probenkonzentration überprüft werden, ob noch im linearen Bereich des Detektors gearbeitet wird. Falls nicht ist eine Verringerung des Injektionsvolumens (HPLC/GC) nach Ph.Eur. 2.2.46 erlaubt. In diesem Fall sollte aber die Linearität mit überprüft werden. Vor der Durchführung der Verifizierung und der Erstellung des Verifizierungsplans sollten bei der Installation der Methode bereits kleinere Robustheitsprüfungen durchgeführt werden, um die Methode besser bewerten zu können. Solche können die Prüfung der Eignung von Verbrauchsmaterialien wie Filter oder das Extraktionsverhalten der Probe umfassen. Bei einer Bestimmung der Robustheit sollte aus pragmatischen Gründen die Stabilität der Lösungen überprüft werden, um später in der Routine die eventuell nicht notwendige, mehrfache frische Aufarbeitungen der Proben und Standards zu umgehen. Weiterführende Informationen zur Festlegung des Verifizierungsumfangs oder zum Equipment das bei der ursprünglichen Validierung der Arzneibuch-Methoden verwendet wurde, enthalten der Kommentar zum Europäischen Arzneibuch, die EDQM-Knowledge Database [7] sowie die Webseite der USP zu den bei den Validierungen verwendeten HPLC-Säulen [8].

Setzen von Akzeptanzkriterien

Nach der Auswahl der zu überprüfenden Parameter müssen hierfür geeignete Akzeptanzkriterien im Vorfeld der Prüfung festgelegt werden. Bei der Methodenverifizierung soll die Methodeneignung im eigenen Labor unter den aktuellen Gegebenheiten aufgezeigt werden, die einmal natürlich methodenimmanent ist und von den Produkteigenschaften wie zum Beispiel der Qualitätslage und der Produktspezifikation bzw. dem Anwendungszweck abhängt. Hier gilt es das geeignete Maß zu finden. Liegen die Akzeptanzkriterien zu eng, schließt man vielleicht geeignete Methoden aus, liegen sie zu weit, gerät man in Gefahr in der späteren Routine häufig OOS-Ergebnisse zu erhalten oder auch einfach auf Grund der hohen Schwankungsbreite Daten zu erzeugen, die eigentlich keine Aussagekraft besitzen. Dies kann am Beispiel der Bestimmung der Präzision einer Gehaltsmethode erläutert werden. Was bedeutet nun die Präzision und die weite der hier gesetzten Akzeptanzkriterien einer Methode im Hinblick auf die Produktqualität und die Spezifikation? Während bei der Bestimmung der Wiederfindung oder Linearität ein möglicher systematischer Fehler aufgedeckt wird, ist die Bestimmung der Präzision ein Maß für den zufälligen Fehler oder die Messunsicherheit. Abbildung 2 zeigt, wie schnell man bei einem wahren Messwert von 98,5 % bei einer Bestimmung des Gehalts ein Out-of-specification (OOS) Ergebnis produziert, das nur auf die Messunsicherheit zurückzuführen ist. Die Ergebnisse sind normalverteilt und bei entsprechend hoher Streuung liegen entsprechend viele Messwerte unterhalb des Lower Specification Limits (LSL). Dies gilt natürlich auch in umgekehrte Richtung wenn der wahre Wert im OOS-Bereich liegt und der gemessene Wert vermeintlich innerhalb der Spezifikation liegt. So sollten selbst bei weit gesetzten Akzeptanzkriterien für den Gehaltsprozentwert die Akzeptanzkriterien für die Streuung (relative Standardabweichung) nicht erweitert werden. Nun könnte man diesem Problem begegnen, indem die Probe aufgereinigt wird oder durch die Erweiterung der Spezifikation. Dies liegt jedoch meist nicht in der Macht des durchführenden Analytikers. Eher kann die Streuung bzw. die Messunsicherheit reduziert werden, auch wenn das Verfahren an sich nicht einfach geändert werden und im besten Fall durch proportionales Vergrößern der Proben- und Standardeinwaage eine höhere Genauigkeit erzeugt werden kann. Am einfachsten gelingt in den meisten Fällen eine drastische Reduzierung der Messunsicherheit, indem Mehrfachbestimmungen durchgeführt werden und die Akzeptanzkriterien für die relative Standardabweichung der Einzelwerte ausreichend eng, unabhängig von der Weite der Akzeptanzkriterien des Gehaltprozents, liegen. So kann auf Basis der durchgeführten Messung der Streuung bei guten Messergebnissen später eine Einfachbestimmung in der Routine vertreten werden. Analog sollte die Abwägung der Weite der Akzeptanzkriterien auf alle anderen einzelnen Parameter übertragen werden.
Mögliche Vorgehensweise und Akzeptanzkriterien, wenn das vorige Beispiel der Gehaltsbestimmung mittels HPLC aufgegriffen wird, sind, den SST der Monographie (Selektivität und Gerätepräzision (RSD ≤ 0,85%; n=6) )durchzuführen, wenn alle durch den Rohstoffhersteller ausgewiesenen Verunreinigungen durch die Monographie abgedeckt werden; zusätzlich die Durchführung der Präzision (RSD ≤ 2,0%) und fakultativ die Standard- und Probenstabilität (Abw. Zum Initialwert ≤ ± 2,0%). Die Linearität wird meist nicht überprüft. Sollte eine Überprüfung der Linearität notwendig sein, wird meist der Bereich 80 – 120 % verifiziert (Korrelation ≥ 0,999 / %y-Achsenabschnitt ≤ ± 3% / Darstellung: Residuenplot + Regressionsgerade / Bericht: Summe der Residuen² + Steigung). In diesem Fall könnte die Wiederfindung direkt über die Linearität bei matrixbehafteten Proben analytisch abgedeckt werden bzw. die Linearität umgekehrt aus den Daten der Richtigkeit oder auch anderen statistischen Methoden abgeleitet werden (vgl. USP <1210> Statistical Tools for Procedure Validation; Draft PF 40 (5)).

Setzen von Akzeptanzkriterien – Analytical Target Profile

Derzeit wird von Seiten der USP an einem Lebenszykluskonzept für Methoden gearbeitet, welches im neuen Kapitel <1220> The Analytical Procedure Lifecycle dargestellt werden soll. Hierzu erschienen auch mehrere „Stimuli“-Artikel, die sich mit der Erstellung eines sogenannten analytical target profiles (ATP) beschäftigen und auch Beispiele zur Formulierung solcher anführen [10], [11]. Das ATP beschreibt das genaue Ziel des Validierungsprozesses mit den relevanten Leistungsmerkmalen der Methode (engl. Method performance characteristics). Diese sollten entsprechend dem Ziel der Validierung sowohl zum Ausschluss von systematischen Fehlern, als auch zum Minimieren der Streuung der Werte ausgewählt werden. Das ATP wird als Text formuliert und ist nicht methodenspezifisch sondern produktspezifisch, wobei das Produkt in diesem Fall die zu erhaltenen Werte darstellt, welche durch die im ATP beschriebene Akzeptanzkriterien vorgegeben werden. So wird jeweils für die Bestimmung des Gehalts, Reinheit etc. ein eigenes ATP formuliert. Die Erstellung eines ATPs ist noch ein relativ junges Modell, dessen definiertes Ziel es ist, letztendlich durch genaue Richtlinien alle möglichen Streuungsquellen von Werten oder Messunsicherheiten zu berücksichtigen und zu minimieren, ohne nicht zielführende Vorgaben anzugeben und so durch den gesamten Lebenszyklus und somit bei der Verifizierung, angewendet werden kann.

Fazit

Die Herausforderung, den Spagat zwischen Aufwand und Nutzen bei der Verifizierung von Arzneibuchmethoden zu meistern, stellt viele Analytiker vor Herausforderungen. Hilfestellung bietet hier der Blick in die verschiedenen Regularien und die Ansätze, die darin enthalten sind, jedoch muss auch mit logischem Sachverstand jede Methode für sich betrachtet und der notwendige Umfang der Verifizierung ermittelt werden. Im Grenzfall sollte die Auswahl der Verifizierungsparameter umfangreicher sein, um Probleme in der Routine zu vermeiden. Durch ein vorzeitiges Auseinandersetzen mit der Art der Methode und den Akzeptanzkriterien für ein Produkt bzw. Ergebnis, können die zu erreichenden Ergebnisse und der zu erwartende Umfang der Analytik besser überblickt werden.

Quellen

[1] Europäisches Arzneibuch, 8. Ausgabe.
[2] Leitfaden der Guten Herstellungspraxis, Kapitel 6 (2014)
[3] U.S. Pharmacopeia & National Formulary, USP 39-NF 34.
[4] The Code of Federal Regulations of the United States of America, 21 CFR 211.194 (2016)
[5] Food and Drug Administration, Guidance Analytical Procedures and Methods Validation for Drugs and Biologics (July 2015): www.fda.gov/downloads/drugs/guidancecomplianceregulatoryinformation/guidances/ucm386366.pdf (11/2016)
[6] International Council for Hamonisation of Technical Requirements for Pharmaceuticals for Human Use, Q2 Analytical Validation: www.ich.org/fileadmin/Public_Web_Site/ICH_Products/Guidelines/Quality/Q2_R1/Step4/Q2_R1__Guideline.pdf (11/2016)
[7] EDQM Knowledge Database: extranet.edqm.eu/publications/recherches_sw.shtml (11/2016)
[8] USP Chromatographic Columns: www.uspchromcolumns.com (11/2016)
[9] B. Dejaegher et al., Improving method capability of a drag substance HPLC assay. Journal of Pharmaceutical and Biomedical Analysis 42 (2006) 155-170
[10] G.P. Martin et al., Stimuli to the Revision Process: Lifecycle Management of Analytical Procedures: Method Development, Procedure Performance Qualification, and Procedure Performance Verification. PF 39(5) (2016)
[11] K.L. Barnett et al., Analytical Target Profile: Structure and Application Throughout The Analytical Lifecycle. PF 42(5) (2016)

Abbildung 1: Ishikawa-Diagramm am Beispiel einer Gehaltsbestimmung mittels HPLC zur Darstellung kritischer Parameter und Einflussgrößen.
Tabelle Parameter Verifizierung

Tabelle 1: Data Elements required for Validation (nach [4])
Normalverteilung

Abbildung 2: Normalverteilung der Messwerte bei einem wahren Wert von 98,5%. Alle Werte innerhalb des Bereiches des Lower specification Limits (LSL) von 98,0 % und des Upper specification limits (USL) von 102,0 % liegen innerhalb der Spezifikation. Je näher der wahre Wert an einer der beiden Grenzen liegt, desto wahrscheinlicher wird es über die Gesamtheit der Werte ein OOS-Ergebnis zu erhalten [9].

Der in der High Performance Liquid Chromatographie (HPLC) am häufigsten eingesetzte Detektor ist unstrittig der UV/VIS-Detektor.Wir als Auftragslabor verfügen an allen HPLC-Geräten über diesen Detektor, an einige Geräte ist ein zweiter Detektor gekoppelt. Im Folgenden eine Übersicht über die unterschiedlichen Detektoren und ihre Bestimmungen:

UV/VIS-Detektor

Da die meisten Arzneimittelwirkstoffe Licht im UV-Bereich absorbieren, können sie mit dem Standarddetektor in der HPLC, dem UV/VIS-Detektor, analysiert werden. Der UV/VIS-Detektor ist vergleichbar mit einem Photometer aufgebaut; daher findet hier auch das Bouguer-Lambert-Beer’sche Gesetz Anwendung. Beim UV/VIS-Detektor wird Licht einer bestimmten Wellenlänge ausgestrahlt. Anschließend wird gemessen, wie viel Licht am Ende der Durchflussmesszelle, die von der mobilen Phase mit ihren Analyten durchflossen wird, noch vorhanden ist. Die Differenz der Lichtmenge ist von der zu analysierenden Substanz absorbiert worden. Somit können alle Substanzen bestimmt werden, die UV- oder sichtbares Licht absorbieren oder über Derivatisierung in solche Verbindungen überführt werden können. Zum Einsatz kommen variable Wellenlängendetektoren (VWD) und Diodenarray-Detektoren (DAD). Während Diodenarray-Detektoren mehrere Wellenlängen parallel aufnehmen oder ganze Spektren von Substanzen aufzeichnen können – für jede Wellenlänge steht eine eigene Photodiode zur Verfügung – ist der Arbeitsbereich der VWDs etwas größer. Hier kann gleichzeitig nur eine Wellenlänge detektiert werden, wodurch das Rauschen etwa um die Hälfte kleiner ist und somit die Empfindlichkeit des Detektors um das Doppelte steigt.

Fluoreszenz-Detektor

Wie der UV/VIS-Detektor gehört der Fluoreszenz-Detektor auch zu den spektroskopischen Detektoren; er ist jedoch selektiver und empfindlicher einsetzbar. Beim Fluoreszenz-Detektor wird Licht einer bestimmten Wellenlänge ausgestrahlt und durch eine Durchflusszelle geleitet. Diese enthält die mobile Phase mit dem Analyten, der das ausgestrahlte Licht absorbiert und bei einer anderen, längeren Wellenlänge wieder abstrahlt. Dieses emittierte Licht wird im 90-Grad-Winkel abgeleitet und gemessen. Während beim UV/VIS-Detektor das Licht in einer „Linie“ gemessen wird, ist beim Fluoreszenz-Detektor die senkrechte Umleitung erforderlich, um nur die Emissionsstrahlung und nicht auch die Anregungsstrahlung als Störung mitzubestimmen. Bestimmt werden können mit diesem Detektor nur Substanzen, die selbst fluoreszieren oder zu fluoreszierenden Verbindungen umgesetzt werden. Daher ist der Fluoreszenz-Detektor nicht universell einsetzbar, zeigt bei Verwendung aber eine hohe Selektivität.

Brechungsindex-Detektor (RI-Detektor –refractive index detector)

Der Brechungsindex-Detektor ist vom Funktionsprinzip ein universeller Detektor, der die Änderung der Lichtbrechung der Probelösung im Vergleich zur mobilen Phase misst. Im Vergleich zu den anderen beschriebenen Detektoren kann hier nur mit einem isokratischen Trennsystem gearbeitet werden, da die mobile Phase als Referenz dient. Ein Gradientensystem kommt somit nicht zum Einsatz. Mit Hilfe eines Spiegelsystems fällt der Lichtstrahl während der Messung zuerst durch die Referenzmesszelle mit der mobilen Phase und anschließend durch die Probenmesszelle mit dem Analyten. Das Licht wird durch Dioden aufgefangen. Fließt durch die Probenmesszelle ebenfalls reine mobile Phase, ändert sich die Lichtbrechung nicht und die maximale Lichtmenge kommt bei den Dioden an. Anders sieht es aus, wenn eine Substanz mit anderem Brechungsindex die Probenmesszelle durchfließt, wodurch das Licht abgelenkt wird und nur eine reduzierte Lichtmenge bei den Dioden ankommt. Der Brechungsindex ist sehr temperaturabhängig. Während der Detektion muss die Temperatur konstant gehalten bzw. die Messzelle des Detektors temperiert werden. Da die Differenz des Brechungsindex von Substanzen eher gering ist, sind die Selektivität oder die Empfindlichkeit des Detektors entsprechend wenig ausgeprägt. Der Brechungsindex-Detektor findet u. a. bei der Bestimmung von Zuckern Verwendung, die nicht UV-aktiv sind und daher mit dem UV/VIS-Detektor nicht nachweisbar sind.

Massenspektrometrie-Detektor (MS-Detektor)

Während sich das Funktionsprinzip bei den bisher beschriebenen Detektoren leicht skizzieren lässt, gilt es bei massenspektrometrischen Detektoren verschiedene Ausführungen zu beachten. Allgemein lässt sich sagen, dass die Massenspektrometrie darauf beruht, dass der zu untersuchende Analyt in die Gasphase überführt und anschließend ionisiert wird. Die Ionen bzw. Fragmente werden entsprechend des Verhältnisses Masse/Ladung detektiert. Je nach Einstellung kann man mit einem MS-Detektor im Zuge einer Einzeluntersuchung entweder selektiv nach einer oder mehreren Einzelsubstanzen suchen oder ein Massenspektrum der in der Probe vorhandenen Substanzen aufnehmen. Dabei können auch mehrere gleichzeitig eluierende Substanzen differenziert und bestimmt werden. MS-Detektoren unterscheiden sich zu einem in der Art der Ionisierungsquelle, dem massenspektrometrischen Analysator und dem eigentlichen Detektor. Dabei werden verschiedene Kombinationen von Ionisierungsquellen, Analysatoren und Detektoren mit erheblichen Unterschieden hinsichtlich Empfindlichkeit, Genauigkeit und apparativem Aufwand eingesetzt. In unserem Labor kommt als Ionisierungsquelle die Elektrospray-Ionisation (ESI) zusammen mit einem Single-Quad(ropol)-Detektor zum Einsatz. Als mobile Phase können nur flüchtige Lösemittel und Salze verwendet werden, da der Analyt zusammen mit der mobilen Phase verdampft werden muss. An einer Metallkapillare wird Hochspannung angelegt, wodurch die Analyt-Moleküle ionisiert werden. Je nach Ladung der Spannung können positiv oder negativ geladene Ionen entstehen. Gleichzeitig wird mit Hilfe von Stickstoff das Lösemittel verdampft (elektrostatische Zerstäubung). Auf Detektorseite wird durch Anlegen von Spannung der entgegengesetzte Pol erzeugt. Die Ionen werden dadurch beschleunigt und gelangen so zum Analysator-Eingang. Ein Quadropol-Analysator besteht aus vier quadratisch angeordneten Stäben, an denen hochfrequente Spannung angelegt wird. Die auf eine bestimmte Masse eingestellte Spannung bewirkt, dass die Ionen in Richtung Detektor fokussiert und nur die Ionen mit der gesuchten Masse herausgefiltert werden und zum Detektor gelangen. Am Detektor wird das Signal erfasst und nochmals verstärkt. Der MS-Detektor arbeitet im Hochvakuum. Neben dem beschriebenen Quadropol-Massenanalysator gibt es noch empfindlichere und hochauflösendere Techniken, die zur Strukturaufklärung chemischer Verbindungen eingesetzt werden können. Die dabei entstehenden MS-Chromatogramme sind hinsichtlich der Auswertung und Aussagekraft komplexer als die typischen UV/VIS-Chromatogramme.

Die high-pressure-liquid-chromatography (HPLC, Hochdruckflüssigchromatographie) oder auch high-performance-liquid-chromatography (Hochleistungschromatographie) ist ein effizientes und robustes Verfahren, das im Bereich der Arzneimittelanalytik zur Bestimmung von Gehalt, Reinheit oder Wirkstofffreisetzung eines Fertigprodukts oder Rohstoffes genutzt wird. Doch jeder Analytiker wird Situationen kennen, in denen die Chromatogramme nicht das erwartete Bild zeigen oder die HPLC-Anlage nicht wie gewohnt arbeitet. Ein Fehler ist aufgetreten.

Durch die Qualifizierung und regelmäßige Kalibrierung der Anlagenteile wie Detektor, Pumpe, Säulenofen und Probengeber ist bekannt und wird regelmäßig überprüft welche Leistung die HPLC erbringen kann. Und welche sie als vielgenutztes Arbeitstier bei guter Pflege und Wartung auch regelmäßig und über einen langen Zeitraum erbringen wird. Auch die Validierung von Methoden und die bei jeder Analytik durchgeführten Systemeignungstests wie Bestimmung der Injektionspräzision, Überprüfung der Bestimmungsgrenze, etc. tragen dazu bei, das Vertrauen des Analytikers in seine Analysenergebnisse zu stärken. Doch wenn einmal Fehler auftreten, ist die Ermittlung der Ursache und die Behebung des Fehlers häufig eine langwierige Sache, die den straffen Zeitplan schon mal durcheinander bringen kann.

Tabelle 1: Fehlerquellen und ihre Auswirkungen

Fehlerquellen Auswirkung

Probenahme

  • das gezogene Muster ist nicht repräsentativ
  • die Probe wurde falsch gelagert / transportiert
  • die erhaltenen Werte sind nicht repräsentativ
Probenaufbereitung
  • Einwaagefehler
  • Verdünnungsfehler
  • fehlerhafter Gehalt der Referenzsubstanz
  • direkter Einfluss auf die Größe der Peakfläche des Analyten bzw. auf die Berechnung seines Gehalts in der Probe
Autosampler / Injektion
  • Luft in der Spritze
  • Nadel verstopft
  • Leck
  • falsche Ansauggeschwindigkeit (viskose Lösungen)
  • Temperatur
  • Füllhöhe der Vials zu voll / zu leer
  • Verschmutzter Nadelsitz / Nadel
  • falsches Injektionsvolumen mit direktem Einfluss auf die Peakfläche

 

  • Verschleppungen / Geisterpeaks
Fließmittel
  • Mischungsverhältnis
  • pH-Wert
  • Pufferstärke
  • Qualität der Reagenzien
  • Retentionszeiten stimmen nicht
  • Gradientenpeaks
Pumpe
  • Pulsation
  • Kontaminierte Mischkammer
  • Schlechte Durchmischung der Eluenten
  • Druckschwankungen
  • Ablagerungen / Ausfallen von Salzen
  • Verkeimung
  • Luft in Pumpe
  • Ein-/Auslassventile kaputt
  • Leck
  • Wechsel von Hochdruck auf Niederdruck-Anlagen
  • schlechtes Signal-zu-Rausch-Verhältnis
  • Retentionszeitschwankung
  • Geisterpeaks

 

 

  • unterschiedliches Gradientenverweilvolumen
Säule
  • schlechte Packungsqualität (alte, gestresste Säule)
  • Verschmutzungen am Säulenkopf
  • Totvolumen
  • flache Peaks
  • schlechte Peakform (Tailing / Doppelpeaks)

Säulenofen
  • Temperaturschwankungen
  • falsch eingestellt
  • Retentionszeitverschiebung
Detektor
  • elektrisches Problem
  • Luft in Messzelle
  • verschmutzte Messzelle
  • defekte Lampe
  • kein Signal
  • (regelmäßiges) Rauschen

Integrationsparameter
  • zu wenig Datenpunkte
  • zu hoher Threshold
  • zu großes Rauschen
  • ungenügende Auflösung
  • Fehler in der Peakflächenermittlung

Minimierung von Fehlern

Deswegen ist das A und O eine Minimierung der Fehlermöglichkeiten im Vorfeld, wie z.B. durch regelmäßiges und richtiges Spülen der HPLC-Säulen, der Pflege und Wartung der HPLC-Anlage selbst, sowie die Kalibrierung der Geräte in regelmäßigen Intervallen. Aber natürlich auch durch den Einsatz von geschultem und gut ausgebildetem Personal, das versteht welchen Weg die Probe nach der Aufarbeitung von der Injektion bis zur Detektion nimmt und welche Einflussfaktoren es auf die Peakfläche gibt, und dementsprechend vorausschauend agiert. (vgl. Abbildung 1)

Fehlerursachenanalyse

Beim Auftritt eines Fehlers besteht die erste Hürde darin zur Erkennen, das ein Problem besteht (vgl. Abbildung 2). Eine unzureichende Symmetrie des Peaks oder ein schlechtes Signal-zu-Rausch-Verhältnis, die eine korrekte Integration womöglich unmöglich machen, oder Retentionszeitschwankungen, die dazu führen das Verunreinigungen falsch zugordnet werden, fallen nur dem geschulten Analytiker ins Auge. Hilfreich ist immer ein Vergleich der aktuellen Analytik mit alten Chromatogrammen und Ergebnissen. Der zweite Schritt besteht darin zu analysieren, worin die Ursache des Fehlers liegt (z.B. Temperaturschwankungen bei Retentionszeitschwankungen) und diese zu korrigieren. Dieser Eingriff ins System kann entweder zu dem gewünschten Erfolg führen oder man beginnt wieder von vorne und stellt eine neue Hypothese für die Ursache auf.

Abbildung 1: Ishikawa-Diagramm

Abbildung 2: Fehlerursachenanalyse


Abbildung 3: kaputte Säulenköpfe und resultierende Peaks

Abstract

Der Begriff „Outsourcing“ scheint heutzutage in vielen Bereichen allgegenwärtig.
Im Wesentlichen bedeutet er, dass ein Unternehmen auf Dienstleistungen oder Ressourcen Dritter zurückgreift, um Aufgaben, die ursprünglich das eigene Unternehmen erfüllen muss, weiterzugeben. In Zeiten, in denen die Hersteller von Arzneimitteln mit stetig wachsenden Anforderungen an das Produkt und sich selbst sowie der steigenden Komplexität der durchzuführenden Aufgaben konfrontiert werden, ist die Auftragsvergabe an Dritte mittlerweile nicht mehr wegzudenken. Besonders gerne wird hierbei neben der Lohnherstellung die Analytik, meist innerhalb der Qualitätskontrolle, aber auch im Bereich der Zulassung oder Entwicklung, an Auftragslabore weitergegeben. Dies erfolgt aufgrund limitierter technischer und personeller Ausstattung oder aus den rein wirtschaftlichen Aspekten, die damit zusammenhängen. Die Wege, die bis zur erfolgreichen Durchführung eines Projektes durch Dritte gegangen werden müssen, können durchaus so manchen Stolperstein zwischen dem Entschluss einen Auftrag weiterzugeben, der Suche nach einem geeignetem Partner und der letztendlich erfolgreichen Durchführung durch diesen, verstecken. Essentiell für den Erfolg der vergebenen Projekte bzw. Analysen ist hierbei jedoch nicht nur die Qualität des beauftragten Labors, sondern auch die gute Zusammenarbeit zwischen Auftraggeber und Auftragnehmer, wobei gerade die richtige, unmissverständliche Kommunikation einen wichtigen Stellenwert einnimmt.

Den vollständigen Artikel können Sie sich hier herunterladen:
Outsourcing von Analytik in der Pharmaindustrie

Die Wasserbestimmung nach Karl-Fischer gehört zu den Standardverfahren im analytischen Labor und ist gleichzeitig die wichtigste Methode zur Bestimmung des Wassergehalts. Dies liegt vor allem an ihrer hohen Selektivität im Vergleich zu traditionellen Verfahren wie beispielsweise die Trocknung im Trockenschrank, welche viele potentielle Fehlerquellen bietet.

Das Prinzip der Reaktion ist, dass Schwefeldioxid nur in Anwesenheit von Wasser mit dem Iod reagiert, so kann das Wasser in Gegenwart von Schwefeldioxid und einer organischen Base mit Iod titriert werden.

Bunsen-Gleichung (bei Abwesenheit von Alkoholen)

2 H2O + SO2 + I2 → H2SO4 + 2 HI

In Anwesenheit von Methanol

H2O + I2 + SO2 + CH3OH + 3 RN → [RNH]SO4CH3 + 2 [RNH]I [1]

(RNH)·(CH3OSO2) + I2 + H2O + 2 RN → (RNH)·(CH3OSO3) + 2 (RNH)·I [2]

Früher wurde meist die Base Pyridin verwendet, mittlerweile werden jedoch besser geeignete Amine verwendet.

Während früher allein die volumetrische Methode nach Karl-Fischer genutzt wurde, wird heute meist die coulometrische genutzt. Beide Bestimmungen erfolgen iodometrisch und sind mittlerweile standardmäßig automatisiert. Während bei der volumetrischen Methode das Iod zutitriert wird, wird bei der coulometrischen Methode das Iod aus Iodid oxidiert. Durch das Anlegen einer Spannung kann gemessen werden ab welchen Punkt das Iod nicht mehr mit dem Wasser abreagiert, sondern mit dem Iodid ein Redoxpaar bildet.

Die Applikationen bieten ein vielfältiges Analysenspektrum von anorganischen und organischen Feststoffen, Flüssigkeiten und Gasen, sowie Proben mit komplexen Matrizes.

Praktisch stellt es sich so dar, dass die coulometrische Titration nach Karl-Fischer für feste, flüssige und gasförmige Proben im Arbeitsbereich von ca. 10µg bis 5 mg Wassergehalt und die volumetrische Titration für flüssige und gasförmige Proben mit ca. 200µg bis 50 mg Wassergehalt geeignet sind.

Bei HHAC stehen beide Methoden mit vielen Applikationen für unterschiedliche Fragestellungen zur Verfügung.