DGZfP-JAHRESTAGUNG 2002

ZfP in Anwendung, Entwicklung und Forschung

START Beiträge > Vorträge > Qualitätsmanagement:

Das Basisanliegen von Zuverlässigkeitsuntersuchungen und eine Momentaufnahme im internationalen Geschehen

Christina Müller, Uwe Ewert, Martina Scharmach (BAM Berlin)
Jörg Völker (Siemens Power Generation Berlin)
Lloyd Schaefer (Honeywell, Phoenix, USA)
Kontakt: C. Müller, U. Ewert

1 Das Basisanliegen - Einleitung

Mit der zunehmenden Zahl akkreditierter ZfP-Firmen und zunehmender Anwendung risikobasierender Konzepte ergibt sich die Notwendigkeit, internationale Standards wie die DIN EN ISO 17025 und darüber hinausgehende Richtlinien bei der Verfahrensauswahl in der ZfP zu berücksichtigen. Dieser Aufsatz soll aufzeigen, welche internationalen Aktivitäten gegenwärtig für die Zuverlässigkeitsbetrachtungen von Bedeutung sind (siehe auch [1]). In Übereinstimmung mit den Vereinbarungen und Definitionen der European-American Workshops zur Zuverlässigkeit [2, 3] gilt: Das Basisanliegen der Zuverlässigkeitsuntersuchungen beliebiger diagnostischer Systeme besteht darin, den Grad festzustellen mit dem das Prüfsystem in der Lage ist, seinen vorgesehenen Zweck zu erfüllen. Im Falle der ZfP besteht dieser Zweck zumeist in der Aufgabe, Bauteildefekte aufzufinden und zu beschreiben bzw. die Defektfreiheit von Bauteilen zu bestätigen, sowie Wanddicken zu messen oder Material zu charakterisieren.

Das Basisanliegen der Zuverlässigkeitsuntersuchungen findet seinen Niederschlag bei folgenden international relevanten Aktivitäten:

  • neue ISO 17025 als Notwendigkeit mit variablen Möglichkeiten der Verfahrensvalidierung
  • als Kettenglied in RBLM (Risk Based Life Time Management) (r) EPERC-Initiative
  • CEN/TC138/WG9 "Qualifizierung von ZfP-Verfahren"
  • Six-Sigma Strategie: als notwendiger Bestandteil
  • ASNT-Initiative: Standing Committee on NDE Reliability: als Arbeitspaket
  • Produkthaftung: als notwendige Voraussetzung für die Handhabung

Im folgenden wird auf die einzelnen Punkte näher eingegangen.

2 Die neue ISO 17025 und die Notwendigkeit der Verfahrensvalidierung mit variablen Möglichkeiten

Das in Kraft treten der neuen DINISO/IEC17025 (April2000) "Allgemeine Anforderungen an die Kompetenz von Prüf- und Kalibrierlaboratorien" in Nachfolge der DIN EN45001 stellt für die zerstörungsfreie Prüfung eine Herausforderung dar, denn neben der allgemeinen Richtlinie für Kompetenznachweise ist diese Norm das Basisdokument für Akkreditierungen. Für diejenigen Firmen und Laboratorien, die die Akkreditierung für sich als anerkannte Form des Kompetenznachweises gewählt haben, sind folgende Punkte in der Norm bzgl. der Verfahrensvalidierung von Bedeutung (Wir zitieren die Norm im Originaltext.):

2.1 Punkt 5.4.4: Nicht in normativen Dokumenten festgelegte Verfahren
Wenn es notwendig ist, Verfahren anzuwenden, die nicht in normativen Dokumenten festgelegt sind, so muss dies Gegenstand der Vereinbarung mit dem Kunden sein, die dessen Anforderungen und den Zweck der Prüfung und/oder der Kalibrierung beinhaltet. Das entwickelte Verfahren muss vor der Anwendung angemessen validiert worden sein.

2.2 Punkt 5.4.5: Validierung von Verfahren
2.2.1 Punkt 5.4.5.1:
Die Validierung ist die Bestätigung durch Untersuchung und Bereitstellung eines Nachweises, dass die besonderen Anforderungen für einen speziellen beabsichtigten Gebrauch erfüllt werden.

2.2.2 Punkt 5.4.5.2:
ANMERKUNG2: Zur Bestimmung der Verfahrensmerkmale sollte eine der folgenden Methoden oder eine Kombination davon verwendet werden:

  • Kalibrierung mit Bezugsnormalen oder Referenzmaterialien;
  • Vergleich mit Ergebnissen, die mit anderen Verfahren erzielt wurden;
  • Vergleiche zwischen Laboratorien;
  • systematische Beurteilung der Faktoren, die das Ergebnis beeinflussen;
  • Beurteilung der Ergebnisunsicherheit auf der Grundlage wissenschaftlichen Verstehens der theoretischen Grundlagen des Verfahrens und praktischer Erfahrung.

2.3 Punkt 5.4.6: Schätzung der Messunsicherheit mit Punkt 5.4.6.3:
Bei der Schätzung der Messunsicherheit müssen alle Unsicherheitskomponenten, die für den betreffenden Fall von Bedeutung sind, in Betracht gezogen werden, wobei angemessene Auswertungsverfahren zu verwenden sind.

ANMERKUNG3: Weitere Informationen sind in den Normen der Reihe ISO5725 und dem "Guide to the Expression of Uncertrainty in Measurement" enthalten (siehe Literaturhinweise).

In den folgenden Abschnitten soll Hilfestellung dafür geben werden, wie ungenormte Verfahren in der ZfP validiert werden können, indem eine "Werkzeugkiste" bereitgestellt wird, die Validierungsmethoden für die verschiedenen Niveaus der Sicherheitsanforderungen und den möglichen Aufwand zur Verfügung stellt. Dabei ist uns wohl bewusst, dass ähnliche Werkzeuge in industriell erprobten Prozessen bereits existieren. Die Anwendung der ISO17025 bedeutet auch, die vorhandenen Prozesse systematisch zu beleuchten.

Die Punkte zur Abschätzung der Messunsicherheit wurden hier hinzugefügt. Es muß zur Vorsicht beim Umgang mit der ISO17025 gemahnt werden. Denn es ist klar, dass bei rein "detektiven" ZfP-Verfahren (Fehlersuche und -klassifizierung), die Messunsicherheit in Form der üblichen Standardabweichung von Messwerten nicht angewandt werden kann. Die Erweiterung der ISO17025 auf qualitative Prüfverfahren ist in Vorbereitung. Vorab wurde von der BAM eine interne Richtlinie zur Bestimmung der Ergebnisunsicherheit bei qualitativen Prüfergebnissen erarbeitet [6].

Ein wichtiger Gesichtspunkt ist auch, dass beim Validieren oder beim Bestimmen der Messunsicherheit nicht über das Ziel hinaus geschossen wird bzgl. des zu vertretenden Aufwandes und der Kosten im Verhältnis zum Risiko für die Sicherheit von Personen und Anlagen. In Abbildung1 demonstrieren wir dieses

Abbildung 1: Schema der bedarfsgerechten Validierung

Prinzip an Hand der "bedarfsgerechten Zuverlässigkeit", wo mit wachsendem Risiko für die öffentlichkeit und entsprechend zur Verfügung gestellten Ressourcen, der Aufwand für die Tests steigt und eine erhöhte Sicherheit der Prozesse gewährleistet. Auf der anderen Seite sind für weniger hohe Risiken auch einfachere und billigere Methoden legitim.

Hierzu noch einmal die ISO17025 Punkt5.4.5.3 ANMERKUNG3 im Originalzitat:

Bei der Validierung sind immer die Kosten, Risiken und technischen Möglichkeiten abzuwägen. In vielen Fällen können der Bereich und die Unsicherheit der Werte (z.B. für Genauigkeit, Nachweisgrenze, Selektivität, Linearität, Wiederholpräzision, Reproduzierbarkeit, Robustheit, Querempfindlichkeit) mangels Information nur in vereinfachter Weise angegeben werden.

3 Möglichkeiten der Verfahrensvalidiereung

In die bunte Palette der unter Punkt5.4.5.2 angebotenen Möglichkeiten zur Bestimmung der zur Validierung heranzuziehenden Verfahrensmerkmale lassen sich die nachfolgenden, in der ZfP bereits üblichen Kalibrier - bzw. Justiermethoden und Verfahren zum Vergleich und zur Bewertung einordnen.

Und hier noch einmal die Norm im Originalzitat, um den Begriff "Verfahrensmerkmale" im Zusammenhang zu erläutern:

Punkt 5.4.5.3 ANMERKUNG 1:
Validierung schließt Beschreibung der Anforderungen, Bestimmung der Verfahrensmerkmale, eine Prüfung dass die Anforderungen durch Anwendung der Methode erfüllt werden, und eine Aussage zu Ihrer Gültigkeit ein.

3.1 Vergleichskörperuntersuchungen
Die älteste in der ZfP verbreitete Methode zur Kalibrierung bzw. Justierung von Signalen, die Ihren vorgesehenen Zweck erfüllen sollen, ist die Vergleichskörpermethode. Hier Beispiele in zwei Anforderungsstufen aus UT und RT:

Abbildung 2: Vergleichskörper in der ZfP

Zu den Vergleichkörpern ist zusätzlich zu bemerken, dass sie oftmals in der die Verfahrensanwendung beschreibenden Norm herangezogen werden. Dieser Valdierungsschritt basiert auf vielen Jahren praktischer Erfahrung der Experten. Der Schwachpunkt ist der fehlende Nachweis ganz bestimmter und besonders komplizierter Defektsituationen, wie z.B. bei intergranularer Spannungs-Riss-Korrosion.

3.2 ROC (Relative or Receiver Operating Characteristic)
Bei der ROC-Methode werden Blindversuche an einer gleich großen Zahl von Bauteilabschnitten mit Defekt und ohne ausgeführt. Aus den Detektionsergebnissen werden die Wahrscheinlichkeiten für die Defektauffindung (POD Probability of Detection) und Falschanzeigen (Probability of False Alarm) ermittelt und in einem Diagramm für verschiedene Einstellungen der Empfindlichkeit oder des "Recordinglevels" aufgetragen. Entlang einer ROC-Kurve wächst diese Empfindlichkeit von links unten nach rechts oben. Damit werden immer mehr von allen vorhandenen Defekten erfasst, aber auch der Anteil der Falschanzeigen wächst. Jedes ZfP System besitzt eine solche charakteristische ROC-Kurve, bei der man einen optimalen Operationspunkt bestimmen kann.

Hier soll die Wichtigkeit des Vergleichs der Methoden unter Einbeziehung der variablen Empfindlichkeit betont werden, da falsche Eindrücke entstehen können wenn zwei Verfahren mit unterschiedlichen Empfindlichkeitseinstellungen verglichen werden.

Abbildung 3: ROC Kurven von ZfP-Systemen unterschiedlicher Zuverlässigkeit

Das System1 erzielt stets mit gleicher Wahrscheinlichkeit richtige und falsche Prüfergebnisse, d.h. man könnte hier auch auswürfeln ob ein Prüfabschnitt defekt ist oder nicht. Das System7 dagegen (äußerste linke Kurve) erzielt bei 96%iger Wahrscheinlichkeit für richtige Aussagen nur 10% Falschaussagen, bei einer Justierung auf 70% Richtiganzeigen ist der Anteil der Falschanzeigen sogar kleiner als 2%. Man erkennt, dass die Prüfqualität um so besser ist, je mehr sich die ROC-Kurve an die linke obere Ecke anschmiegt: sie wächst von Kurve2 bis 7 an und würde mit der Eckkurve selbst ein ideales System repräsentieren, das bei 0%Falschaussagen 100%Richtigaussagen erzielt. Weiterhin kann man aus dem Diagramm entnehmen, dass die Größe der Fläche unter der ROC-Kurve ein gutes Maß für die globale Prüfqualität darstellt: Von der Kurve0 bis zur Eckkurve wächst sie von 0.5 bis 1.0. Würde man jetzt System7 bei einer sehr geringen Empfindlichkeit mit System3 bei einer hohen Empfindlichkeit vergleichen, würde man fälschlicherweise System3 wählen, da System7 noch nicht sein volles Potential der Auffindwahrscheinlichkeit bei der niedrigen Empfindlichkeit entfaltet hat.

3.3 POD Probability of Detection - Fehlerauffindwahrscheinlichkeit
POD und ROC gehören zur gleichen statistischen Familie, sind nur nach unterschiedlichen Variablen aufgefächert. Ein Punkt in der ROC-Kurve bei einer fixen Falschanzeigenrate (fixiert bei einer festen Empfindlichkeit) wird betrachtet. Der POD-Wert wird aufgefächert auf die verschiedenen, vorkommenden Fehlergrößen. Neben der Haupt-POD-Kurve als die mittlere Erwartung des POD-Wertes für eine Fehlergröße wird noch die 95%Vertrauenskurve herangezogen als Bereich in dem die POD-Werte streuen (bei 100Wiederholungen fallen 95 in das Streuband).

Abbildung 4: Ermittlung der Fehlerauffindwahrscheinlichkeit (POD)

Die Ursprungsversion der POD stammt aus der amerikanischen Luftfahrtindustrie, insbesondere aus den Bereichen der Prüfung der hochbelasteten Gasturbinen im Militärsektor. Daher kann man zwar das methodische Grundkonzept auf andere Bereiche übertragen[9] - muss jedoch die "Anforderungsschraube" bei normalen Anwendungen wesentlich lockerer lassen.

Das zugrunde liegende "â versus a"Modell, siehe Abbildung 5 und [8], setzt voraus, dass sich die gemessenen ZfP-Signale aufgetragen über der zugehörigen Defektgröße a in einem logarithmischen Maßstab linear verhalten. Aus der Verteilung der Signalgrößen kann dann die POD für einen festgelegten Schwellwert ermittelt werden. In Abbildung6 sehen wir auf der rechten Seite das "âversusa" Diagramm für die manuelle Routineprüfung von Gasturbinenteilen mit Wirbelstrom. Bereits die "Justierdaten" an künstlichen Schlitzen zeigen einen schlechten Fit und eine ebenso schlechte POD-Kurve (rot). Die Handprüfung wurde durch Prüfung mit einem automatischen Scannsystem abgelöst. Und die punktuelle bzw. linienhafte Prüfung durch eine flächenhafte Abrasterung abgelöst. Die damit erreichte erhöhte Prüfsicherheit spiegelt sich in einem guten Fit im "âversusa"Modell und einer entsprechenden guten POD-Kurve wieder, bei der die POD und die 95%Vertrauenskurve schon bei kleinsten Fehlergrößen die 95%Marke erreichen. Die Resultate dieses Wirbelstromsystems können dann ohne Bedenken für weitere Berechnungen zur Lebensdauer herangezogen werden.

Abbildung 5: Die â über a Methode

Abbildung 6: Verbesserung der POD bei der ET Prüfung

4 RBLM (Risk Based Life Time Management) EPERC-Initiative

Die oben besprochene POD-Methodik ist ein notwendiger Bestandteil in der Strategie zum "Risikobasierten Lebensdauermanagement" wie in der Abbildung 7 beschrieben. Die Strategie des RBLM [10] ist Grundlage für die Prüfungen und Wartungen von Industrieanlagen unter Minimierung des Risikos und der Kosten. Wie im Zyklus in Abb. 7 dargestellt, werden zunächst die Bauteilabschnitte ausgesucht, die sowohl besonders schadensanfällig sind, als auch im Schadensfall ein hohes Sicherheitsrisiko darstellen. Diese werden bevorzugt geprüft. Die Resultate der Prüfung bzgl. der Fehlerpositionen, -größen, -ausrichtungen und Ihre Zuverlässigkeit müssen quantitativ vorliegen als Eingangsgrößen für eine probabilistische Lebensdauerabschätzung des Bauteils, welche dann wiederum die besonders gefährdeten Stellen ausweist.

Abbildung 7: Risikobasiertes Lebensdauermanagement und validierte ZfP

Hierzu gibt es eine spezielle EPERC- Initiative (EPERC: European Pressure Equipment Research Council)

So ist z.B. das Forschungsprojekt: "Quantitative Zuverlässigkeit der ZfP für sichere Druckgeräte, Risikoorientierte Inspektion und Lebensdauermanagement mit

dem Aufbau eines ZfP-Referenzkataloges für Druckgeräteprüfung" in ein übergeordnetes vernetztes Forschungsprojekt eingebettet [11].

5 CEN - Technical Report

Die Initiative CEN/TC138/WG9 "Qualifizierung von ZfP-Verfahren" hat einen technischen Bericht für die Vorgehensweise bei der Qualifizierung von ZfP-Verfahren vobereitet, der für alle Industriebereiche gleichermaßen gelten soll.

Die Vorlage für den Technischen Bericht ist zur Verabschiedung im TC fertiggestellt (33)

6 Six-Sigma

6.1 Was ist Six-Sigma?
Six-Sigma ist eine dominante industrielle Prozess-Management-Philosophie[12]. Zielstellung ist die Fehler- bzw. Ausfallquote bis zur 6 Sigma-Grenze in der Gaußkurve zu schieben und die damit zusammenhängenden Verluste einzusparen. Folgende Schritte werden nach [13] unternommen: Der erste Schritt ist das Identifizieren der Hauptprodukte und Hauptkunden. Im zweiten Schritt werden die für den Kunden wichtigen Merkmale bestimmt. Der dritte Schritt besteht darin, für die wichtigen Merkmale Messgrößen zu definieren und ein überwachungskonzept für diese Messgrößen aufzubauen. Sodann wird der Leistungsstand, also der Grad der Erfüllung dieser wichtigen Merkmale festgestellt. Aus den Daten lassen sich Prioritäten für Projekte und Problembereiche ableiten. Jetzt startet die Projektarbeit, bei dem die festgelegten Methoden zur Anwendung kommen. Mit wachsendem Erfolg wird die Methode im Unternehmen immer weiter ausgebreitet. Abbildung 8 zeigt, wie die Prozesse zentriert und in der Variation reduziert werden sollen.

Abbildung 8:

6 Sigma bedeutet PROZESS-TRANSPARENZ.
Für die ZfP erfordert 6Sigma: Messung und Monitoring der Nachweis-Zuverlässigkeit, um abzusichern, dass das Produktfehlerniveau unter 6-Sigma bezogen auf das Produkt-/Prozessziel liegt. Hierzu müssen alle wesentlichen Parameter bekannt sein.

Six-Sigma-Prozess und DMAIC
Der Six-Sigma-Prozess und das DMAIC (siehe Abb. 9) im verbessernden Prozessmodell (Improvement Process Model - IPM) enthält die Validierung der eingesetzten ZfP automatisch.

Abbildung 9: DMAIC

7 ASNT - Initiative

ASNT Reliability ad hoc group

Auf der Basis des aktuellen industriellen Bedarfs in den USA übernimmt das ASNT die Rolle der Beratung zur Sicherstellung der ZfP-Zuverlässigkeit. Es wird an einer "... Recommended practice for inspection reliability assessment ..." gearbeitet [14]. Im März2002 wurde ein Standing Committee "Reliability of NDE" gegründet.

8 Produkthaftung

Definition: [15]

Produkthaftung ist kurz gesagt: Die Haftung für Folgeschäden durch ein mangelhaftes Produkt.

Was nützt hier die Validierung? Eine sorgfältige Auswahl und Validierung (d.h. Sicherstellen, dass der vorgesehene Zweck erfüllt wird) der produktionsbegleitenden ZfP kann das Eintreten eines Schadenfalls von vornherein verhindern. Beim Eintreten eines Schadensfalls hilft die dokumentierte Validierung nachzuweisen, dass der Produzent seiner Sorgfaltspflicht (sprich Verkehrssicherungspflicht) nachgekommen ist.

9 Schluss und Ausblick

Im obigen Text wurden bereits vielfältige Möglichkeiten aufgezählt, wie man den Herausforderungen der ISO 17025 zur Validierung ungenormter Verfahren begegnen kann. Natürlich gibt es noch viele offene Fragen, unter anderem die, wie die Konzepte der Validierung aus der ZfP z.B. auf das Gebiet der Minensuche übertragen werden können. Das Problem der Minimierung des Aufwandes wird mit einem modularen Konzept, welches auf der "Reliability Formula" basiert, angegangen. Alle diese Probleme und Fragen werden auf dem in Kürze stattfindenden Workshop (Abb. 10-11) eingehend diskutiert. Sie sind herzlich eingeladen!

10 Internationales Diskussionsforum zu Fragen der Zuverlässigkeit:
3rd European-American Workshop on Reliability of NDE and Demining
11. - 13. September 2002, Berlin, Germany

Abbildung 10: Workshopankündigung 1

Abbildung 11: Workshopankündigung 2

11 References

  1. Gerd Dobmann, Zuverlässigkeit und Qualifizierung der ZFP - Leistungsmerkmale zur Bestimmung ihres Stellenwertes als eine qualitätssichernde Maßnahme, DGZfP-Berichtsband 76-CD, Vortrag 14, Fachtagung Bauwerksdiagnose 2001
  2. ASNT Topical Conference Paper Summaries Book of the American-European Workshop on Nondestructive Inspection Reliability, September 21-24,1999, NIST, Boulder, CO, USA, ISBN:1-57117-041-3
  3. Proceedings of the "European-American Workshop Determination of Reliability and Validation Methods on NDE", Berlin, Germany, June18-20,1997, ISBN3931381-18-8
  4. Nockemann, C., Heidt, H., and Thomsen, N. 'Reliability in NDT: ROC study of radiographic weld inspections', NDT & E International 24 5 (1991) pp 235-245
  5. Metz, C.E. 'Basic Principles of ROC analysis', Seminars in Nuclear Medicine 8 4 (1978)
  6. DIN EN ISO/IEC17025, Allgemeine Anforderungen an die Kompetenz von Prüf- und Kalibrierlaboratorien, April 2000
  7. Qualitätsmanagement-Handbuch der BAM, QMH-P-10.6, Fassung vom 1998-04-29, QM-Richtlinie: Ergebnisunsicherheit qualitativer Prüfergebnisse
  8. A. P. Berens, "NDE Reliability Data Analysis", Metals Handbook, 9th edition, Vol. 17, pp. 689 (ASM International, 1989)
  9. "NON-DESTRUCTIVE EVALUATION SYSTEM RELIABILITY ASSESSMENT", MIL-STD-1823 (pending)
  10. Jovanovic, A (1999) Integrated Approach to risk aware life management of plant components, Keynote lecture, Trans. of the 15th Int. Conf. SmiRT-15 Seoul, Korea, August 15-20, 1999, Volume 1, Plenary Lectures, Ed. Sung Pil Chang, pp 93-116
  11. http://www.mpa-lifetech.de/FP6/HTML_Files/Main/FP6Home.htm
  12. Mikel Harry, Richard Schroeder "Six Sigma", ISBN 3593365510
  13. http://www.q-das.de/6-sigma_ausbildung.htm
  14. Position Paper on NDT Reliability Studies, ASNT Ad hoc Committee on NDT Reliability, ASNT 2001, http://www.asnt.org/latestnews/reliability.htm
  15. Carl-Otto Bauer, Christian Hirsch, Gerd Eidam, Gerhard Otto: "Produkthaftung", Herausforderung an Manager und Ingenieure, Herausgegeben von Carl-Otto Bauer und Christian Hirsch, Springer Verlag 1994, ISBN 3-540-55519-6

STARTHerausgeber: DGfZPProgrammierung: NDT.net