MSA (PMU) bei Zugversuch2010-06-11T12:03:30+01:00

QM-Forum Foren Qualitätsmanagement MSA (PMU) bei Zugversuch

Ansicht von 14 Beiträgen - 1 bis 14 (von insgesamt 14)
  • Autor
    Beiträge
  • christer
    Teilnehmer
    Beitragsanzahl: 3

    Hallo Quali-Zirkel

    Bin als Student im Praxissemester gerade beim durchführen einer MSA nach QS 9000 (3. Ausgabe) im Bereich Materialprüfung, genauergesagt in einem Prüflabor für Zugversuche eines Stahl- und Walzwerks.

    über interne und extere Ringversuche habe ich schon Angaben über die Wiederholgenauigkeit und deren Standardabweichung (Verfahen 1) der Maschinen (ist nach meiner Meinung nich ganz richtig aber ein guter Ansatz).
    Meine Frage bei einer GRR betrifft die Auswahl der Proben für die 3 Prüfer (2 Probenwiderholungen bei „10 Teilen“ also 60 Proben Zugversuch)…

    Sollten alle Proben aus der gleichen Charge und Probendicke sein oder verschiede Werkstoffe mit verschiedenen Walzabmessungen?.
    Welchen Einfluss hat dies auf die Wiederhol- und Vergleichspräzision und wie werte ich das Sinnvoll aus?

    MfG Christer

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo christer,

    willkommen im Qualitäter-Forum :)

    Schicke Fragestellung. Das lässt sich leider nicht in zwei Sätzen sagen und leider fehlt mir diese Woche die Zeit, darauf ausführlich zu antworten.

    Ich hab da aber noch einige Fragen, die die Antwortmöglichkeiten einschränken:

    Wofür soll das Mess-System qualifiziert werden?
    gleiche Werkstoffe / verschiedene Werkstoffe
    gleiche Walzabmessungen / verschiedene Walzabmessungen

    Gibt es einen Prüfereinfluss oder ist das eine automatische Prüfung?

    Bei der Auswertung von zerstörenden Prüfungen hilft die QS9000 / MSA 3 nicht wirklich weiter. Die statistische Methode dahinter ist ein so genanntes geschachteltes Modell (auch geschachtelte MSA).

    Ich würde das auf keinen Fall zu Fuß oder mit Excel auswerten, weil die Formeln wirklich unschön sind. Vermutlich fehlen sie auch deshalb in der QS9000 / MSA 3.

    Weitere Informationen zur geschachtelten MSA findest Du z. B. in der Minitab-Hilfe. Eine kostenlose 30-Tage-Version von Minitab gibt es hier.

    Ich hoffe das hilft Dir ein Stück weiter, Details krieg ich vermutlich erst Ende nächster Woche hier ins Forum geschrieben.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    christer
    Teilnehmer
    Beitragsanzahl: 3

    Hallo Barbara

    Danke für den Hinweis auf minitab, die demo hatte ich gestern schon auf meinem Netbook installiert, gerade wegen dessen ausführlichen und detailierten Hilfe. Die Firma bietet mir wenn nötig auch ne Lizens zum arbeiten an, wenn ich die Daten generiert habe.

    Wenn möglich und genug Zeit noch vorhanden ist soll ich vielleicht auch die MSA bei Härteprüfung und Spektralanalyse durchführen (1/2 jahr is lang mal sehen, wenn (falls) sich ne Routine einstellt). Aber eins nach dem andern….

    Also die MSA soll an den 3 Maschinen(250KN 600KN und 1000KN) für Zugversuche durchgeführt werden.
    Klar ist der Prüf- und Auswertevorgang automatisiert, aber der Prüfer misst vorher den Durchmesser, spannt die Probe ein und misst nachher die Probenverlängerung nach dem Bruch von Hand. Ausserdem kontrolliert er im Diagramm ob die Bruchdehnung richtig gemessen wurde und gleicht das Diagramm entsprechend an (also nix wirklich automatisiertes).

    Interessant sind die Wiederhol- sowie die Vergleichspräzision für die MSA (oder PMU???); für den Kunden die Genauigkeit, für den Chef der Prüfer. Ihn interessiert zum einen ob beim Prüfer Wissens- bzw. Verständnisslücken vorhanden sind oder noch besser ob Erfahrung in den Messergebnissen sichtbar werden. Er verteidigt seine Mitarbeiter und deren Erfahrungen und Fachwissen! Es gibt Phasen in der Produktion in denen einfach weniger Arbeit da ist und das Lohnbüro rennt ihm dann immer die Tür ein. Deshalb die Frage nach dem Einfluss der Probenwahl auf GRR und dessen optimale Auswertung. Die Werkstoffwahl und Probenart muss ich entscheiden, sollte aber meine Ziele und Entscheidungen schon begründen können.

    Als teilweise Zulieferer der Automobilindustrie wird von dort immer nach der Zertifizierung nach DIN 16949 gefragt.
    Deshalb die überlegung der MSA nach der QS9000 / MSA 3. zum vorzeigen auf Anfrage.

    OK, ne geschachtelte MSA mit X-quer nach Prüfer sortiert und R nach Prüfer sortiert, XY-Auswertung (vielleicht auch erweitert wegen z.B. Temperatur).

    %AV , %EV sind stark abhängig von PV und TV, also um „schöne Werte“ zu bekommen müsste ich unterschiedliche dicken und verschiedene Werkstoffen benutzen, ncd springt dann halt in die Höhe. Verlier ich dann nicht meine Prüfer aus den Augen, um den Kunden zu gefallen?
    Ich plane zur Zeit allerdings gleicher Werkstoff und gleicher Durchmesser zu prüfen.

    Ich werde jeden Prüfer die Durchmesserbestimmung (3mal) und die anschliessende Längenmessung (3mal) anonymisert durchführen lassen um mehr Angaben über sie zu bekommen.

    Weitere Frage :
    Minitab oder QS-Stat was kann mehr, ist intuitiver zu bedienen?
    Die Autoindustrie macht (soweit ich weis…) alles mit QS-Stat, wäre es nicht sinnvoll das selbe zu nutzen?

    MfG

    Christer

    diamant-schwarz
    Mitglied
    Beitragsanzahl: 100

    deine aufgabe ist aus mehreren gründen schwierig, vorallem weil es eine zerstörerische prüfung ist.
    oder liefern die proben so exakt wiederholbare ergebnisse?
    besser wäre es meines erachtens die tatsächlichen messungen die ein prüfer an dem prüfstück vornimmt wiederholen zu lassen und nicht jedes mal ein neues prüfstück zu nehmen. d.h. ein prüfstück langziehen und dann von jedem prüfer mehrmals die messungen daran vornehmen lassen.
    es sei denn die prüfstücke sind nach dem zugtest wirklich identisch.
    oder du willst diese streuung der prüfstücke auch noch mit drin haben.

    also da musst du schon genau wissen was du willst. wenn die prüfstücke von sich aus streuen werden wird die MSA ergeben, dass die streuung von prüfer zu prüfer ganz schlecht ist (AV)obwohl die vielleicht trotzdem ganz gut gemessen haben. und das zieht dann auch die restlichen ergebnisse runter.

    und zum ndc: mit diesem wird festgestellt wieviele unterscheidbare bereiche es innerhalb der toleranzgrenzen gibt.
    daher wäre es absolut sinnfrei verschiedene werkstoffe und stärken mit hinein zu werfen um einen grossen ndc zu bekommen nur weil hier ein grosser wert gefordert ist.

    du brauchst erstmal die toleranzgrenzen in denen deine proben liegen sollen. ich kann mir schwer vorstellen, dass für verschiedene stärken und materialarten der selbe toleranzbereich in frage kommt.

    die probestücke für verfahren 2/3 sollen so ausgewählt werden, dass sie den gesamten toleranzbereich abdecken, nur so kann man herausfinden ob ihre lage auch erkannt wird.
    wie man das aber bei einem zugtest vorher sehen will stelle ich mir sehr schwierig vor. daher würde ich auch lieber die bereits gezogenen prüfstücke vermessen lassen.

    Gruss

    Markus

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo christer,

    die Bezeichnungen für die Verfahren in der Mess-System-Analyse werden gerne ziemlich wild durcheinandergeworfen, deshalb hier mal eine kleine Übersicht:

    ******************************************************
    * Bewertung des Mess-Prozesses
    *

    Verfahren 1:
    auch Studie 1, Typ 1, Messmittelfähigkeit, Prüfmittelfähigkeit, Cg/Cgk
    nach QS9000: Linearität und Stabilität

    Verfahren 2:
    Gage R&R mit Xquer-R oder ANOVA, gekreuzte Gage R&R

    Verfahren 3:
    wie Verfahren 2 ohne Bediener-/Prüfer-Einfluss (automatische Mess-Systeme)

    Mess-Situationen mit besonderen Bedingungen:
    zerstörende Prüfung: geschachtelte Gage R&R (englisch: nested)
    Berücksichtigung weiterer Einflüsse: erweiterte/komplexe MSA
    VDA Bd 5 / GUM
    nach QS9000: PISMOEA (Part-Instrument-Standard-Method-Operator-Environment-Assumptions)

    ******************************************************
    * Bewertung des Mess-Prozesses: Ziele und Methoden
    *

    ***Verfahren 1***

    Fragestellung: Wie genau (Lage & Streuung) kann (jeweils) 1 Teil bei Wiederholmessungen unter gleichen (homogenen) Bedingungen gemessen werden?

    Bestimmung der Wiederholgenauigkeit (Wiederholpräzision) an 1 Teil mit bekanntem Referenzwert, mind. 25 Messwerte, 1 Prüfer, Toleranzangabe notwendig
    -> Prüfmittelfähigkeit bzw. Messmittelfähigkeit: Cg/Cgk
    Der Bezugsbereich unter dem Bruchstrich ist standardmäßig 6S. Trotz anders lautender Artikel und Meinungen gibt es keine statistisch haltbare Begründung dafür, diesen Bezugsbereich auf 4S zu reduzieren. (Um genau zu sein gibt es 1 Artikel in dem steht „wir haben das untersucht und es macht keinen Unterschied“. Was wer wann mit wie viel Teilen bei welchen Messmitteln untersucht hat und wie sich die Ergebnisse unterscheiden, steht da nicht.)

    nach QS9000: mehrere Teile mit bekannten Referenzwerten, je Teil mind. 10 Messwerte, 1 Prüfer
    -> Test auf Bias (systematische Abweichung) je Teil, Test auf Linearität (Steigung/slope)

    ***Verfahren 2***

    Fragestellung: Wie stark verändern verschiedene Prüfer und Prüfteile das Messergebnis?

    Auswahl der Prüfteile:
    Die Teile sollten den gesamten Prozess- und/oder Toleranz-Bereich abdecken, weil das Mess-System in diesem gesamten Bereich qualifiziert wird. Es sollten unterschiedliche Teile verwendet werden um zu prüfen, ob das Mess-System unterschiedliche Teile auch zuverlässig als unterschiedlich identifizieren kann. Gefordert sind ndc>=5, d. h. die Anzahl unterscheidbarer Bereiche (number of distinct categories / ndc) sollte mindestens 5 sein.

    Standard: 10 Teile, 2-3 Prüfer, 2-3 Wiederholungen, zufällige Mess-Reihenfolge
    Die 10 Teile werden bewusst(!) ausgewählt. Die GRR ist eine der wenigen Mess-Situationen, in denen eine Zufalls-Stichprobe schlecht ist, weil darin meist zu wenig Grenzgänger-Teile sind. Die zufällige Messreihenfolge heißt, dass jeder Prüfer bei jeder Wiederholmessung eine andere Reihenfolge hat, in der die Teile gemessen werden.

    Bei der Auswertung von Verfahren 2 sind die Vorgaben der üblichen Verdächtigen und der QS9000 sehr ähnlich: Bestimmung der Streuungs-Anteile durch
    + das Messmittel (Wiederholstreuung, Equipment Variation / EV)
    + den Prüfer (Vergleichspräzision, Appraiser Variation / AV)
    + die Prüfteile (Part Variation / PV)

    Dabei sollen EV und AV zusammen weniger als 30% sein:
    GRR = Wurzel( EV² + AV² )
    GRR heißt auch Mess-Unsicherheit (MU). Bei einer GRR <10% ist der Mess-Prozess sehr genau.

    Manchmal wird auch die Gesamtstreuung (Total Variation / TV) mit angegeben. Sie berechnet sich aus EV, AV und PV:
    TV = Wurzel( EV² + AV² + PV²)

    Der Prozentwert (EV%, AV%, GRR%) wird bezüglich eines Referenz- oder Bezugs-Bereichs (reference figure) angegeben. Das kann die Streuung des Prozesses (6S) sein, die Gesamtstreuung aus der GRR (Total Variation / TV) oder die Toleranzbreite. Nur wenn die Werte auf die Toleranz bezogen werden sollen, wird bei der GRR eine Toleranz gebraucht. Wenn Du auf diese Bewertung verzichten kannst, brauchst Du für die GRR keine Toleranz(breite). Werden die Prüfteile aus dem gesamten Prozess-Bereich ausgewählt, kann mit den Messwerten aus der GRR auch die Gesamtstreuung des Prozesses bestimmt werden (nettes Nebenprodukt).

    Die ndc wird berechnet über
    ndc = 1,41 * PV/(Wurzel(EV²+AV²)) = 1,41*PV/GRR
    (und 1,41 ist Wurzel(2)).

    ***Verfahren 3***

    Fragestellung: Wie stark verändern verschiedene Prüfteile das Messergebnis bei einer automatischen Messung (ohne Prüfereinfluss)?

    Standard: 25 Teile, 2 Wiederholungen

    Bis auf den Prüfer-Krams ist Verfahren 3 dasselbe wie Verfahren 2. Die QS9000 kennt für die automatische Prüfung kein eigenes Verfahren.

    ***besondere Mess-Situationen***

    Fragestellung: Wodurch wird ein Messwert beeinflusst?

    -> zerstörende Prüfung:

    Eigentlich ist hier dasselbe Prinzip wie bei Verfahren 2/3 angewendet. Der Unterschied ist, dass durch die zerstörende Prüfung jedes Teil eben nur 1 Mal gemessen werden kann und damit echte Wiederholmessungen unmöglich sind.

    Um trotzdem etwas über eine Art Wiederholgenauigkeit sagen zu können, werden deshalb möglichst ähnliche Teile für „Wiederholmessungen“ verwendet. Anstelle von 10 verschiedenen Teilen (Verfahren 2/3) werden 20-30 Teile genommen, bei denen immer 2-3 sehr ähnlich sind (gleiche Charge, gleiche Produktionsbedingungen, usw.) Damit kann auch den Messwerten der 2-3 „sehr ähnlichen“ Teile jeweils eine Art Wiederholstreuung berechnet werden.

    Da es aber natürlich nicht das Gleiche ist, ob ich 1 Teil 2-3 Mal messe oder 2-3 „sehr ähnliche Teile“ messe, müssen die Auswertungsformeln verändert werden. Und das ist dann eine geschachtelte GRR.

    -> erweiterte/komplexe MSA:

    Die Teile und Mess-Bedingungen für diese Untersuchung werden so ausgewählt, dass sie die gesamte Bandbreite des Mess-Prozesses zeigen. Wenn z. B. die Raumtemperatur wegen der Material-Erwärmung eine Effekt auf das Mess-Ergebnis hat, wird mit verschiedenen Temperaturen (z. B. an verschiedenen Tagen) gemessen.

    Die so entstehende Streuung wird aufgeteilt auf die Streuungs-Verursacher. Stell Dir die Streuung als große Torte vor, von der verschiedene Faktoren wie Prüfer, Teil, Werkstoff, usw. sich einen Teil nehmen. Je größer der genommene Teil ist, desto stärker verändert dieser Faktor die aufgenommenen Messwerte. Das ist das Prinzip der ANOVA/Varianzanalyse, die letztlich hinter den ganzen Auswertungs-Methoden (erweiterte/komplexe MSA, PISMOEA, GUM) steht.

    Am Ende steht (leider) bei der erweiterten MSA nicht mehr 1 GRR-Wert, weil es viel mehr Einflussmöglichkeiten als nur den Prüfer und die Messwiederholung an verschiedenen Teilen gibt. Dafür kannst Du eben besondere Einflüsse und Mess-Situationen mit betrachten und herausfinden, wodurch sich Dein Mess-Prozess stabilisieren bzw. robuster machen lässt.

    ******************************************************
    * MSA für Zugprüfung vs. Durchmesser & Längen-Messung
    *

    Generell halte ich es für hilfreich, ein Fischgrät-Diagramm für den Mess-Prozess aufzumalen. Damit kannst Du erkennen, welche Faktoren das Mess-Ergebnis beeinflussen (können). Im zweiten Schritt kannst Du dann mit Prozess-Kennern zusammen auswählen, welche Faktoren Du/Ihr in Deiner MSA untersuchen möchtest/möchtet.

    Bei der Auswahl der Teile sollte der gesamte Mess-Prozess erfasst werden. Sinnvoll wäre es für jede der 3 Maschinen (250KN, 600KN, 1000KN) einzelne MSAs zu machen, weil die Messwerte in deutlich unterschiedlichen Bereichen liegen. Damit kannst Du dann als Bezugsbereich den Toleranzbereich nehmen. Es wäre auch möglich, die Teile ganz wild über alle drei Maschinen zu nehmen, dann wird der Streuungsanteil PV für die Teile und damit die ndc sehr viel größer, als wenn Du drei einzelne Bereiche untersuchst (hast Du ja auch schon geschrieben). Bei dieser wilden Wiese kannst Du allerdings die Toleranz nicht mehr als Bezugsgröße verwenden, weil Du (mindestens) 3 verschiedene Toleranzen hast.

    ***Möglichkeit 1***

    Wie Markus schon geschrieben hat, kannst Du schlicht dieselben 10 Prüfteile ohne erneuten Zugversuch in unterschiedlicher (zufälliger) Reihenfolge von 2-3 Prüfern jeweils 2-3 Mal aufnehmen lassen (Durchmesser und Länge). Das wäre die einfachste Variante: gekreuzte GRR

    ***Möglichkeit 2***

    Du untersuchst auch noch die anderen Faktoren, die Du als möglicherweise wichtig im Fischgrätdiagramm identifiziert hast. Dann brauchst Du ein komplexeres Modell (umsetzbar in Minitab R16 mit „Allgemeine lineare Modelle (GLM)“ und Kovariaten für die variablen Größen wie z. B. Raumtemperatur), kriegst keinen GRR-Wert, aber dafür eine Bewertung der gesamten Mess-Situation mit allen Einflussgrößen

    So, ich glaub das ist jetzt erstmal lang genug geworden ;)

    Ich fänds spannend zu lesen, für welche Variante Du Dich entschieden hast.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Nachtrag:

    Du wolltest noch wissen, ob Minitab oder qs-stat die bessere Variante ist.

    Klare Antwort: Es kommt darauf an.

    Wenn es Dir um die Auswertung von Daten geht, hilft Minitab (oder eine andere Statistik-Software). Wenn es Dir um die Berichte geht, nimm qs-stat. Damit kannst Du zwar keine wirkliche Datenanalyse machen, aber dafür sehen die Berichte so aus wie Kunden es gewohnt sind.

    Speziell für den MSA-Bereich hilft Dir qs-stat allerdings nicht weiter. Dafür hat Q-Das solara auf den Markt geworfen (vgl. Q-Das Produkte und Einsatzbereiche).

    Für die Datenanalyse soll destra (Q-Das) weiterhelfen, weil Q-Das in der Vergangenheit sehr oft von seinen Kunden gehört hat, dass sie gerne mal Statistik machen würden und nicht in erster Linie an einem Berichtsgenerator interessiert sind. (Klar berechnen qs-stat und solara auch Kennzahlen, nur helfen beide Programme nicht weiter bei der Frage „warum ist das Mess-System oder Prozess-System so, wie es ist und wie können wir es gezielt verbessern?“)

    destra hat eine Q-Das-typische Oberfläche, ist allerdings vom Funktionsumfang her deutlich eingeschränkter als Statistik-Programme und hat noch die eine oder andere Schwachstelle. (Das jetzt auszuführen wär wirklich etwas zu viel an dieser Stelle.)

    Womit Du besser zurecht kommst, kann ich Dir nicht sagen. Im Zweifelsfall hilft ausprobieren. Aus meiner Sicht würde ich als Anwender immer ein Statistik-Programm nehmen, das eine grafische Oberfläche, einen großen Koffer an benötigten Werkzeugen hat, eine gute (deutsche) Hilfe und einen hervorragenden (deutschsprachigen) Support. Für mich hat Minitab das Alles, deshalb arbeite ich gerne damit.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    christer
    Teilnehmer
    Beitragsanzahl: 3

    Kurz und knapp: DANKE

    an dieser Stelle muss ich zugeben das ich ALL DAS schon irgendwo, irgendwie ähnlich gelesen hatte – DIES aber die knappste und BESTE strukturierte Zusammenfassung dieses umfangreichen Themas ist, die ich mir vorstellen kann. Dieser Text gehört als LEITFADEN in die FAQ zum Thema MSA/PMU. (APPLAUS; man bin ich neidich nicht so strukturiert Schreiben zu können; Beruf kommt hier offensichtlich von Berufung)

    Zur Ergänzung noch ein Dokument zum Thema Nicht-Wiederholbare Messungen „Non-Replicable GRR Case Study“ von David Benham, DaimlerChrysler Corporation und noch ein Link: http://elsmar.com/Forums/blog.php?b=132

    Bei der Software wird es wahrscheinlich ne Überschneidung zweier geben, minitab zum auswerten und als Bericht zum vorzeigen für die Automobilindustrie qs-Stat mal sehen

    So, und jetzt wie beim Herzblatt:
    „Das wäre der kurze Überblick über die Kandidaten und du musst dir nur noch dein Herzblatt aussuchen“ ;-)
    Danke, melde mich noch mal (spätestens bei weiteren Fragen [bzw. Bestätigungen; zur Meinungsbildung braucht es Information])

    Mit freundlichen Grüssen

    Christer

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo christer,

    cool, eine ultimative Lobhudelei :) Danke auch für den Hinweis zur DC-Studie!

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Julia
    Mitglied
    Beitragsanzahl: 3

    Hallo Christer,

    darf ich dich fragen, wie hat man denn bei euch MSA Verfahren 1 für Zugversuch= zerstörende Prüfung gemacht? Stehe vorm gleichen Problem.

    Vielen Dank

    Gruß
    Julia

    koiler
    Mitglied
    Beitragsanzahl: 2

    Hallo,

    ich habe ein ähnliches Problem.

    In meinem Fall wird die Haftkraft zweieer aufeinander haftender Materialien gemessen.

    Verfahren 1 ist nicht möglich, weil ich kein „Normal“ habe, Verfahren 2 nicht möglich, weil ich keine Prüfung wiederholen kann.

    Wie kann cih trotzdem etwas über die Fähigkeit des Messsystems sagen?

    Das gleiche Problem habe ich auch bei einer weiteren Messung des gleichen Materials.
    Hier wird die Dehnung gemessen. (auch zerstörend.)

    Ich meine jedoch hier eine Lösung gefunden zu haben.
    Verfahren 1 würde ich so angehen:
    An ein unelastisches Band mittels Maßband möglichst genau zwei Markierungen anbringen (ca 2,5m lang). –> „Normal“, mit bekanntem „wahren“ Wert. Dieses Normal an den Markierungen immer wieder neu einspannen und 20 mal messen.
    –>Cg un Cgk

    Verfahren 2:
    Die Prüfkraft würde ich hier nicht so hoch gehen lassen, dass eine bleibende Dehnung im Material zurückbleibt (mit 10N, anstelle 100 N Zugbelastung messen).
    So wäre es evtl möglich 2 Prüfer je 2 Messungen am selben Teil vornehmen zu lassen.
    Wenn keine großen Abweichungen (kontinuierliche Steigung der Werte) bei 4 Prüfungen pro Probe auftritt, ist so eine Änderung erlaubt, oder verfälschen die veränderten Rahmenbedingungen die Messergebnisse zu stark?

    Mit freundlichen Grüßen

    koiler

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo koiler,

    herzlich willkommen im Qualitäter-Forum :)

    Ohne Normal kannst Du zwar keine systematische Abweichung für Verfahren 1 bestimmen, Du könntest aber immerhin die Streuung von Wiederholmessungen am gleichen Teil bzw. bei zerstörenden Prüfungen an möglichst ähnlichen Teilen bewerten.

    Wenn Dein Merkmal zweiseitig toleriert ist, kannst Du anstelle des Referenzwertes (den Du ohne Normal nicht hast) den Mittelwert der Messdaten verwenden. Damit ist dann Cg=Cgk, aber immerhin hast Du einen der beiden Fähigkeitskenngrößen.

    Den Umweg mit dem unelastischen Band würd ich nur dann wählen, wenn Du in Deinem Mess-Prozess auch unelastische Bänder bewertest, sonst bringt Dir das vielleicht eine Art Referenzwert für irgendeinen Mess-Prozess, aber keinen Anhaltspunkt für die systematische Abweichung in DEINEM Mess-Prozess.

    Für die Bewertung verschiedener Kriterien (Wiederholbarkeit, Reproduzierbarkeit, Gage R&R) bei Verfahren 2 kannst Du bei der zerstörenden Prüfung auch die Streuungsanteile ermitteln und schauen, ob z. B. verschiedene Prüfer zu ähnlichen Ergebnissen kommen. Auch hierbei wird versucht, quasi-Wiederholmessungen durch möglichst ähnliche Teile (gleiche Prozessbedingungen, gleiche Ausgangsmaterialien, Teile hintereinander gefertigt, usw.) einzufangen.

    Wenn Du die Prüfung in einen Messbereich legst, der später gar nicht relevant ist, bekommst Du auch keine Aussagen dazu wie gut Dein Mess-Prozess im relevanten Bereich ist, mal abgesehen davon, dass Du nie ausschließen kannst, dass es auch bei 10N eine kleine Dehnung gibt und sich die Teile trotz geringerer Belastung doch verformen (und das ist mit nur 4 Messwerten schwer feststellbar).

    Generell ist die Mess-System-Analyse oder Mess-Prozess-Analyse oder Prüfmittelfähigkeitsbewertung immer nur dann aussagekräftig, wenn Du mit den nachher zu bewertenden Teilen arbeitest und in dem späteren Messbereich unter den üblichen Rahmenbedingungen bleibst.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    koiler
    Mitglied
    Beitragsanzahl: 2

    Hallo Barbara,

    vielen Dank für Deine Antwort!

    Zur Dehnungsmessung, Verfahren 1:

    Den Umweg über das unelastische Band wollte ich nehmen, gerade weil ich
    einen Anhaltspunkt für eine systematische Abweichung zu erhalten
    erhoffe.
    Die „wahre“ Länge lässt sich relativ genau bestimmen, es werden somit
    Einflüsse wie das Einlegen oder Durchrutschen in den Halteklammern
    sichtbar.
    Ich hab das Messverfahren auf die Grundmessung aufgebrochen, weil die
    Dehnung nur errechnet und nicht direkt gemessen wird.
    Nur bin ich mir unsicher bezüglich der Toleranzen.
    Gemessen wird eine Länge von 1m, gedehnt ergibt sich eine Länge um 2,15m,
    dies entspricht einer Dehnung von 115%. Toleranz ist +20%, -10%.
    Wenn ich ein undehnbares Band von 2,15m Länge nehme, sind dann die
    Toleranzen für die Längenmessung entsprechend 2,15m*1,2 und 2,15m*0,9 ?
    Wenn die 20 Ablesewerte am Maßband um 10mm schwanken, ergäbe sich ein
    Cgk-Wert von 2,5 und ein Ck-Wert von 5.

    Ist dieser Ansatz haltbar, oder völliger Stuss meinerseits?

    Verfahren 2:

    Die Bedenken zur Prüfung in einem anderen Messbereich teile ich.

    Weiter schreibst du:
    „Für die Bewertung verschiedener Kriterien (Wiederholbarkeit,
    Reproduzierbarkeit, Gage R&R) bei Verfahren 2 kannst Du bei der
    zerstörenden Prüfung auch die Streuungsanteile ermitteln und schauen,
    ob z. B. verschiedene Prüfer zu ähnlichen Ergebnissen kommen.“

    Was meinst du genau mit Streuungsanteile ermitteln?

    Ich habe vor an 3 Stellen der Bahn Material zu entnehmen (ndc=3, da Werte Abhängig der Lage sind).
    Eine Matreialentnahme soll aus 4 „gleichen“ Einzelproben direkt hintereinander
    bestehen (2 Messungen für 2 Prüfer je Probe).
    Insgesamt will ich 12 Materialentnahmen haben.

    Somit hätte ich eine Tabelle mit 12 Zeilen und 4 Spalten.

    Mit Streuungsanteilen meinst du hier die Standardabweichung und Spannweite?

    Mit freundlichen Grüßen

    koiler

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo koiler,

    **********************

    Zu Verfahren 1:

    Bei der Berechnung der Toleranzen müsstest Du vielleicht mal jemanden fragen, der sich mit Deinem Prozess auskennt.

    Ich könnte mir neben der von Dir beschriebenen Variante 1
    2,15m = 1m + 1m*115%
    UTG = Wert -10% = 2,15*90% = 1,935m
    OTG = Wert +20% = 2,15*120% = 2,580m
    und damit eine Toleranzbreite T
    T1 = 2,580 – 1,935 = 0,645m
    (ehrlich gesagt kommt mir das sehr breit vor)

    auch die Variante 2
    2,15m = 1m + 1m*115%
    UTG = 1m + 1m*(115%-10%) = 2,05m
    OTG = 1m + 1m*(115%+20%) = 2,35m
    vorstellen mit einer Toleranzbreite
    T2 = 0,30m.

    Die Mindestanforderung an die Anzahl Messwerte bei Cg und Cgk sind 25, besser sind 50, weil dann die Kennzahlen Mittelwert und Standardabweichung genauer berechnet werden können.

    Wenn Du jetzt eine Toleranzbreite von T1=0,645m hast und eine Standardabweichung von
    S=0,01m = 1cm = 10mm
    ergibt sich für Cg:

    Cg1 = (0,2*T1) / (6S) = (0,2*0,645) / (6*0,01) = 0,129 / 0,06 = 2,15

    Beträgt dagegen die Toleranzbreite nur T2=0,30m, verringert sich der Cg-Wert bei gleicher Standardabweichung S=0,01m:

    Cg2 = (0,2*T2) / (6S) = (0,2*0,30) / (6*0,01) = 1,00

    Der Cgk berücksichtigt neben der Streuung auch eine systematische Abweichung. Wenn Dein Band eigentlich Ref=2,15m (Ref: Referenzwert) lang ist und Deine aufgenommenen Messwerte einen Mittelwert von xquer=2,17m haben, hast Du eine systematische Abweichung von Bias=0,02m.

    Der Cgk lässt sich über folgende Formel berechnen:
    Cgk = (0,1*T – abs(Ref-xquer)) / (3S) = Cg – (abs(Ref-xquer))/(3S)

    Mit den gleichen Kennzahlen für Toleranzbreite und Standardabweichung ergibt sich für Cgk

    mit T1=0,645m und Cg1=2,15:
    Cgk1 = Cg1 – (abs(Ref-xquer))/(3S) = 2,15 – (abs(2,15-2,17))/(3*0,01) = 2,15 – 0,67 = 1,48

    mit T2=0,30m und Cg2=1,00:
    Cgk2 = Cg2 – (abs(Ref-xquer))/(3S) = 1,00 – 0,67 = 0,33

    Wie hoch der Cg und Cgk sein müssen, um eine Messmittelfähigkeit nachgewiesen zu haben, hängt von den Anforderungen an den Prozess ab. Standardwerte sind 1,00 oder 1,33, wobei teilweise auch anstatt durch 6S durch 4S geteilt wird (-> Anforderungen anschauen).

    *********************

    Zu Verfahren 2:

    Die Streuungsanteile sind EV (Equipment Variation, Streuung Werte durch quasi-Wiederholmessungen / Wiederholbarkeit) und PV (Part Variation, Streuung der Werte durch Aufnahme verschiedener Teile). Bei einer nicht-zerstörenden bzw. wiederholbaren Prüfung an 1 Teil wird zusätzlich noch verglichen, ob verschiedene Prüfer an 1 Teil zu einem ähnlichen Ergebnis kommtn (AV / Appraiser Variation, Streuung der Werte durch verschiedene Prüfer / Reproduzierbarkeit). Bei einer zerstörenden Prüfung können die Prüfer-Ergebnisse nicht direkt verglichen werden, deshalb wird kein AV-Streuungsanteil berechnet.

    Bei der Berechnung der Streuungsanteile gibt es zwei Methoden:

    1) Die (veraltete und nicht mehr empfohlene) Methode ist die Bestimmung der Streuungsanteile aus den Spannweiten. Das ist relativ leicht per Hand zu rechnen, nur leider unzuverlässig bei der Bewertung der Streuung.

    2) Die (empfohlene) Methode ist die ANOVA- oder varianzanalytische Methode. Die Streuungsanteile werden dabei über eine Varianzkomponenten-Zerlegung bestimmt. Diese Methode ist nicht nur dem Namen nach komplizierter, sondern auch von der Berechnung und deshalb ohne entsprechende Software wenig empfehlenswert.

    Dein Plan für die Auswahl von „gleichen“ Teilen klingt gut, vor allem wenn Du die Einzelproben zufällig zu Messwiederholung und Prüfer zuordnest, also nicht immer Stück 1 = Prüfer 1, 1. Messung, Stück 2 = Prüfer 1, 2. Messung, usw., sondern mal Stück 1 = Prüfer 1, 2. Messung, mal Stück 1 = Prüfer 2, 1. Messung, usw. (Software oder auch Zufallszahlen in Excel sind da sehr hilfreich, weil kein Mensch so etwas wirklich zufällig zuordnen kann. Menschen machen immer Muster = kein Zufall!)

    Um einen guten oder auch repräsentativen Eindruck von der Zuverlässigkeit des Mess-Prozesses zu bekommen, sollten mindestens:
    g=5 verschiedene Teile
    r=2 Wiederholungen
    k=2 Prüfer
    aufgenommen werden. Dabei sollte gelten:
    g*k >= 15
    g*r*k >= 30
    (Standardwerte: g=10, r=2-3, k=2-3)

    Wenn Du jetzt g=3, r=2, k=2 nimmst, sind das zu wenig:
    g*k = 6 < 15
    g*r*k = 12 < 30
    Du brauchst also deutlich mehr Materialentnahmen, um genügend Messdaten zur Bewertung Deines Mess-Prozesses zu bekommen. Deine Tabelle sollte am Ende mindestens 30 Zeilen haben, d. h. Du brauchst entweder mehr „gleiche“ Teile an Deinen 3 Mess-Punkten oder mehr mehr „gleiche“ Teile von 5-10 Messpunkten.

    Die Kennzahl ndc (number of distinct categories, Anzahl unterscheidbarer Bereiche, tatsächliche Auflösung des Mess-Prozesses) hat mit der Anzahl ausgewählter Teile oder Mess-Punkte nichts zu tun, die wird aus den Streuungsanteilen berechnet und sollte größer oder gleich 5 sein:
    ndc >= 5

    Damit ist die Streuung des Mess-Prozesses im Vergleich zur Prozess-Streuung so klein, dass die Prozess-Leistung (oder auch Prozess-Fähigkeit) weitgehend unabhängig von der Mess-Unsicherheit beurteilt werden kann. ndc >= 5 entspricht in etwa der Forderung GRR% <= 30%.

    Viele Grüße

    Barbara

    _____________________________________

    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Lukas Mayr
    Teilnehmer
    Beitragsanzahl: 2

    Hallo, ich versuch mal mein Glück vielleicht ist ja noch jemand aktiv in dem Forum!

    Ich möchte Verfahren 1 für eine zerstörende Prüfung anwenden…

    Somit würde ich wie Barbara beschrieben hat den Mittelwert meiner Messwerte, welche alle quasi gleich sind, als Referenz verwenden.

    Wenn ich dann aber die OSG und USG aus der aktuellen Produktion anwende, bekomme ich einen Cg und cgk < 1,33

    Ist das erklärbar? Macht es Sinn auf diese Art und Weise eine MSA durchzuführen? Die Werte schwanken schon sehr…

Ansicht von 14 Beiträgen - 1 bis 14 (von insgesamt 14)
  • Sei müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben