Verfasste Forenbeiträge
-
AutorBeiträge
-
als Antwort auf: Statistik / Anova #51316
Aloha,
@Uhu:
Statistik-Programme können viel, vor allem können sie schnell und genau rechnen. Sie können allerdings *niemals* selbständig denken.
Wenn Du z. B. die Zahl 1000 als Wert eines Merkmals eingibst, ist das natürlich eine Zahl. Den Informationsgehalt dieser Zahl kennt das Programm allerdings nicht. Es kann sich um ein Gewicht handeln (1000 g, d. h. eine Kovariate / kontinuierliches bzw. variables Merkmal) oder um eine Farbzahl (RAL 1000 ist grünbeige, ein Faktor / diskontinuierliches bzw. attributives Merkmal).
Genau diese Information ist es, die dem Programm vom Anwender übergeben werden muss, damit das Programm richtig arbeiten kann. Automatisch kann das nicht erkannt werden (von keinem Programm).
Was hat jetzt die Statistik mit Prozess-Kenngrößen von Membranen zu tun? So genau weiß ich das auch nicht, weil Rainaari wenig über das echte Problem geschrieben hat. Also nehmen wir mal an, dass es irgendwo einen Qualitätsmangel gibt, sonst würd sich niemand so intensiv mit den Messwerten beschäftigen.
Vielleicht geht es um die Variabilität in der Durchlässigkeit der Membranen. Sicherlich hängt die Durchlässigkeit davon ab, welche Flüssigkeit mit welchem Druck durchgeschickt wird. Und natürlich wird die Konstruktion sich vor der Serie Gedanken dazu gemacht haben, wie die Membran für die definierten Anforderungen aufgebaut sein muss (also genau dieses Wechselspiel zwischen Membran und Molekülen untersuchen und durch eine geeignete Konstruktionsvorschrift eine funktionierende Membran bauen). Und dann geht die Membran in Serie.
Dummerweise stellt man fest, dass die geforderten Anforderungen an die Durchlässigkeit nicht immer vollständig erfüllt sind, sprich, dass die Membran teilweise zu große Partikel durchlässt. Haben die Konstrukteure also Murks gemacht? Nein, wahrscheinlich nicht.
Irgend etwas im Herstellungsprozess führt dazu, dass die Poren in der Membran teilweise zu groß sind und deshalb auch zu große Partikel durchlassen. Die Konstrukteure können nicht vorab sämtliche Streuungen / Störgrößen im Herstellungsprozess vorhersehen. Auch mit Sicherheitsabstand und worst-case-Tolerierung können im Serienprozess Einflüsse wirken, die in der Konstruktionsphase und Vorserie keine Rolle gespielt haben. Vielleicht handelt es sich dabei tatsächlich um „Hefe“, sprich um etwas, das vorher als unwichtig eingestuft oder überhaupt nicht als möglicher Einfluss identifiziert wurde.
Und bei der Frage, welche Merkmale im Herstellungsprozess diese Porengröße tatsächlich beeinflussen, hilft die Statistik, indem sie Kriterien dafür liefert welches Merkmal die Porengröße beeinflusst und welches nicht.
Das mit den Messungen, der Linearkombination und der Zuordnung hab ich noch nicht so richtig verstanden. Kannst Du mir dafür bitte ein Beispiel geben?
Ich hab mal einen Statgraphics-Spezialisten gefragt: Das Multifactor ANOVA-Menü kann auch Kovariaten modellieren. Wechselwirkungen sind eventuell nachträglich spezifizierbar (irgend etwas mit Rechtsmausklick auf Analyse-Fenster). Was das Multifactor ANOVA-Menü nicht kann, sind geschachtelte Modelle, dafür brauchst Du das GLM-Menü.
Natürlich ist es besser, Kovariaten als kontinuierliche Merkmale ins Modell zu stecken als sie künstlich zu Kategorisieren. Denn damit verlierst Du enorm viel Informationen.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Black Belt oder Master Quality Managament? #51302Hallo Sebastian,
ich find Dipl.-Ing. (FH) als Ausgangsbasis schon ziemlich gut.
Falls Du vorhast, in Deutschland zu bleiben, ist die Weiterbildung bei dem akuten Fachkräfte-Mangel im Ingenieurbereich sowieso egal – und das wird sich in den kommenden Jahren noch deutlich verschärfen.
Sei es wie es sei, ich würd auf jeden Fall eine Weiterbildung bevorzugen, deren Inhalte bekannt sind. Die Kombination von QM und Six Sigma Black Belt ist okay, nur musst Du Dir darüber im Klaren sein, dass es zwei völlig verschiedene Paar Schuhe sind auch wenn in beiden Ausbildungen das Wort Statistik vorkommt. Die Schwerpunkte sind einfach anders.
Grob gesagt beschäftigt sich QM mit dem Gesamt-System, während Six Sigma gezielte Projektarbeit ist. Deshalb würde ich auch erst mit einem der beiden Themen anfangen, das richtig machen und in der Praxis üben und dann das nächste Thema machen.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Statistik / Anova #51301Hallo Uhu,
jetzt hast Du mich abgehangen: Woher kommt Deine Idee mit den Membranen und Molekülen? Davon hat Rainaari überhaupt nix geschrieben.
Ansonsten meinen wir (wenn ich das richtig verstanden habe) das Gleiche, auch wenn wir unterschiedliche Methoden verwenden. Es geht darum, das System zu erklären und die wichtigen Einflüsse auf das Prozess-Ergebnis zu finden.
Die statistischen Modelle liefern dafür Entscheidungskriterien, ob ein Einfluss wichtig ist und quantifizieren die Größe des Einflusses. Das ist gegenüber der ausschließlich logischen Herangehensweise nach GMV (was beeinflusst mein Prozess-Ergebnis) ein zusätzlicher Erkenntnisgewinn. GMV-Einsatz ist für die richtige Anwendung von statistischen Methoden immer die Voraussetzung.
Ein einfaches Beispiel für einen Prozess, in dem die Unterscheidung zwischen Faktor und Kovariate wichtig ist, ist dies hier:
Prozess: Nagel in Balken hämmern
Zielgröße: Einschlagtiefe (soll maximiert werden)
Einflussgrößen: Schlagkraft, Gewicht HammerEs gibt natürlich noch weitere mögliche Einflüsse wie Abstand Hammer-Nagel, Eigenschaften des Balkens, Eigenschaften des Nagels, usw. Die werden der Einfachheit halber für dieses Beispiel als konstant angenommen und können natürlich in einem echten Modell berücksichtigt werden.
Modell für den Prozess:
Zielgröße ~ f(Einflussgrößen)d. h. für das Beispiel:
Einschlagtiefe ~ Schlagkraft + Gewicht_Hammer + Schlagkraft*Gewicht_Hammer
(der letzte Term ist die Wechselwirkung zwischen Schlagkraft und Gewicht Hammer)Ich kann die Einflussgröße „Gewicht Hammer“ sowohl als Faktor ins Modell stecken als auch als Kovariate. Als Faktor hätte ich Angaben wie „schwer“ „mittel“ „leicht“. Als Kovariate hätte ich Angaben in g, z. B. „200 g“, „400 g“, „1000 g“. Das ist informations-technisch gesehen natürlich ein Unterschied, der dem Modell auch gesagt werden muss. Und genau darum ging es bei der Unterscheidung zwischen Faktor und Kovariate.
Das Modell liefert mir dann Aussagen dazu, ob in den Daten ein wichtiger (signifikanter) Einfluss durch die Schlagkraft, das Gewicht des Hammers und/oder die Wechselwirkung zwischen Schlagkraft und Gewicht steckt. Zusätzlich quantifiziert das Modell den Einfluss, d. h. ich kann ausrechnen wie sich die Einschlagtiefe verändert, wenn ich die Schlagkraft um 5 Newton erhöhe oder einen schwereren Hammer verwende.
Und wenn ich dann mein Modell habe und es validiert ist (Stichworte Anpassungsgüte, Residualanalyse), dann muss ich *immer* noch das Experten-Wissen nehmen und schauen, ob die gefundenen Ergebnisse auch mit GMV erklärbar sind oder ob das Ergebnis „ein roter Hammer hat eine höhere Einschlagtiefe als ein blauer Hammer“ auf den ersten Blick Unsinn ist. Ich kann mir dann aber einen Gedanken dazu machen, warum ein roter und ein blauer Hammer zu unterschiedlichen Einschlagtiefen führen (z. B. unterschiedliche Bauweisen, Stillänge, usw.) – und damit dann tatsächlich das System verstehen und im nächsten Schritt optimieren.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Statistik / Anova #51298Hallo Rainaari,
es freut mich, dass Dein Modell jetzt sinnvollere Ergebnisse liefert :)
Das mit den Faktoren und Kovariaten hast Du richtig verstanden. Und die Kenndaten der Messung innerhalb eines Batches hinzuzunehmen ist eine gute Idee. Die dürften Dich auch weiter bringen bei der Frage, warum die Prozess-Kenngröße so ist wie sie ist.
Warum der Herstellungstag immer noch eine Linearkombination ist, kann ich Dir leider nicht erklären. Dazu müsste ich Deine Daten mal sehen. Das Menü „Multifactor ANOVA“ könnte daran schuld sein, weil es nur mit gekreuzten (crossed) Faktoren arbeiten kann und nicht mit geschachtelten (nested). Laut der Statgraphics-Homepage kann Statgraphics Plus 5.1 Professional auch General Linear Models / GLMs; ich hab allerdings nix zum Umfang der Quality & Design Edition gefunden. Den Unterschied zwischen den beiden Menüs erklärt Statgraphics hier und es klingt für mich so, als wäre das bei Dir der springende Punkt mit den nested factors.
Das mit den unabhängigen und abhängigen Parametern hab ich ehrlich gesagt noch nicht so ganz verstanden. Ein Modell kann hierarchisch aufgebaut werden, d. h. mit Schachtelung. Wenn zwei Parameter zusammen die Zielgröße anders verändern als wenn sie alleine wirken, kann das als Wechselwirkung/Interaktion im Modell stehen. Viel mehr Abhängigkeit der Parameter fällt mir nicht so richtig ein, allerdings weiß ich nicht, in wieweit Statgraphics diese Art der Modellierung unterstützt.
Hilfreich für den Aufbau eines Modells ist es, zuerst mal ohne Statistik zu überlegen, welche Parameter geschachtelt sind und ob es Wechselwirkungen zwischen den Paramteren gibt. Nett und anschaulich ist dafür ein Baumdiagramm, in das zusätzliche Verbindungspfeile für die Wechselwirkungen der Parameter untereinander eingezeichnet werden.
Bei Dir könnte z. B. die erste Ebene unter der Zielgröße die beiden Punkte „Herstellungstag“ und „Batchproduktion“ haben. Mit so einem Baumdiagramm lässt sich die Modell-Struktur leichter angeben und damit dann auch umsetzen (jedenfalls wenn die Software das hergibt, Minitab und R haben damit keine Probleme).
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Black Belt oder Master Quality Managament? #51294Hallo Sebastian,
herzlich Willkommen im QM-Forum :)
Wie Ralf schon geschrieben hat, sind das unterschiedliche Ausbildungen. Keine der drei Optionen (QM bei DGQ, MQM in Wismar, Black Belt) ist generell am besten, es kommt darauf an, was Dir oder Deiner Firma am meisten weiterhilft.
Zum QM bei der DGQ kann ich nix sagen. Das MQM-Programm hab ich mir gerade mal angeschaut und fand es sagen wir mal bemerkenswert. Zu den meisten der dort vermittelten Themen außerhalb der statistischen Methoden hab ich hier schon viel gelesen. Ob es tatsächlich einen Mehrwert bringt, das im Rahmen des MQM-Lehrgangs zu vertiefen, weiß ich nicht.
Zwei Dinge sprechen für mich allerdings gegeben den 10.000 Euro (zzgl. Arbeitszeit von 10-15 h/Woche) teuren MQM-Lehrgang:
1. Die Ausbildung und damit auch die dort erworbene Qualifikation ist unbekannt. Für spätere Arbeitgeber ist diese Bescheinigung damit wenig wertvoll. Und ich hab in dem Curriculum auch nichts gefunden, in dem sich dieser Lehrgang besonders auszeichnet.
2. Die statistischen Themen sind ziemlich langweilig und zwar aus verschiedenen Gründen:
a) Die wirklich interessanten Bereiche wie Prozess-Analyse, statistische Mess-System-Analyse (Gage R&R ANOVA z. B.) und Prozess-Optimierung (DoE) werden nirgends erwähnt. Insofern gehe ich davon aus, dass sie auch nicht vorkommen.
b) Die aufgeschriebenen Themen sind vor allem im Bereich „Statistische Methoden der Qualitätssicherung“ (1. Semester) der Stoff, der auch von der DGQ vermittelt wird und in der Praxis kaum anwendbar ist (z. B. weil die Normalverteilungsannahme nur sehr, sehr selten für die Prozess-Ergebnisse stimmt). Dafür bräuchtest Du die unter a) erwähnten Modelle.
c) Es wird nirgends erwähnt, dass mit einer *Statistik*-Software gearbeitet wird, also schließe ich messerscharf, dass entweder Excel verwendet wird oder *würg* der Taschenrechner. Das ist anachronistisch, anstrengend und bringt außer einem rauchenden Kopf wenig. Vor allem trägt es nichts zu der Erkenntnis bei, wozu Statistik sinnvoll einsetzbar ist.
Insofern halte ich den Black Belt für deutlich hilfreicher. Die Black Belt-Ausbildungen sind bekannt und werden gerne gesehen. Es gibt natürlich bei den Anbietern für Black Belt-Seminare auch Trainings, aus denen die Teilnehmer unzufrieden raus gehen (s. z. B. hier).
Ich hab in diesem Beitrag mal Kriterien für eine gute Green Belt-Ausbildung aufgeschrieben. Für den Black Belt gelten ähnliche Kriterien, nur ist der Umfang an Seminartagen 20 Tage.
Hast Du jetzt schon eine genauere Vorstellung, welche Art Fortbildung Du machen willst?
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Abau eines Q-Gates #51293Hallo msb,
Statistik in Prozessen wird halt nur angewandt, wenn die Verzweiflung groß genug ist ;-) Dein Chef scheint diesen Status noch nicht erreicht zu haben.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Statistik / Anova #51278Hallo Rainaari,
ich bin verwirrt.
Wenn Du doch diese ganzen schönen Merkmale vom Lieferanten hast wegen der Herstellungs-Parameter, warum wirfst Du diese Informationen weg, indem Du sie unter dem Merkmal „Herstellungstag“ zusammenfasst?
Ich meinte nicht, dass Herstellungstag=Batch eine Korrelation ist, sondern dass in beiden Merkmalen die gleiche Information steht. Ob ich das Batch mit dem Material vom 25.01. „Batchnr. 123“ nenne oder „Herstellungsdatum 25.01.“ macht keinen Unterschied. Beide Begriffe sind austauschbar und damit im Modell untrennbar.
Wenn Ihr allerdings für verschiedene Batches das gleiche Material vom 25.01. verwendet und dieses Material zeitstabil ist, dann bringt Ihr selbst durch die Batch-Herstellung die größte Streuung mit rein. (Also nix Lieferanten hauen!)
Bei der Modellierung wird unterschieden zwischen Faktoren (attributiven Merkmalen wie Batchnr., Rohstoff a/b/c, usw.) und Kovariaten (variablen Merkmalen wie Gewicht, ph-Wert, Datum / Zeit). Diese Unterscheidung ist notwendig, da attributive Merkmale nur bestimmte Niveaus / Klassen / Gruppen haben und keine Zwischenwerte, während variable Größen alle möglichen Werte annehmen können.
Hilfreich ist es für die Analyse komplexer Daten eine Übersichts-Tabelle zu basteln, in der alle Merkmale mit ihrer Einstufung drinstehen und auch mit üblichen Werten / Wertebereichen und den tatsächlichen Werten im Datensatz.
Mit welcher Software machst Du das denn? Sinnvoll wäre es nämlich auch, im Anschluss an die ANOVA eine Modell-Validierung zu machen um zu schauen, wie gut Dein Modell ist und ob Du die Ursachen für die Streuung wirklich gefunden hast.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Maschinen-/Prozessfähigkeit, die 125-ste #51277@Rainaari: Nee, meine GMV-Säckchen sind nur mit feinstem weißen Pulver gefüllt.
Traubenzucker… stärkt zumindest kurzfristig die Nerven ;-)
als Antwort auf: Abau eines Q-Gates #51276Hallo msb,
ich hab mal ein bisschen gesucht. In Deutschland ist das mit der Statistik ja sowieso so eine Sache, da muss es immer super-kompliziert sein.
Gefunden hab ich eine Studie vom Steinbeis-Zentrum mit gaaaanz viel statistischer Modellierung. Diese Studie ist allerdings selbst für mich ziemlich abschreckend da zu kompliziert und für keine Bardame erklärbar (s. meinen Footer).
Spannendere Sachen gibt es im Extrusions-Bereich, z. B. dieses hier (allerdings auf Englisch).
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Statistik / Anova #51270Hallo Rainaari,
wie schön, eine Statistik-Frage :)
Blöd ist nur, dass ich gerade ein bisschen auf dem Schlauch stehe, was ihr da eigentlich gemacht habt. Ich versuch das mal wiederzugeben:
1. Schritt: Material herstellen
Rohstoff-Varianz ist abhängig vom Herstellungstag. Gemessen / Aufgeschrieben: Herstellungstag, nicht aufgeschrieben: Rohstoffqualität (oder was sonst variiert)
2. Material verarbeiten
Batchproduktion, je ein Herstellungstag pro Batch verwendet. Aufgeschrieben: Batchnr. und Prozess-Kenngröße
Wenn ich das richtig verstanden habe, dann ist es logisch, dass das Modell zusammenbricht: Die Informationen in den Merkmalen „Herstellungstag“ und „Batch“ sind identisch, d. h. mathematisch unzertrennlich (Herstellungstag=Batch). Beim Versuch, die beiden Merkmale getrennt voneinander zu schätzen, fehlen dem Modell Informationen, weil die Merkmale verbunden sind und es bricht zusammen.
Der Ausweg über die Faktoren bzw. Kovariaten funktiniert deshalb, weil Du damit dem Modell die Information übergibst, dass es sich bei den beiden Merkmalen um unterschiedliche (trennbare) Informationen handelt. Das wäre sinnvoll, wenn es z. B. einen zeitlichen Trend gäbe (z. B. Anstieg der Prozess-Kenngröße über die Versuchs-Zeit).
Wenn Du beispielsweise Tag als Kovariate nimmst und Batchnr. als Faktor, dann sagen Dir die p-Werte folgendes:
Tag: p=0,33 > 5%
Batchnr: p=0,03 < 5%p ist im Modell (wie ANOVA oder allgemein GLM / SPM) die Wahrscheinlichkeit, dass die Nullhypothese / Annahme für die Messwerte stimmt. Die Annahme im Modell ist immer „Merkmal ist unwichtig für das Prozess-Ergebnis“, d. h.
p groß (p > 5%):
-> Wahrscheinlichkeit für Annahme ist groß
-> Annahme wird beibehalten
-> Merkmal ist unwichtig für Prozess-Ergebnisp klein (p > 5%):
-> Wahrscheinlichkeit für Annahme klein
-> Annahme wird abgelehnt
-> Merkmal ist wichtig für Prozess-Ergebnisd. h. für die Beispiel-p-Werte
Tag: p=0,33 > 5%
Merkmal Tag (als Kovariate) ist unwichtig für die Prozess-Kenngröße, es gibt keinen linearen Trend über die ZeitBatchnr: p=0,03 < 5%
Merkmal Batchnr (als Faktor / Gruppenmerkmal) ist wichtig für die Prozess-Kenngröße, d. h. die Unterschiede zwischen den Batches sind signifikant.Wie gesagt, ob das eine sinnvolle Modell-Spezifizierung mit Kovariate und Faktor ist, obwohl beide Merkmale dieselbe Information enthalten, steht auf einem anderen Blatt.
Um tatsächlich den Einfluss des Herstellungstages vom Batch zu trennen, hättet Ihr zumindest in einigen Batches unterschiedliche Herstellungstage verarbeiten müssen. Damit wäre dann ein geschachteltes Modell für die Prozess-Kenngröße entstanden.
Was vielleicht als Kovariate noch sinnvoll sein könnte, wenn das Alter des Materials eine Rolle spielt, ist der Abstand zwischen Herstellungs- und Verarbeitungstag.
Ich hoffe, ich hab Deine Frage richtig verstanden und halbwegs nachvollziehbar beantwortet.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Anzahl von Erstmustern #51266Hallo Q-Kiwi,
wenn Du nur ein Muster vermisst, hast Du auch nur eine Chance, Abweichungen zu finden. Wenn Du drei oder fünf Muster nimmst, hast die entsprechend die 3-5fache Chance, Abweichungen zu finden.
Warum ausgerechnet 3 oder 5 als Anzahl vorgegeben ist, weiß ich nicht. Tatsächlich ist es allerdings schon möglich bei 3 Werten statistische Verfahren anzuwenden.
Ich nehme an, irgend jemand hat nach einem praxistauglichen Kompromiss gesucht, der vom Aufwand bei der Erstmusterung tolerierbar ist und daher 3-5 Teile als Mindestzahl vorgegeben.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Maschinen-/Prozessfähigkeit, die 125-ste #51264Hallo Frank,
naja, wenn ich dieser Kunde wäre, würde ich schon gerne vorher wissen, ob qualymans Firma überhaupt in der Lage ist, meine Anforderungen zu erfüllen.
Denn wenn ich knappe Lieferzeiten vereinbare, weil die Produkte schnell nicht mehr taugen, dann brauche ich auch die Zuverlässigkeit meines Lieferanten, sprich den Nachweis, dass er die Produkte überhaupt liefern kann.
Bei einigen Anforderungen von Kunden kannst ich das vorab schlecht abschätzen, wenn ich diese Produkte noch nicht gefertigt habe. Es gibt natürlich auch so nette Sachen wie die 0-Fuge bei Dinos Spiegeln, die einfach technisch unmöglich sind.
Wenn es allerdings grundsätzlich technisch umsetzbar ist, würd ich als Kunde auch die Frage danach stellen, wie prozesssicher mein Lieferant das Produkt herstellt. (Allerdings würde ich keine Fähigkeit dafür fordern.)
Es nutzt mir nix, wenn 100% geprüft wird, aber nur jedes 10. Teil überhaupt meine Anforderungen erfüllt und dadurch der vereinbarte Liefertermin nicht eingehalten werden kann.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Abau eines Q-Gates #51263Hallo msb,
ach so, es geht um atttributive Prozessergebnisse und Prüfungen!
Dazu fallen mir zwei Bereiche ein (die wie immer etwas mit Statistik zu tun haben):
1. attributive MSA
Auch bei attributiven Prüfungen kannst Du statistische Methoden anwenden, die Dir sagen, ob bzw. in wieweit die Prüfergebnisse untereinander und/oder mit einem Standard übereinstimmen (attributive MSA). Damit hast Du dann schon mal Anhaltspunkte dafür, wie gut die Augen der Prüfer sind.
2. Prozess-Absicherung mit SPMs
Am besten ist es natürlich, wenn überhaupt keine n.i.O.-Oberflächen entstehen (logisch). Neben den üblichen statistischen Prozess-Modellen (SPMs), bei denen eine variable Zielgröße wie Maße, usw. modelliert werden, gibt es auch Modelle, die als Zielgrößen i.O./n.i.O. oder ordinale Ergebnisse (Rangfolgen wie beispielsweise bei Schulnoten) verwenden.
Damit kannst Du in einem Prozess untersuchen, was das Auftreten von Fehlern begünstigt bzw. verhindert. Diese SPMs heißen binäre (für gut/schlecht) oder ordinale (für Rangzahlen) logistische Regressionsmodelle.
Angewandt werden diese Art von SPMs im Moment eher außerhalb des QMs, z. B. in der Medizin. Diesen Modellen verdanken wir Erkenntnisse wie „2 h Sport pro Woche senken das Risiko für einen Herzinfarkt um x %“. Übertragen auf Prozesse kann so ein SPM z. B. folgende Aussage liefern: „Eine Temperatur von 54 °C im Herstellungsprozess senkt das Risiko für Rissbildung (Oberflächenfehler) um 17 %.“
Wenn Du dann erstmal ein taugliches SPM für Dein Prozess-Ergebnis hast, wird der Kunde wahrscheinlich in Ehrfurcht erstarren und überhaupt nicht mehr an Q-Gates denken ;-) Immer vorausgesetzt natürlich, Du hast ein fähiges Mess-System, damit Du auch die n.i.O.-Teile findest.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Maschinen-/Prozessfähigkeit, die 125-ste #51258Hallo Uhu,
kannst Du mir / uns ein bisschen etwas über das Konzept verraten, mit dem Ihr den Kunden überzeugt habt?
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker)als Antwort auf: Maschinen-/Prozessfähigkeit, die 125-ste #51256Hallo qualyman,
ich glaub ich mach demnächst einen Shop auf und verkaufe kleine Säckchen mit GMV. Vielleicht hilft das ja bei dem einen oder anderen Kunden und den interessanten Forderungen ;-)
Also:
Einfacher Weg, den der Kunde vermutlich nicht bezahlen wird: Biete ihm an, an unterschiedlichen Tagen 100 Teile als Vorserie herzustellen und darauf die Maschinenfähigkeit / Kurzzeitfähigkeit zu rechnen. Die Teile kriegt er dann komplett wenn Ihr Eure Fähigkeit nachgewiesen habt und kann selbst zusehen, was er damit macht.
Da der Kunde das wahrscheinlich ablehnt, brauchst Du also eine Absicherung, die für Euch tragbar bzw. bezahlbar ist und dem Kunden trotzdem zeigen kann, dass Ihr in der Lage seid, die Qualitätsanforderungen zu erfüllen.
So ganz ohne Kosten geht das natürlich nicht (also muss der Kunde auch hier zahlen), allerdings könntet Ihr den Aufwand reduzieren. Dafür gibt es verschiedene Möglichkeiten:
a) Ihr fertigt schon ein sehr ähnliches Produkt und habt dafür Qualitätsfähigkeitsnachweise bzw. Aufzeichnungen, aus denen sich die Qualitätsfähigkeit ableiten lässt. Vielleicht lässt sich Euer Kunde darauf ein, damit zufrieden zu sein, wenn Ihr ihm eine 100%-Prüfung seiner späteren Lieferungen zusichert.
b) Ihr wisst, was die Qualitätsfähigkeits-Forderungen des Kunden in Euren Prozessen beeinflusst, z. B. Material-Eigenschaften, Prozess-Parameter, usw. Ihr könnt damit für eine kleinere Vorserie mit einer minimalen Stückzahl von mindestens 30 nachweisen, dass Ihr den Prozess so beherrscht, dass die Qualitäts-Forderungen erfüllt werden. Und Ihr könnt auch nachweisen, dass Ihr die Stellgrößen kennt, mit denen Ihr Abweichungen vorab / im Prozess korrigieren könnt.
Das läuft auf ein statistisches Prozessmodell (SPM) hinaus.
c) Ihr wisst (leider) noch nicht genau, wie Ihr den Prozess fahren müsst oder welche Einflussgröße welchen Einfluss auf die Qualitätsfähigkeit hat bzw. wie groß dieser Einfluss ist. Hier hilft die Versuchsplanung (Design of Experiments / DoE), die wichtigen Einflüsse zu finden und optimale Prozess-Einstellungen zu bestimmen.
Auch die DoE-Verfahren sind ein Spezialfall der SPMs.
Mit den optimalen Einstellungen könnt Ihr dann in Bestätigungsversuchen zeigen, dass Ihr die Anforderungen erfüllt.
Bei den Möglichkeiten b) und c) kann die Qualitätsfähigkeit des Prozesses mit Hilfe des SPMs simuliert werden.
Variante a) ist sicherlich für Euch die kostengünstigste Alternative und wahrscheinlich für den Kunden inakzeptabel. Bei den Möglichkeiten b) und c) braucht Ihr ein bisschen mehr Geld, Zeit und Einsatz und bekommt dafür nicht nur die Vorhersage der Fähigkeit sondern auch viel Wissen über Eure Prozesse, das sich für andere Produkte nutzen lässt. Und Euer Kunde bekommt eine echte Prozess-Analyse und haltbare Aussagen zu den ppm’s.
Das sind die statistischen Möglichkeiten, die mir einfallen.
Viele Grüße
Barbara
_____________________________________
Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
(Ernest Rutherford, Physiker) -
AutorBeiträge