Verfasste Forenbeiträge

Ansicht von 15 Beiträgen - 16 bis 30 (von insgesamt 31)
  • Autor
    Beiträge
  • 19dreas70
    Teilnehmer
    Beitragsanzahl: 40
    als Antwort auf: Toleranz und Auflösung #63157

    Hallo Rinaari,

    Danke für die Antwort.

    Kurze Nachfrage:

    Die Toleranz ist 0,00x. Das bedeutet mit der 10% oder 5% Auflösung, dass das Meßmittel mindestens eine Auflösung von 0,000x habe sollte damit die Toleranzbreite gemessen werden kann.

    Ist die Auflösung denn geeignet, zu runden oder kann ich nur mit Sicherheit sagen, okay das 0,00x ist sicher und alles was danach kommt kann hinsichtlich der Sicherheit des Wertes nicht angeführt werden.

    Wenn ich z.B. ein Normal mit 0,002 messe, dann benötige ich eine Anzeige von 0,002X. Die Messungen würden jetzt (tippe ich mal) z.B.: so aussehen:

    1. Messung: 0,0020
    2. Messung: 0,0023
    3. Messung: 0,0022
    4. Messung: 0,0024
    5. Messung: 0,0025

    Was dabei sicher ist (und unverändert in der Anzeige) ist die 0,002. Alles anderen Werte schwanken (auch die Anzeige).

    Was wäre denn , wenn die Auflösung folgenden Wert zuließe:

    0,00201

    Theoretisch ist doch die maximale Grenze dann überschritten und zwar um 0,000001?

    Hat also die Auflösung etwas mit der Sicherheit des Messwertes zu tun?

    Danke Dir

    Gruß

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Barbara,

    Danke Dir für die ausführliche Antwort. Das wichtigste, was ich daraus ableite ist das Thema Vorhersagbarkeit. Wenn ich etwas vorhersagen möchte, dann sollte das Stichprobenmodell mit dem des zukünftigen Prozesses konform laufen.

    Leider sieht die Praxis anders aus. In Wikipedia steht beispielsweise, dass die Toleranzauslegung nicht in der Hand des Prozeßeigners liegen sollte (so oder so ähnlich). Praktisch läuft es aber wahrscheinlich darauf hinaus.

    Der Prozeßeigner bekommt eine Kennzahl „übergebraten“, kann diese aufgrund fehlender Voraussetzungen nicht einhalten, müßte also das Schaffen der Voraussetzung einfordern, bekommt aber die Mittel nicht, muss aber trotzdem die Kennzahleneinhalten (da diese geschrieben und somit Gesetzt sind) und weiß sich nicht anders zu helfen, als eine andere Spezifikation zu fordern. Und dabei bekommt nicht mehr die Ursache uneingeschränkte Aufmerksamkeit sondern die plumpe Zahl! Hauptsache die stimmt, dann ist der Ärger mit dem Management behoben und die Welt wieder in Ordnung. Was die Zahl aussagt, wie diese interpretiert werden müßte usw. wird zur Nebensache. Ob da etwas für eine Vorhersage genutzt wird, was chaotisch ist und demzufolge schlecht geeignet ist insofern auch Nebensache, wenn qs-stat sagt „Kennzahl in Ordnung“.

    Mein Fall ist nun in die Verlängerung gegangen! Ich habe versucht, dass was hier im Forum geschrieben wurde sachlich darzulegen. Man scheint der Argumentation gefolgt zu sein. Ja und nun schaue ich einfach einmal, wie die Geschichte letztendlich ausgeht.

    Danke nochmal und liebe Grüße

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Stefan,

    Danke für die Anmerkungen. Die Toleranzen sind doch bei 1,67 und bei 1,33 gleich, nur das die Standardabweichung kleiner bei 1,67 ist. Kann mich da aber täuschen. Ich muß nur wissen, wenn wie ich die Daten gewonnen habe.

    Zum Thema „Alles in einen Topf werfen“. Dahingehend die Bemerkung mit den Maschinen und Werkzeugen.

    Zum Thema Auswertung.

    Die Fertigung sagt, qs-stat bringt mir eine n.i.O. Kennzahl. Bitte gleicht Toleranzen an, wenn ihr könnt, damit wir eine i.O. Kennzahl erhalten. Nun schaue ich mir die Kurven an und stelle Chargensprünge durch die unterschiedlichen Größen, welche in einen Topf geworfen wurden fest. Das lasse ich unter den Tisch fallen und mache (nach Prüfung) das , was die Fertigung sagt. Kann ich mir nun sicher sein, dass diese Maßnahme die „versprochenen“ ppm Werte nun erreicht werden oder ist das Augenwischerei.

    Ich kann doch mit diesen Programmen auch die wildesten Verteilungen durch Angleichen von Toleranzen so hinzaubern, dass Alles gut ist. Wie belastbar sind die Ergebnisse. Ich möchte verhindern, dass man in einem Jahr das nochmals macht, um dann zum Schluss zu kommen, dass reicht immer noch nicht oder die Tolerenanzen müssen nun vielleicht sogar verschoben werden! Manchmal ist für mich das Anwenden von diesen Tools nur dazu da, eine Zahl für ein Blatt Papier zu kreieren. Wenn die in Ordnung ist, dann muß Nix unternommen oder investiert werden.

    Vielleicht ist dies besser so dargestellt.

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo,

    vielleicht ist der Sachverhalt so einfacher erklärt:

    Ist es möglich Toleranzen aus instabilen Prozessen abzuleiten?

    oder aus der anderen Richtung gesehen.

    Ich definiere Toleranzen! Im Anschluss werden über längere Zeiträume Daten gesammelt und gs-stat damit gefüttert. Ergebnis ist eine erweiterte Normalverteilung und so wie ich das verstehe interpretiert dies qs-stat als instabilen Prozess und gibt ppk und pp Werte aus!

    Jetzt sagt qs-stat, dass die Daten i.O. wären, wenn ppk 1,33 erreicht würde.

    Kann man dadurch schlussfolgern…. Alles in Ordnung? Weder seitens des Prozesses muss etwas getan werden noch von Seiten der Entwicklung da deren Toleranz ja im i.O. Bereich der Software liegt und der wäre ppk1,33?

    Danke und liebe Grüße

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Barbara,

    danke nochmals für die ausführliche Beantwortung zum Thema. Ob die zweite Untersuchung auch normalverteilt war??

    Das muß ich echt prüfen. Das erste Ergebnis kam als qstat Ausdruck und das zweite Ergebnis wurde mir tatsächlich nur über eine Mail mitgeteilt … ohne entsprechendes Dokument sondern nur in Prosa! Das lasse ich mir nochmal zukommen.

    Ich werden nächste Woche einmal in der Stadt in eine gute Buchhandlung mit den empfohlenen Einkaufszettel gehen. Mal sehen, ob die Bücher verfügbar sind und ob ich das als „quereinsteigender Entwickler“ auch verstehe. [:)]

    Ich bin mir sicher, dass es der Papiertiger viele gibt. Ich erinnere mich an Analysen, wo Spezifikationsgrenzen funktionsbedingt gleich sein müssen aber diese über mehre Baugrößen hinweg untersucht wurden. Das Ganze wurde auf einer Folie dargestellt und dann kamen die unterschiedlichsten Verteilungsfunktionen heraus und diese lagen an unteren und oberen Toleranzgrenzen. Im Unterschied zu dem geschilderten Kunststofffall, wurde aber nur eine Analyse pro Baugröße durchgeführt. Es wurden also (bis jetzt) keine Folgeuntersuchungen durchgeführt.

    Fazit, wenn ich eine einheitliche Spezifikationsgrenze aufgrund der „Addition“ aller Verteilungen festlegen müßte, dann würde ich von meinen Chef gelyncht werden. Das mit der Addition ist vielleicht besser so beschrieben: Ich untersuche in einer PFU alle Größen gleichzeitig.

    Das sind alles Fälle, wo die Statistik sehr hilfreich ist, denn das zeigt, dass man über diese Größen nicht einfach das Verfahren 1:1 übernehmen kann, sondern das hier von Größe zu Größe die Prozesse untersucht werden müßten, damit Alles zusammenpasst.

    Ein Beispiel (weit hergeholt)

    Ich habe eine kleine und eine riesige Scheibe Brot, welche ich in der tolerierten Zeit X mit Butter bestreichen muß. Als Werkzeug (Anlage) steht mir ein für die kleine Scheibe Brot ausgelegtes Messer zur Verfügung. Dann lege ich los und einer Stoppt das Prozessziel Zeit. Jetzt wird herauskommen, dass ich mit dem gleichen Messer 125 kleine Brote in der tolerierten Zeit schaffe … für 125 große Scheiben brauche ich sehr viel länger.

    Das ist das Ergebnis und jetzt könnte der Prozeßeigner sagen:

    Die Zeit ist zu eng toleriert und das mit den kleinen Messer erwähnt er nicht.
    Würde ich die Scheiben Brot nicht selbst geschmiert haben, dann glaube ich ihn das dann auch auf Anhieb. „Das scheint also nicht machbar zu sein“

    Der bequeme Weg ist sicher, eine tolerierte Größe zu erweitern als auch einmal auf den Prozess zu schauen, denn die Auswertung sagt eigentlich, der Prozeß muss angepasst oder untersucht werden ( das mit den kleinen Messer, was übersetzt die gleiche Anlage ist) funktioniert nicht. Entweder ich erhöhe meine Taktfrequenz oder ich nehme ein größeres Messer.

    Oh ich glaube, dass ist dann wirklich arg konstruiert. Na ja! Aber so ähnlich sehen die Konflikte teilweise im realen Leben wirklich aus.

    Danke nochmals

    Viele Grüße

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Barbara, hallo Frank,

    Danke für die Antworten. Was mir sehr gut gefallen hat, sind die Darstellungen von Barbara, wie man instabile Prozesse erkennbar werden. Ganz wertvoll für mich als Entwickler, denn ich möchte da nicht nur hinnehmen sondern auch verstehen.

    Zur den Fragen:

    „Was ist normalverteilt?“: Es wurden 125 Messwerte ermittelt und diese sind nach qstat – Auswertung normalverteilt. Mehr Daten habe ich nicht zur Verfügung bekommen.

    „Wie ist die Schwankungsbreite des cmK?“: Der cmK tendierte gegen eine untere Toleranzgrenze und lag unter 1,67. Nach nochmaliger Analyse der Spezifikationsgrenzen war es möglich, diese anzugleichen, so dass ein Wert von ca. 3 errechnet werden konnte. Die erneute Bemusterung ergab, dass die Messungen jetzt einen cpK Wert von unter 1,67 ergaben, welche allerdings die obere Spezifikationsgrenze betrafen, was den Prozesseigner dahingehend bewegte, die Toleranz grundsätzlich als nicht herstellbar einzuordnen. Das Ganze mit der Forderung verbunden, diese jetzt nach oben zu öffnen. Der obere cpk war hingegen in der ersten Bemusterung weit weg von 1,67.

    Dabei habe ich mir die Frage gestellt, was diese Untersuchung für einen Nährwert hat, wenn diese ganz offensichtlich nicht zu statistisch belastbaren Ergebnissen führt?

    Der Hinweis mit den schicken Ergebnissen und den Umgang mit diesen Werkzeugen bzw. deren Ergebnissem … . Genauso sieht es leider aus [:)].

    Zum Thema Literatur: Wie gesagt ich bin Entwickler, würde mich aber gerne in diese Sachen weiterbilden, da dies immer mehr bei uns zum Thema wird und weil mich die Sache interssiert und auch Spass macht. Vielleicht gibt es eine Art Einsteigerliteratur? Da ich in Mathematik eigentlich fit bin, wäre es sogar schön, wenn manches nicht nur verbal sondern auch mathematisch bewiesen werden würde!

    Danke nochmals !

    Liebe Grüße

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo und Danke für die Denkansätze!

    Da wir Anfang nächsten Jahres ein zweitägigen workshop haben, werde ich versuchen, das Ganze etwas aufzubereiten! Meines Erachtens ist es wichtig, dass wir hier wirklich nicht nur die Untersuchungen durchführen, sondern die Ergebnisse auch interpretieren. Und aus Deinen Anregungen entstehen da schon einige Ansatzpunkte:

    1. Die bisherigen Ergebnisse sind normalverteilt, die Prozeßstreuung sehr eng, und der cm Wert ist hervorragend. Das sagt doch eigentlich, dass der Prozess beherrschbar ist!

    2. Der cmk-Wert ist nicht konstant. Würde nur der Einfluss einer nicht ganz korrekten Schwindungsauslegung im Werkzeug bestehem, dann dürfte dieser nicht so stark schwanken.

    3. Was mir jetzt auch aufgefallen ist: Wir haben bei vielen ähnlichen Teilen und ähnlichen Nennwerten nebst Toleranz ein Spektrum von cm – Werten von 2 bis 7. Das erscheint mir auch etwas weit gefasst!

    4. Bleiben Einflüsse, welche es näher zu untersuchen gilt:
    – Wurde die Maschinen vielleicht doch gewechselt (Kappaprobleme)?
    – Wurde vielleicht die Zykluszeit herabgesetzt um mehr Durchsatz pro Zeiteinheit zu erreichen?
    – Chargenprobleme, d.h. wie verhalten sich chargenabhängige Schwindungen (vom Lieferanten vorgegeben und toleranzbehaftet)
    – wichtig auch MSA´s!
    – DOE wurde durchgeführt!
    – Wann werden Messungen durchgeführt? Geschieht dies zeitnah oder auch wieder aus Kapazitätsproblemen nach längerem Liegen der Teile?

    Ich denke, diese Problematiken sollte man näher untersuchen, um nicht nur die Ergebnisse hinnehmen zu müssen sondern auch, um sie zu verstehen!

    Danke nochmals! Vielleicht eine Frage noch:

    Ich bin, wie bereits geschrieben, Entwickler. Gibt es vielleicht gute, praxisnahe und für Quereinsteiger verständliche Literatur? Danke nochmals!

    Mit freundlichen Grüßen

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Frank,

    Danke Dir nochmals und ich glaube, dass Du da Recht hast.

    Es ist unsere Fertigung. Die Problematik, denke ich ist durch so viele Einflussgrößen bestimmt, dass es wahrscheinlich wenig Sinn macht, die Statistik für die Prozesssbewertung mit einzubeziehen. Na ja, die ist aber „politisch“ eingefordert und damit müssen wir leben.

    Die Toleranzauslegung von Kunststoffteilen ist ebenfalls eine heikle Sache. Ich kann teilweise gar nicht im vollen Umfang funktionell auslegen, weil über das Verfahren beispielsweise keine Grenzmuster fertigbar sind, welche man testen kann. Desweiteren fünktioniert das Paaren von Kunststoffteilen beispielsweise noch, wo Stahl schon aufgeben muß. Die Teile sind elastisch und so „drückt und schiebt“ sich das Ganze noch ganz gut, wo man sagen müßte: Dieses Übermass lässt eine Montage nicht zu. Dann kriecht Kunststoff noch unter Belastung . Also bleibt teilweise nur Augenmaß und Erfahrung für sinnvolle Auslegungen.

    Zu guter Letzt sind Fertigungstoleranzen noch vom Typ des Kunststoffes abhängig (Wasseraufnahme, Nachschwindung etc.)

    Ich denke, der richtige Weg ist, sich hier einmal mit den Qualitätern in Vebindung zu setzen und vielleicht gibt es Ansätze, welche einfach nur nicht angewendet werden. Es werden manchmal wahrscheinlich aber einfach Tools benutzt, ohne vorab sich aufdrängende Fragen zu stellen.

    Mal sehen, wie es weitergeht. Das Thema beschäftigt mich seit geraumer Zeit fast täglich.

    Danke nochmals und ein schönes WE

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Frank,

    Danke für die Antwort. Ich glaube, dass die Einflussgrößen von Bemusterung zu Bemusterung vielfältig sind. So spielt das Granulat garantiert eine Rolle, die Teile schwinden nach, Kunststoff nimmt Wasser auf und vielleicht kommen noch diverse Einflüsse beim Messen hinzu.

    Beim Bemustern (vor Serienstart) der Teile werden 125 Stück vermessen. Toleranzen und Prozesstreuung haben auch ein sehr gutes Verhältnis. Aufgrund der Werkzeugauslegung (Schwindungsvorhalten im Werkzeug) kommt der Mittelwert der Messwerte mehr oder weniger gut in der Toleranzmitte zum liegen. Das hängt bei diesem Verfahren von der Erfahrung des Werkzeugkonstrukteurs (wie genau kann er die Schwindung vorhersagen) und Werkzeugeinflüssen (z.B. wo wird wie gekühlt) zusammen. Ergebnis ist beispielsweise ein cmK von 3,0!

    In einer nächsten Bemusterung springt der Mittelwert der Messung bei ähnlicher Prozeßstreuung. Aus einem guten cmk wird ein unzulässig kleiner cmK<1,0.

    Nun bin ich der Entwickler des Teiles und erhalte nach der ersten Bemusterung folgende Informationen:

    1. die Toleranz ist prozessfähig herstellbar. Jetzt sagt mir das, dass zukünftig gefertigte Teile sich ähnlich verhalten, was sie aber nicht tun.

    Nach einer Nachbemusterung (ein Detail wurde beispielsweise korrigiert),bleibt der cm Wert sehr gut der cmk Wert ändert sich rapide.

    – Vielleicht ist der Prozess gar nicht statistisch bewertbar, da instabil? (Ich bin leider nicht der Qualitäter!)

    – Wie erhalte ich überhaupt die Information „der Prozess ist ggf. statistisch nicht bewertbar“? Gibt es da Hinweise oder „Messgrößen“?

    – Wenn man dies feststellt, machen dann solche statistischen Untersuchungen überhaupt Sinn? Der Informationsgehalt bleibt doch augenscheinlich gering

    – Wie wird in der Praxis denn auf solche Prozesse reagiert? Ich kann mir vorstellen, dass es viele Prozesse gibt, wo man aufgrund mannigfaltiger Einflüsse erst nachdem das Prtodukt produziert ist, feststellen kann, dass etwas nicht stimmt?

    – Was mich auch umtreibt ist die Frage, ob ein cmk Wert für eine Prozessfähigkeit überhaupt geeignet ist?

    Danke nochmals.

    Viele Grüße

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40
    als Antwort auf: CmK oder CpK #62085

    Hallo Barbara,

    Danke nochmals. Ich sehe das ganz ähnlich und bin mitten in der Diskussion mit unseren Qualitätern.

    „Blöd ist halt nur, wenn Du rechnerisch 1 Ausschussteil in 5 Jahren hast und nächste Woche jemand mit diesem 1 Ausschussteil auf der Matte steht. Die Statistik kann Dir nur etwas über die Auftrittswahrscheinlichkeit sagen, aber nicht dazu, wann genau ein Ereignis auftritt.“

    Dieses Thema wurde in unseren Diskussionen auch aufgeworfen. „Wie interpretiere ich Ausschuss von externen Lieferanten, welche keine Prozessfähigkeit nachweisen?“ Lieferant A fertigt ohne einen Nachweis zu erbringen prozesssicher. Lieferant B fertigt selbiges Teil und weißt durch einen Erstmusterprüfbericht nach, dass er innerhalb der Spezifikation fertigt. Er vermisst jedoch nur 5 Teile, welche i.O. sind. Das sagt noch nichts über dessen Prozesssicherheit, welche durchaus schlecht sein kann, aus. Dann darf man sich auch nicht wundern, wenn trotz EMPB und Zeichnungen auf aktuellen Stand Probleme auftauchen, welche keiner erklären kann.

    Die Diskussionen werden noch spannend! Die Ausführungen haben mir sehr hinsichtlich Argumentation sehr weiter geholfen.

    Danke Dir und viele Grüße

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40
    als Antwort auf: CmK oder CpK #62079

    Hallo Stefan, hallo Barbara,

    Danke für Eure ausführlichen Informationen. Vielleicht erkläre ich den einen oder anderen Sachverhalt einfach einmal etwas genauer.

    –> Zur Frage: Was ich an den den Untersuchen der Prozesse auf Maschinenfähigkeit fragwürdig finde.

    An sich finde ich dieses Mittel schon legitim. Ich bin Entwickler, wie Ihr merkt und mit diesen Themen werde ich immer häufiger konfrontiert. Wo ich Probleme habe ist, das im Nachhinein untersucht wird. D.h. wenn es Prozesse gibt, welche nach Jahren erstmals untersucht werden, dann kann auf diese Prozesse / Maschinen / Vorrichtungen / Anlagen kein Einfluss mehr genommen werden, diese sind materiell vorhanden.

    Wenn ich aber im Vorfeld einer Entwicklung das Thema Prozessfähigkeit etabliert habe, dann kann die Beschaffung oder die Konstruktion von Maschinen und Anlagen beeinflusst werden. Ich müsste bei Ersteren Fall (im Nachhinein) entweder massiv investieren oder die gesamte Produktion hinterfragen und Alles neu aufstellen.

    Dabei sprechen die Reklamationen für den Prozess, d.h. entweder werden Fehler im Unternehmen entdeckt (gelangen nicht zum Kunden) oder diese Fehler sind weniger gravierend. Nicht jede Funktion lässt sich 1:1 an einer Toleranz festmachen. Meist sind es so viele Abhängigkeiten, dass diese nicht mehr erfassbar sind.

    –> Zur Frage Maschinenfähigkeit und Zeichnungen:

    Es handelt sich dabei um Produktzeichnungen, d.h. es ist denkbar, dass ein Merkmal in 3 Werken auf 6 Maschinen gefertigt wird. Für eine dieser Maschinen wird die Fähigkeit ermittelt und da der Prozess etabliert ist, bleiben zwei Optionen. Entweder ich investiere kräftig neu (und lege die Produktion lahm), da die Fähigkeit nicht nachgewiesen wird oder ich erweitere die Spezifikationsgrenzen der Zeichnung. Dabei ist die Produktzeichnung gar nicht für eine Maschine gedacht, sondern gilt generell, d.h. für das Produkt ist es nicht relevant, ob auf einer oder sechs Maschinen gefertigt wird. Eine Erweiterung von Spezifikationen aufgrund einer Maschinenfähigkeit denke ich ist dann doch nicht zielführend. Wenn überhaupt, dann muss ich doch langfristige Untersuchungen über mehrere Maschinen erstellen. Da wäre der cpK doch eher anzusetzen?

    –> Zur Frage Stückzahlen für Fähigkeiten:

    Das Beispiel Flugzeug ist gut und das mit dem „Ausschuss verschmerzen“ war falsch formuliert. Ausschuss ist auch aus Entwicklersicht zu vermeiden. Bei diesem Thema war der Gedanke ein Anderer. Auch wenn die Stückzahlen gering sind, so ist man im Produktionsbereich permanent bestrebt (schon aus Kosten- und Qualitätsgründen) in der Serie Ratiopotenziale zu finden und so kann man davon ausgehen, dass sich die Produktion in gewissen Zeiträumen komplett erneuert ohne dass sich das Produkt ändert. D.h. innerhalb des ppm Zeitraumes wird der Prozess sich mehrmals komplett geändert haben. Dabei bin ich mir nicht sicher, ob über einen cpk belastbare ppm Werte regeneriert werden.

    Vielleicht ein Beispiel. Ich fertige 5.000 Teile im Jahr und untersuche den Prozess und ermittle eine cpk 1,33 mit dem dahinterstehenden ppm-Anteil. Nach zwei Jahren und 10.000 gefertigten Teilen muss aus Verschleißgründen in eine neue Maschine investiert werden. Dann würden wieder neue Fähigkeitsuntersuchungen anstehen. Wieder wird 1,33 angestrebt.

    Dabei ist die Frage, ob es statistisch in diesen zwei Jahren überhaupt einen Ausschussfall geben wird. Wenn ich 10.000 000 Teile im Jahr fertige hat der cpK 1,33 doch eine andere Relevanz? Auch noch zu berücksichtigen, die Entdeckungswahrscheinlichkeit für Ausschuss ist innerhalb des Unternehmens hoch!

    Auch bei einem cpK von 1,25; was zum Fazit führen würde … nicht prozessfähig, wird es in zwei Jahren doch wahrscheinlich auch keinen Ausschuss geben? D.h. ich könnte auch 1,25 als prozessfähig ansehen, denn rechnerisch wird alle 2,3 Jahre ein Fehler auftreten, wobei der Prozess bereits nach 2 Jahren ein anderer ist.

    Ich gebe zu, das ist ein wenig arg konstruiert aber trifft so ungefähr mein Gedankenproblem.

    Meine Frage zielte daraufhin, ob der Prozesslebenszyklus und die Stückzahlen nicht in die cpK Betrachtung einfließen müßten?

    Und für mich am Wertvollsten, der Tipp mit den Regelkarten. Das muss ich einfach einmal hinterfragen!

    Danke nochmals!

    Viele Grüße

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40
    als Antwort auf: Montagefehler vermeiden #62073

    PS.: ich bin auch der Meinung, das MA, welche diese Werkzeuge einführen, sich mindestens vier Wochen in allen Bereichen des Produktentstehungsprozesses aufhalten sollten. Manche Entscheidung dazu würde überdacht werden. So bleiben Sie Herr der Statistiken und Zahlen und das Ohr an der Fertigung geht verloren. Schade!

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40
    als Antwort auf: Montagefehler vermeiden #62072

    Hallo,

    zum Thema PokaYoke;

    Wenn die Entwicklung nah an der Fertigung ist und auch für deren Belange Interesse zeigt, ist dies ein geeignetes Werkzeug. Ich als Entwickler kann sagen, es lässt sich vieles vermeiden, wenn man weiss, dass in der Fertigung nach Stoppuhr geschafft wird und das sich bei monotonen, stundenlangen und gleichartigen Handlungsabläufen Fehler einschleichen. Vieles erschließt sich einen nicht, ohne dies zu berücksichtigen. Man ist fern der Fertigung geneigt, die Meinung zu vertreten … „Da muß man halt die Augen besser aufmachen!“. Gut gesagt aber schwer umzusetzen. Zum Anderen ist die Nationalitätenvielfalt hoch, Schulungen aufwendig und teilweise werden diese kaum verstanden.

    Also „Entwickler rein in die Fertigung, ansehen und dann kommt das Verständnis von alleine“

    FMEA´s …. mmmh. Da bin ich kein Fan von. Da wird wochenlang jedes Merkmal gequält „Warum haben sie die Bohrung 5mm gewählt?, warum kann diese nicht größer sein, wie haben sie dieses Maß erarbeitet und was für Fehler können aus dem Gewählten resultieren????“ Ich sag mal, die Arbeit in bestimmten Positionen und Tätigkeitsfeldern sollte Spaß machen und da muß man nicht Alles hinterfragen. Die wirklichen Knackpunkte findet man nicht, da man diese mit Nichten auf dem Plan hat. Die Fehler werden durch Versuche entdeckt und manchmal kann man es nicht glauben, was Alles passiert.

    Fazit FMEA … nach wochenlangen Erarbeiten eines hunderte Seiten langen Maßnahmenkataloges ist man platt wie eine Flunder und welcher Chef gibt einen Zeit, sich ein halbes Jahr und länger mit den Abarbeiten sämtlicher Fragen zu beschäftigen.

    Hauptsache ist und das ist wirklich so, man kann die Frage „Ist die FMEA als Projektmeilenstein abgeschlossen?“ mit ja beantworten. Dann sind Alle glücklich und klopfen sich auf die Schulter. Was dieses Werkzeug an Manpower und Zeit verschlungen hat ist nicht relevant. Gequältes Papier. Das ist meine Meinung und ich spreche aus Erfahrung.

    Wir werden dadurch sicher immer besser aber auch immer langsamer. Lieber als erster gut als spät perfekt. Das trifft es gut.

    MfG 19dreas70

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Barbara,

    erstmal Danke für Deine Antwort. Ich glaube, der Ansatz Schlussmaß = Normalverteilung macht dann wirklich keinen Sinn. Ich habs befürchtet [B)]

    Ich werde mein Excel etwas minimieren und nur noch die arithmetische Toleranzrechnung und die Monte Carlo Analyse beibehalten. Den allgemeinen Ansatz = Rechnung statistisch mit Taschenrechner werde ich herausnehmen.

    Ich habe mir jetzt Literatur bei casim.de bestellt und hoffe, dass Sie diese liefern können. Die Autoren sind Mannewitz und Klein und vor allem was ich von Mannewitz gelesen habe, scheint aufschlussreich zu sein.

    Die schiefen Verteilungen lassen mich noch nicht los, weil ich ja dem Nutzer eine Eingabe für eines der Kettenglieder ermöglichen muß.

    Was hat er? Er hat eine obere Toleranz und einen Erwartungswert hinsichtlich der Überschreitungsanteile und er weiß, dass das ein nullbegrenztes Merkmal ist. Das die Verteilung dann eine Schätzung ist … es ist halt eine theoretische Vorausrechnung ohne die zukünftigen Ergebnisse zu kennen.

    Wenn ich z.B. die ursprünglich erwähnte Lognormalverteilung habe, dann ist die obere Grenze transfomierbar aber Null nicht oder besser die geht gegen minus unendlich. Und Excel verlangt einen Mittelwert der transformierten Lognormalverteilung. Die kann ich nicht liefern und auch nicht simulieren, denn dort brauche ich diesen ebenfalls.

    Ich hoffe, ich finde dafür einen Ansatz. Ich habe vor kurzen einen Artikel gelesen, der so etwas durch Zielwerte beschreibt.

    Ich glaube aber, ich muß mich ersteinmal theoretisch tiefer mit diesem Sachverhalt auseinandersetzen um nicht vom hundertsten ins tausendste zu springen. Bitte um Nachsicht [:)]

    Die Tipps waren sehr aufschlussreich und haben mir hinsichtlich der Auswertung des Schlussmaßes enorm weitergeholfen.

    Danke Nochmals und liebe Grüße aus Unterfranken

    Andreas

    19dreas70
    Teilnehmer
    Beitragsanzahl: 40

    Hallo Barbara,

    erstmal Danke ür Deine Informationen. Der Link hat mir für das Verständnis von nullbegrenzten Verteilungen sehr weitergeholfen. Ich habe in meinen Unternehmen und privat versucht, entsprechende Literatur zu studieren. Leider halten diese sich relativ kurz und knapp. Das heißt über Dreiecks-, Normal-, Trapez- und Rechteckverteilungen gehen diese nicht hinaus. Und das spiegelt nur einen Teil der Wirklichkeit wieder.

    Ich bin der Typ Mensch, der auch verstehen möchte, was er macht und so lässt mich das Thema nicht so schnell wieder los.

    Ich finde das Ganze Thema sehr spannend und hochgradig interessant und das nicht nur aus beruflichen Interessen. So bin ich auch auf dieses Forum gestoßen.

    Mein Ansatzpunkt Betragsverteilung war vielleicht etwas ausführlicher beschrieben Folgender. Ich simuliere eine Normalverteilung, welche begrenzt ist durch eine negative und einen positive Toleranzgröße mit Mittelwert Null über eine Normalverteilung in Excel in einer Monte Carlo Analyse und da die Ergebnisse positiv und negativ ausfallen können, wollte ich über die Beträge aus den zufällig negativen Werten zufällig positive machen. Das heißt z.B. die negativen Werte, welche sich nahe Null befinden werden den positiven, welche sich nahe Null befinden aufgeschlagen?

    Es gibt die Gesetzmäßigkeit, das egal welche Verteilung vorliegt, die des Schlußmaßes normalverteilt ist, wenn mindestens 4 Einzelverteilungen vorliegen. Ich befürchte, das gilt nur für symmetrische Verteilungen.

    Dahingehend wollte ich mein kleines Toleranzprogramm so bearbeiten, dass schiefe Verteilungen mit implementiert werden.

    Dabei hatte ich eine arithmetische Toleranzberechnung, eine statistische (Summe Schlussmaßvarianz = Summe Einzelvarianzen) und eine Monte Carloanalyse integriert.

    Der Auswertung der Montecarloanalyse (hinsichtlich ppm´s) wird eine Normalverteilung überlagert, um dies zu erreichen.

    Und dabei bin ich auf schiefe Verteilungen gestoßen, denn wenn ich kein normalverteiltes Schlussmaß habe, dann kann ich nicht eine Normalverteilung für die Berechnung der ppm´s ansetzen. Die logarithmische schien mir für das Verständnis ersteinmal geeignet, da sie ja einen Zusammenhang zur Normalverteilung hat und dort sind die Gesetzmäßigkeiten auch für einen Laien wie mich nachvollziehbar.

    Ich danke Dir für Deine Hilfe und ich begebe mich auf Literatursuche. Die Q4U – Vorlagen sind spitze geschrieben und das deshalb, weil sie verständlich sind.

    Vielleicht kannst Du nochmals diese Ausführungen Dir ansehen und mir vielleicht den einen oder anderen Denkfehler nahebringen. Das wäre super und würde mir extrem helfen

    Danke und ein schönes Wochenende

    Andreas

Ansicht von 15 Beiträgen - 16 bis 30 (von insgesamt 31)