Verfasste Forenbeiträge

Ansicht von 15 Beiträgen - 2,671 bis 2,685 (von insgesamt 2,697)
  • Autor
    Beiträge
  • Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Kennzahl Krankheitstage #26354

    Hallo hccv,

    es gibt einen Gesundheitsbericht des Bundes (GBE), der vom Robert-Koch-Institut veröffentlicht wird (www.rki.de). Gefunden habe ich eine Analyse der AU-Tage von 1999. Leider nichts Neueres, weil es immer etwas dauert, bis die großen Datenmengen erhoben, analysiert und veröffentlicht werden.

    1999 gab es bei den BKK-Pflichtversicherten durchschnittlich 16,4 AU-Tage. Bei den Arbeitern waren es durchschnittlich 21, bei den Angestellten 10. Deutliche Unterschiede zeigen sich auch bezüglich den Geschlechtern, der Altersstruktur und der Arbeitsorganisation (Schichtarbeit, Büroarbeit, etc.). Bei den Branchen variieren die Zahlen zwischen ca. 28 AU-Tagen in der Abfallwirtschaft und ca. 10 AU-Tagen im Bereich Banken und Versicherungen. Veröffentlichte Zahlen kenne ich auch nur von den gesetzlichen Krankenkassen; die privaten halten sich in dem Bereich sehr bedeckt mit Veröffentlichungen.

    Es ist also schwierig, die Zahlen überhaupt miteinander zu vergleichen. Ein Satz von 1,8% kommt mir allerdings auch sehr niedrig vor, könnte an Eurer Altersstruktur oder der Arbeitsorganisation liegen oder wie Frank vermutet hatte daran, dass sich Eure MAs nicht trauen, sich krankschreiben zu lassen.

    Insofern sagt die absolute Zahl auch wenig darüber aus, ob Eure MAs zufrieden sind oder nicht. Sicherlich sind zufriedene MAs auch grundsätzlich gesünder, ich finde allerdings den umgekehrten Schluss (MAs anwesend daraus folgt MAs zufrieden) sehr wackelig, weil das auch andere Ursachen haben kann. Gerade im Moment haben einfach viele Angst, ihren Arbeitsplatz zu verlieren und schleppen sich noch halbtot hin. Auch lässt sich aus der reinen Anwesenheit nicht schließen, dass MAS zufrieden sind, denn dazu gehört auch so etwas wie „befriedigende Anwesenheit“. Als Kennzahl für Mitarbeiterzufriedenheit finde ich die Krankheitstage pro Jahr deswegen wenig geeignet.

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Maschinenfähigkeit? #26350

    Hallo Frank, hallo Martin,

    hier noch etwas zur Gut-Schlecht-Prüfung (qualitativ) gegenüber der quantitativen Prüfung:
    Bei der qualitativen Prüfung werden die Informationen sehr hoch verdichtet (es ist entweder hopp oder topp). Das kann sinnvoll sein, wenn die qualitative Prüfung zu aufwändig ist oder der Prozess relativ robust im Bezug auf das geprüfte Teil ist (wenig Streuung durch Unterschiede).
    Vorteil der quantitativen Prüfung: Die Untersuchung ist sehr viel detaillierter, Qualitätsminderungen im Endergebnis können auf Streuungsschwankungen beim Input zurückgeführt werden. Nachteil: Häufig sehr viel aufwändiger.

    Ab wann statistische Verfahren sinnvoll sind, hängt vom untersuchten Prozess und den verwendeten Methoden ab. 25 ist ein Grenzwert für Normalverteilungsmethoden, bei sehr instabilen Prozessen mit vielen Störgrößen ist das aber deutlich zu wenig. Es gibt andere Verfahren, die schon für sehr kleine Stichprobengrößen anwendbar sind. Grundsätzlich werden statistische Verfahren mit zunehmender Stichprobengröße besser; es muss allerdings immer berücksichtigt werden, welcher Aufwand für die Messung anfällt und wie hoch der (voraussichtliche) Nutzen ist.

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Maschinenfähigkeit? #26349

    Hallo Martin,

    eins ist mir absolut unklar: Welcher Zweck hat Untersuchung der Maschinenfähigkeit? Hat sich das „nur“ jemand ausgedacht oder gibt es eine konkrete Vorgabe?

    Ich würde erstmal eine grobe Überschlagsrechnung machen, was diese Untersuchung kostet und welchen Nutzen sie hat. Dieses Verhältnis scheint mir bei Euch nicht wirklich ausgewogen zu sein…

    Wenn das Ziel ist, die Maschinenfähigkeit zu untersuchen, dann wird überprüft, ob die Maschinen das machen, was sie sollen. Bei der Prozessfähigkeit wird untersucht, ob das Ergebnis den Vorgaben entspricht. Bei beiden Fähigkeitsuntersuchungen werden gewisse Streuungen als „normal“ bezeichnet; ist die Streuung „zu groß“, ist die Maschinen- oder Prozessfähigkeit nicht gegeben.

    Um die Fähigkeit beurteilen zu können, brauche ich also eine Basis, die mir sagt, was normal oder tolerierbar ist. Auf dieser Basis wird dann ein statistisches Modell konstruiert, wo die Grenzen von normal oder tolerierbar sind (z. B. 3-Sigma-Grenzen bei Normalverteilung).

    Bei der Prozessfähigkeitsuntersuchung ist es wegen der Vielzahl von möglichen Einflussfaktoren erstmal wichtig diejenigen zu finden, die einen signifikanten Einfluss auf das Ergebnis haben. Im zweiten Schritt wird die Höhe dieses Einflusses quantifiziert (wenn z. B. die Temperatur 5 Grad über dem Mittel liegt, dann wird die Ergebnisqualität um 2% gemindert o. ä.) Im nächsten Schritt werden dann die wichtigen Einflussfaktoren optimal eingestellt und in der laufenden Produktion überwacht, ob das Modell funktioniert oder (ärgerlicherweise) wichtige Einflussgrößen vernachlässigt wurden. Und ganz am Ende dieser Untersuchung steht dann die Aussage, ob ein Prozess fähig ist oder nicht.

    Erst wenn ich weiß, welche Faktoren mein Ergebnis maßgeblich beeinflussen, kann ich diese Einflussgrößen auch steuern. Es ist viel zu aufwändig, in komplexen Prozessen alles unter Kontrolle haben zu wollen – wichtig ist das zu kontrollieren und zu steuern, was das Ergebnis beeinflusst.

    Also hier die konkreten Fragen an Dich:
    *Welches Ziel soll mit der Maschinenfähigkeitsuntersuchung erreicht werden?
    *Habt Ihr die Maschinen und den Produktionsprozess schon mit statistischen Verfahren nach relevanten Einflussgrößen und diese quantifiziert?

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Mitarbeiterumfrage #26348

    Hallo Stefanie, hallo Martin, hallo Inge,

    grundsätzlich gibt es verschiedene
    Dimensionen, die bei der Befragung von MAs berücksichtigt werden müssen. Einige davon sind das Abstraktionsniveau, die Anonymität, der Datenschutz, die Art der Fragen und die Auswertungsverfahren.

    *Abstraktionsniveau:
    Wenn ich irgend etwas von Menschen wissen möchte, muss ich mir als erstes Gedanken dazu machen, auf welches Abstraktionsniveau ich möchte. Wenn ich beispielsweise allgemein wissen will, wie sich der Markt für Neuwagen entwickelt, dann kann ich die Haushaltsführenden fragen, ob sie im nächsten halben Jahr voraussichtlich ein Auto kaufen wollen. Wenn ich als Autohersteller wissen will, wie viele meiner Autos voraussichtlich im nächsten Jahr verkauft werden, dann muss ich spezieller fragen. Genauso ist es beim Fragebogen bzw. MA-Gespräch: Möchte ich generell etwas wissen (hohes Abstraktionsniveau), dann hilft mir ein Fragebogen. Möchte ich gezielte Informationen über Wünsche und Schwierigkeiten, dann muss ich auch gezielt die Menschen fragen, die es berührt (niedriges Abstraktionsniveau).
    Die GL ist eher daran interessiert, wie die allgemeine Stimmung ist während die einzelnen Abteilungen neben der Grundstimmung sicherlich auch konkrete Maßnahmen realisieren wollen (wenn Handlungsbedarf besteht).
    Deshalb ist es wichtig, als erstes das Ziel der Erhebung zu definieren, damit die angemessenen Mittel gewählt werden können.

    *Anonymität:
    Du hast sicher Recht, Martin, wenn Du sagst, dass Menschen dazu neigen, mit ihrer Meinung hinter dem Berg zu halten, gerade wenn sie Nachteile befürchten. Wir können aber die Menschen nicht ändern und müssen deshalb mit dem auskommen, was da ist. Auf längere Sicht ist es sicherlich sinnvoll, ein vertrauensvolles Klima zu schaffen, in dem Menschen ermutigt werden, ihre Meinung offen zu äußern und Probleme direkt anzusprechen. Die Realität sieht leider oft anders aus, deshalb ist es für mich immer noch hilfreicher, MAs anonym zu befragen als zu hoffen, dass alle relevanten Probleme direkt geklärt werden. Sicherlich gibt es Vertrauenspersonen, an die sich die MAs bei Problemen wenden können. Andererseits gibt es relativ viele Menschen, die – aus welchen Gründen auch immer – nicht von sich aus aktiv werden, solange der Leidensdruck noch nicht hoch genug ist. Wenn es dann zu viel wird, ist die Situation oft schon sehr verfahren und die Klärung sehr schwierig.
    Ein anderer Aspekt bei der Fragebogenerhebung ist, dass auch positive Tendenzen erfragt werden. Die Ansprache einer Vertrauensperson wird oft dann gemacht, wenn es Probleme gibt. Ich geh ja nicht da hin und sage: „Mir gehts prima hier, ich bin zufrieden.“, sondern ich suche das Gespräch, wenn ich eine Veränderung herbeiführen möchte.
    Wenn ich mich also auf das verlasse, was bei Vertrauenspersonen ankommt, dann habe ich eine ziemliche Verzerrung, weil einerseits Lob oft nicht angesprochen wird und andererseits Menschen dazu neigen, Probleme erst dann anzusprechen, wenn sie einen Handlungsbedarf sehen.

    *Datenschutz:
    Datenschutz ist ein ganz wichtiger Aspekt, um einer Verzerrung der Ergebnisse vorzubeugen und vor allem um keine Verunsicherung unter den MAs aufkommen zu lassen.
    Rein rechtlich ist es verboten, personenbezogene und personenbeziehbare Daten zu erheben, wenn keine ausdrückliche schriftliche Einverständniserklärung des Betroffenen vorliegt. (Personenbezogen: Name, Adresse, etc., personenbeziehbar: Rückschlüsse auf den Antwortenden sind möglich, z. B. wenn im Fragebogen einer Firma mit 50 MA erfasst wird, in welcher Abteilung sie arbeiten und wie lange sie in der Firma tätig sind, weil man sich dann an zwei Fingern ausrechnen kann, von wem der Fragebogen ausgefüllt wurde.) Eine implizite Einverständniserklärung (wer einen Fragebogen ausfüllt ist einverstanden) ist unzulässig.
    Wenn MAs das Gefühl haben (ob es stimmt oder nicht ist ja noch etwas anderes), dass sie durch ihre Angaben Nachteile erleiden können, dann kannst Du die Befragung gleich weglassen, weil erstens die Ergebnisse nicht repräsentativ für die Firma werden und zweitens eine große Verunsicherung entstehen kann.
    Insofern ist es absolut notwendig, den MAs offen und klar zu sagen, was mit den Daten geschieht, wer Zugriff auf die Originaldaten hat und wie der Datenschutz eingehalten wird.

    *Art der Fragen:
    Geschlossene Fragestellungen: Antworten sind vorgegeben und werden angekreuzt. Vorteil: Leichte Auswertbarkeit, erfasst wird nur, was nach dem Ziel der Befragung relevant ist, Nachteil: hohes Abstraktionsniveau (unter anderem)
    Offene Fragen: Die Fragen werden handschriftlich oder im Interview ohne Antwortvorgaben beantwortet. Vorteile: Niedriges Abstraktionsniveau, erfasst werden auch Aspekte, an die die Fragebogen-Konstrukteure ggf. gar nicht gedacht haben, Nachteil: schwer auszuwerten (unter anderem)
    Auch hier ist wieder zu klären, was mit der Befragung erreicht werden soll. Die Methoden können kombiniert werden, um die Vorteile beider Verfahren zu nutzen.

    *Auswertungsverfahren:
    Ist das Ziel der Befragung eine Beschreibung der Situation (80% der MA sind zufrieden, 2% sehr unzufrieden, etc.) oder sollen die Daten analysiert werden (z. B. gibt es statistisch signifikante Unterschiede zwischen den einzelnen Abteilungen?) Deshalb ist es zuerst notwendig, das Ziel zu definieren und dann die geeigneten Analyseverfahren und Hilfsmittel auszuwählen.
    Bei der reinen Beschreibung reicht Excel, für die Analyse sind statistische Programme sehr hilfreich, weil die üblichen Verfahren einfach gerechnet werden können, während sie in Excel erst mühselig programmiert werden müssen.

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Mitarbeiterumfrage #26316

    Hallo Martin,

    sicherlich hast Du Recht, dass unternehmensspezifische Aspekte in einem Fragebogen berücksichtigt werden sollten.

    Fragebögen haben einen ganz entscheidenden Vorteil gegenüber Gesprächen: Sie sind anonym. Wenn die Abteilungsleiter die MAs zu ihren Führungsqualitäten befragen, dann sind die Antworten verzerrt, so dass sie unbrauchbar sind. Das gleiche gilt für die Stimmung in einer Abteilung: Welcher Abteilungsleiter hört es schon gern, dass es in seiner Abteilung nicht so gut läuft? Und wer berichtet das dann auch noch (objektiv) an die höhere Ebene? Wenn die Personalabteilung fragt, dann kann das zu der Gegenfrage führen: Warum habt ihr der Einstellung desjenigen zugestimmt, wenn der seine MAs nicht motiviert kriegt bzw. so große Defizite in den Führungsqualitäten hat?

    Weitere Nachteile bei Gesprächen ist die fehlende Vergleichbarkeit über die Jahre, gerade auch im Hinblick darauf ob (QM-)Maßnahmen die Stimmung verbessert haben und die sehr umfangreiche Erhebungsmethodik.

    Insofern spricht viel für die Erhebung der Grundstimmung bzw. der Grundtendenz in der MA-Zufriedenheit durch einen adaptierten Standard-Fragebogen. Wenn sich da Ansatzpunkte für weitere Gespräche zeigen, dann sind sie sehr hilfreich und können vor allem gezielter ansetzen.

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Mitarbeiterumfrage #26313

    Hallo Stefanie,

    Vorlagen für Fragebögen zur MA-Zufriedenheit und Stimmung in der Organisation findest Du z. B. in dem Buch „Kennzahlen für erfolgreiches Management von Organisationen“ der DGQ, Band 14-24.

    Ich würd erst überlegen, was genau für Euch interessante Fragestellungen sind, die DGQ-Fragebögen als Basis nehmen und beides miteinander kombinieren.

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Martin,

    Ich würd von oben nach unten anfangen:

    1. Warum gibt es bei Euch ein QM-System? Sehr hilfreich wäre an dieser Stelle
    a) eine Definition, was das QM-System leisten soll die
    b) mit allen Abteilungen zusammen ausgearbeitet wurde.
    Wenn das nicht vorhanden ist, wird es sehr schwierig, das QM-System zu beurteilen, weil
    Du nicht weißt, nach welchen Kriterien es als „gut“ oder „schlecht“ einzustufen ist.
    Damit diese Definition von allen Mitarbeitern mitgelebt wird, sollte sie auch von allen
    zusammen erarbeitet worden sein.

    Diese Definition liefert Dir Zielgrößen wie beispielsweise „hohe Kundenzufriedenheit“,
    „Gut ausgebildete Mitarbeiter“ „Gewinnmaximierung“ etc.

    2. Wie können die Zielgrößen gemessen werden?
    z. B.
    Kundenzufriedenheit: Nachfragen beim Kunden, Entwicklung des Stammkunden-/Neukundenanteils, Reklamationsaufwand, etc.
    Gut ausgebildete Mitarbeiter: Anzahl, Dauer, Qualität, Anbieter (intern / extern) von Schulungen,
    Strategien zur Sicherung und Optimierung des vorhandenen Fachwissens
    Gewinnmaximierung: Umsatz, Gewinn, Verlust, Investitionsvolumen

    wichtig ist, dass die gemessenen Werte:
    a) reliabel /zuverlässig sind,
    d. h. Messung ist unabhängig vom Messenden, beispielsweise wenn Herr Meier beim Kunden X nach der Zufriedenheit fragt sollte das gleiche herauskommen wie wenn Frau Müller beim Kunden X fragt. Deshalb eindeutige, neutrale und klare Formulierungen, Definitionen bzw. Fragestellungen, damit es so wenig wie möglich Interpretationsspielraum gibt. Die Frage „Sie halten unsere Firma bestimmt auch für gut?“ ist z. B. nicht sinnvoll, da eine Antworttendenz vorgegeben ist.
    b) valide / gültig sind,
    d. h. die Messung misst das, was sie messen soll, beispielsweise ist ein geringer Reklamationsaufwand ein Zeichn für gute Qualität. Eine ungültige Messung ist z. B. der Versuch, von der Höhe des Gewinns auf die Zufriedenheit der Mitarbeiter zu schließen.

    Ansonsten nützt Dir die Messung wenig.

    3. Erhebung der Werte
    je nach vorhandenen Daten(-banken), Geschäftsberichten, etc. Kommt auf die zu messenden Größen an.

    4. Analyse der Werte
    z. B. zeitlicher Verlauf, Analyse von Zusammenhängen (sind Stammkunden wirklich zufriedener, haben die Schulungen einen Einfluss auf die Mitarbeiterzufriedenheit, etc.)

    5. Aufbereitung
    Da hast Du ja die schönen Luftnummern Deiner Vorgänger ;-)

    Insgesamt ist das absolut nichts, was Du alleine machen solltest. Gerade wenn es um die Festlegung und Bewertung von Zielgrößen geht, dann hat jede Abteilung ihre eigene Sicht der Dinge und wenn die sich nicht in der Analyse bzw. in den erhobenen Messwerten wiederspiegelt, dann hast Du einen schönen Bericht für die GL, aber wenig Nutzen für den Rest, weil die das ggf. anders sehen.

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: QRK-SQC-SPC #26273

    Hallo Christian,

    kannst Du etwas genauer beschreiben, worum es geht? SPC in der Fertigung ist ein arg weites Feld…

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Erfahrungsaustausch-Chat #26221

    Hallo zusammen,

    hier ist ein Chatroom, in dem nie irgendwer ist (keine Ahnung, warum es den überhaupt gibt):

    http://www.dietramszell-baignes.de/chat-de/

    Voraussetzung: Internetzugang, Cookies erlauben

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Was ist schon normal? #26163

    Hallo Thomas,

    ich fände es auch nicht weiter verwunderlich, wenn Statistik als „neumodischer Kram“ angesehen würde. Was mich völlig irritiert ist die Tatsache, dass statistische Verfahren angewendet werden und dann – wenn sie nicht so funktionieren, wie sie es eigentlich sollten – es an der Statistik liegt und nicht daran, dass die Grundannahmen nicht stimmen.

    Wenn z. B. Mittelwerte als normalverteilt angenommen werden, dann haben sie einen Mittelwert mu und eine Varianz von 1/n * sigma². Es gelten insbesondere zwei Dinge:

    1. Unabhängigkeit von Prozesslage und Streuung (bzw. Varianz)
    2. Die Approximation wird besser (genauer), wenn mehr Daten erhoben werden.

    Zu 1.
    Bei der Theorie der Kurzzeit- und Langzeitprozessstreuung wird angenommen, dass der Prozess zwar kurzfristig stabil mit Werten im 6s-Intervall ist, im Laufe der Zeit aber stärker schwankt, z. B. dass die Grenzen eigentlich größer sein müssen (z. B. [-4.5s,4.5s] sprich 9s-Intervall), damit sie zum Prozess passen. Die Prozesslage und die Prozessstreuung sind aber bei normalverteilten Daten grundsätzlich unabhängig voneinander und die Streuung wird mit wachsendem n nicht größer.

    zu 2.
    Allgemein wird die Approximation durch die Normalverteilung für den Mittelwert einer Zufallsstichprobe für 25 oder mehr Mittelwerte als gut angesehen; bei Messreihen von 500 und Messreihen von 5000 ergeben sich keine signifikanten Unterschiede.

    Wenn die Kurzzeitstreuung wirklich kleiner als die Langzeitstreuung ist, dann kann das zwei Gründe haben: Entweder folgen die Werte keiner Normalverteilung oder der Prozess ist nicht unter Kontrolle. Wenn die Werte aus einer Normalverteilung kommen, müssten die Schätzungen der Streuung mit der Zeit besser, d. h. genauer werden. Wenn der Prozess unter Kontrolle ist, dann folgen alle Werte der gleichen Verteilung, somit müsste die Approximation im Laufe der Zeit besser (genauer) werden.

    Grundsätzlich denke ich, dass Messungen normalverteilt sind, wenn der Prozess unter Kontrolle ist. Ich gehe eher davon aus, dass die untersuchten Prozesse nicht genügend unter Kontrolle sind, damit die Grundannahmen so getroffen werden können.

    Aber wenn die Prozesse in Wirklichkeit gar nicht unter Kontrolle sind, was nützen uns dann die Regelkarten und Prozessfähigkeitsindizes? Führen Sie uns / die Entscheider nicht eher in die Irre, als dass sie hilfreiche Entscheidungsgrundlagen oder Einschätzungen liefern?

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Was ist schon normal? #26141

    So, nach dieser ganzen Theorie würde ich gerne mit Euch über etwas diskutieren, was ich ziemlich merkwürdig finde:

    Es zeigt sich immer wieder, dass es in der Praxis nicht funktioniert, wenn die Modellfindung und Optimierung übersprungen wird. Und dann liegt es an der Statistik, weil man ja bekanntlich keiner Statistik trauen soll, die man nicht selbst gefälscht hat.

    Die Statistik ist also schuld an dem Nicht-Funktionieren der Regelkarten und Fähigkeitsindizes? Wenn der Bauer nicht schwimmen kann, liegts bekanntlich an der Badehose!

    Was mich dabei wundert ist die Vehemenz, mit der Grundsätze der Statistik als Unfug dargestellt werden. Gerade im Qualitätsmanagement geht es doch darum, Prozesse transparent zu machen und somit kontrollierbar(er). Nichts anderes ist für die Datensammlung und -auswertung erforderlich, aber genau an diesem Punkt wird dann behauptet, das bräuchte man alles nicht, weil man ja schon alles weiß.

    Könnt Ihr mir das erklären?

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: Was ist schon normal? #26140

    Wie stelle ich nun fest, ob meine Daten tatsächlich eine Zufallsstichprobe sind?

    Eine strukturierte Vorgehensweise ist die Folgende:

    Nach den inhaltlichen Überlegungen, in die ALLE am Prozess beteiligten MAs einbezogen werden sollten, sollte ein Standardprozess gefunden werden. Die Entwicklung eines Standardprozesses läuft in sieben Schritten ab:

    1. Sammeln aller möglichen Einflussfaktoren, unabhängig davon, ob vermutet wird, dass sie einen (großen) Einfluss haben oder nicht.
    2. Überprüfung, welche Einflussfaktoren signifikant wichtig im statistischen Sinn für das Prozessergebnis sind.
    3. Quantifizierung des Einflusses der signifikant wichtigen Faktoren.
    4. Optimierung des Modells
    5. Umsetzung
    6. Kontrolle
    7. Angabe zur Fähigkeit eines Prozesses

    Umsetzung:
    1. Das Sammeln von möglichen Einflussfaktoren geht z. B. mit Ursache-Wirkungs-Diagrammen und auch wieder mit der Mitarbeit aller am Prozess Beteiligten.
    2. Überprüfen, ob ein Faktor generell einen signifikanten Einfluss hat, funktioniert mit statistischen Verfahren wie Versuchsplänen. Das kostet natürlich erstmal Zeit und Geld. Es werden auch Versuche gemacht werden müssen, bei denen von vorneherein vermutet werden kann, dass das Ergebnis Schrott sein wird. Auch diese „Schrottwerte“ sind für die Modellierung wichtig, um zu wissen, wie sehr die Qualität unter bestimmten Faktoreinstellungen leidet. Ein netter Effekt der Signifikanzprüfung ist, dass auch Faktoren als unwichtig erkannt werden können, von denen vorher alle gedacht haben, dass sie wichtig sind.
    3. Die Quantifizierung der Einflüsse und ihrer Wechselwirkungen erfolgt durch eine entsprechende Datenmodellierung. (Das Feld ist zu weit und würde den Rahmen hier sprengen. Ansprechpartner für solche Sachen sind z. B. die Fachbereiche Statistik der Unis in Dortmund oder München und natürlich alle anderen Statistiker.) Am Ende steht ein Modell für den Standardprozess. Hier wird dann nicht nur das Modell aufgestellt, sondern auch untersucht, wie viel der Streuung durch das Modell erklärt wird bzw. wie gut das Modell zu den erhobenen Daten passt. Erst wenn das Modell so gut ist, dass aus Anwendersicht genügend erklärt wird, geht es in den nächsten Schritt, ansonsten muss geschaut werden, woran es liegt (Einflussfaktor vergessen? Gab es nicht modellierte Prozessänderungen wie z. B. Reperaturen, etc.?)
    4. Aus dem Modell werden dann die optimalen Faktoreinstellungen berechnet. Zusätzlich kann das Modell robustifiziert werden, wenn es z. B. unkontrollierbare Einflussfaktoren gibt (Variation beim Input, z. B. Naturmaterialien). Am Ende der Modellierung steht der Standardprozess, der in jedem Fall im laufenden Prozess weiter überprüft werden sollte:
    5. Die Umsetzung erfolgt durch das Einstellen der Faktoren auf optimales Niveau.
    6. Dann wird im laufenden Prozess kontrolliert, ob die gewünschte Qualität auch erreicht wird. Das funktioniert über Regelkarten, je nach Prozess für die Prozesslage und / oder -streuung und mit dem Prozess angemessenen Schätzern und Verteilungen.
    7. Und ganz am Ende des Verfahrens kann ich dann angeben, ob mein Prozess fähig ist oder nicht.

    Und was hat das alles mit der Frage nach der Zufallsstichprobe zu tun?

    Ganz einfach: Wenn ich einen Standardprozess habe, dann kann ich die wichtigen Einflussgrößen dahingehend kontrollieren und einstellen, dass das Ergebnis bis auf die natürliche Prozessvariation feststeht. Damit stammen meine gemessenen Werte aus demselben Modell, bzw. folgen derselben Wahrscheinlichkeitsverteilung. Wenn ich davon ausgehen kann, dass die Werte unabhängig sind (das ist auch überprüfbar und sollte in der Modellierung berücksichtigt worden sein), dann habe ich eine Zufallsstichprobe.

    In der PRAXIS…

    … sieht es anders aus. Oft wird davon ausgegangen, dass der Prozess unter Kontrolle ist und die optimalen Einstellungen schon gefunden sind und sowieso bekannt ist, welche Faktoren einen Einfluss haben. Die Schritte 1-5 werden übersprungen und es wird einfach unterstellt, dass der Prozess kontrolliert abläuft, die Daten aus einer Zufallsstichprobe stammen und somit zumindest der Mittelwert normalverteilt ist. Und wenn das alles nicht funktioniert, dann liegt es daran, dass die Statistik versagt.

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: X/S Regelkarte #26131

    Hallo Thomas,

    ich hab Deinen Testvorschlag noch nicht verstanden. Du nimmst also die Unterschiede zwischen den beobachteten und den vermuteten Werten in einer Zeitreihe. Und dann gewichtest die Differenz womit bzw. teilst die Differenzen durch welchen Wert?

    Übrigens sind Mittelwerte never ever immer normalverteilt, s. dazu das neue Thema „Was ist schon normal?“ und damit kannst Du auch nicht immer die Chi²-Verteilung für die Varianz unterstellen.

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: X/S Regelkarte #26116

    Hallo Thomas,

    was genau verstehst Du unter „dem Korrelationsfaktor der Einzelwerte“? Nach welcher Formel rechnest Du den?

    Viele Grüße

    Barbara

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766
    als Antwort auf: X/S Regelkarte #26105

    Hi Thomas,

    kannst Du mir sagen, wo ich die von Dir angesprochene Daimler-Chrysler-Studie finden kann? 80% find ich arg viel.

    Und ich bleibe dabei: Erst Verteilungstyp bestimmen, dann schätzen der Parameter, um nicht den gesammelten Fehler inklusive Ausreißer 1:1 in der Streuungsschätzung zu haben. Eine rein empirische Schätzung ist auch wegen der breiteren Verteilung der Schätzer nicht empfehlenswert, z. B. sind die 3s-Intervalle beim Median bis zu 1.34 mal größer als beim Mittelwert. D. h. wenn die Daten normalverteilt sind, dann werfe ich sehr viele Infos weg, wenn ich aus Robustheitsgründen mit dem Median rechne. Wenn die Daten nicht normal sind und ich mit dem Mittelwert rechne, dann passen meine Grenzen nicht gut zu den Daten bzw. dem zu Grunde liegenden Prozess.

    Auch wenn es häufig nicht gefordert ist, würde ich immer neben den C_p- und C_pk-Werten auch immer den C_pm und C_pmk-Wert berechnen, weil die Abweichung der Lage vom Soll anders gewichten.

    Viele Grüße

    Barbara

Ansicht von 15 Beiträgen - 2,671 bis 2,685 (von insgesamt 2,697)