Formeln für Varianz/ Toleranz, versch. Sigma-Level2015-05-18T16:32:24+01:00

QM-Forum Foren Qualitätsmanagement Formeln für Varianz/ Toleranz, versch. Sigma-Level

Ansicht von 7 Beiträgen - 1 bis 7 (von insgesamt 7)
  • Autor
    Beiträge
  • eonhummel
    Mitglied
    Beitragsanzahl: 2

    Servus,

    ich bin gerade bei einer statistischen Tolerierung und habe in Internet und Literatur (Klein, „Prozessorientierte Statistische Tolerierung“) Tabellen zu unterschiedlichen Verteilungen (Normal-, Rechteck-, Trapez- usw.) gefunden, die Formeln zur Berechnung der Varianz und Toleranz angeben.

    Leider geschieht dies nur für das Sigma-3-Niveau und nicht für andere Sigma-Level. Ein Beispiel für die Normalverteilung:

    Formel für Varianz: Sigma^2 = T^2 / 36, wobei Sigma die Standarabweichung und T die Toleranz ist.
    Formel für die Toleranz: T = 2 * 3 * Sigma, wobei Sigma, wie oben auch, die Standardabweichung ist.

    Bei der Toleranz-Formal ergibt sich die 2 aus der Tatsache, dass man nach oben und unten aus dem Toleranzbereich rausrutschen kann. Das Sigma ist ja praktisch der Wert, um den im Mittel vom Erwartungswert abgewichen wird – ist mir auch klar. Die 3, schreibt Klein, kommt aus einer Tabelle zur u-Verteilung bzw. zur standardisierten Normalverteilung. Diese Zahl finde ich dort auch, wenn ich bei 0,99965 gucke, was einem Sigma-Niveau von 3 entspricht.

    Analog dazu könnte ich für die Normalverteilung bei einem Sigma-Level von 4 mittels der Tabelle (u-Verteilung) auf eine Formel für die Toleranz von T = 2 * 4 * Sigma schließen. So weit so gut – wie sieht es aber bei den anderen Verteilungen aus? Auf Sigma-3-Niveau ist bei der Dreickverteilung T = 2 * Wurzel(6) * Sigma angegeben. Wie fließt denn hier der Sigma-Level ein, wohin ändert sich das Wurzel(6), wenn ich das Sigma-Niveau ändere?

    Habe ich mich verständlich ausgedrückt? Ich hoffe :) Wenn nicht, schreibt mir einfach eine Mail! Danke schon mal herzlichst!
    sG
    Yannick

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Yannick,

    willkommen im Qualitäter-Forum [:)]

    Also: Das Buch von Klein zur prozessorientierten statistischen Tolerierung ist auf Ingenieurs-Sicht ganz nett, um Toleranzen und Maßketten zu ermitteln. Aus statistischer Sicht hat es einige Schwächen, und eine davon ist die von Dir gefundene Frage, wie der Zusammenhang zwischen Standardabweichung und Toleranz bei den nicht-normalen Verteilungen ermittelt wird.

    Ich weiß das nicht und ich habe auch bislang kein Buch in der Hand gehabt, in dem mir diese Herleitung aufgefallen wäre. Deshalb kann ich Deine eigentliche Frage auch nicht beantworten. Aber ich bin ja auch nur Statistikerin und keine Ingenieurin [:o)]

    Mir erscheint es allerdings fragwürdig, alles auf die Standardabweichung zurückführen zu wollen, denn die ist als Kennzahl direkt nur bei normalverteilten Merkmalen sinnvoll interpretierbar (z. B. innerhalb von Mittelwert +/-3*Standardabweichung liegen 99,73% aller Messwerte).

    Um für andere Prozentwerte oder Vielfache-von-Standardabweichungen Zahlen zu berechnen, ist gerade bei den nicht-normalen Verteilungen ein Statistikprogramm hilfreich. Ich würd hier auf R zurückgreifen, weil das alle von Dir angesprochenen Funktionen kennt. Da die Dreiecksverteilung und die Trapezverteilung in der Statistik selten verwendet werden, fehlen diese Verteilungsfunktionen bei anderen Statistikprogrammen. In R werden Dreiecks- und Trapez-Verteilung mit dem Zusatzpackage trapezoid bereitgestellt.

    Und damit kommen wir schon zur nächsten Klinke: Statistische Tolerierung ist ein wichtiges Thema in der industriellen Anwendung und die meisten Statistikprogramme bieten hierfür auch Methoden. Und dennoch gibt es die Trapezverteilung extrem selten in den Programmen. Das liegt daran, dass statistische Tolerierung anders als die Maßkettenrechnung funktioniert. Denn in der Statistik wird nicht nur die Verteilung berücksichtigt, sondern auch und speziell die Anzahl Messwerte, auf deren Basis Du die Tolerierung rechnest.

    Bei einer kleinen Anzahl Messwerte kann keine Verteilung gut/ausreichend genau ermittelt werden und die Toleranzen werden in diesem Fall extrem breit, weil die Unsicherheit der Kennzahlen wie Mittelwert und Standardabweichung bei der Normalverteilung sehr hoch ist. Je größer die Anzahl Messwerte wird, desto kleiner wird die Unsicherheit der Kennzahlen. Damit wird die berechnete Toleranz auch schmaler.

    Dummerweise ist die Unsicherheitsberechnung ein ganz klein bisschen aufwändig und die Formeln eher etwas für fortgeschrittene Formel-Enthusiasten. Das führt zusammen mit einer anderen Art der Beschreibung von Messwerten (s. u.) dazu, dass es nur für wenige Verteilungen die Berechnungsformeln gibt und die Dreiecks- und Trapez-Verteilung gehören nicht dazu (dafür Weibull, Lognormal, Poisson und andere). Eine hervorragende (wenn auch anspruchsvolle) Zusammenstellung liefert das Buch:

    Krishnamoorthy, Kalimuthu und Mathew, Thomas [2009] Statistical Tolerance Regions: Theory, Applications, and Computation.
    Wiley. ISBN 9780470380260.

    Der andere Ansatz bei der Beschreibung von Messwerten in der Statistik bezieht sich darauf, dass in der Statistik Einflüsse wie beispielsweise ein Werkzeugverschleiß NICHT über eine andere Verteilung (z. B. Trapezverteilung) beschrieben werden, sondern dass über ein Ursache-Wirkungs-Modell der Einfluss „Verschleiß“ (oder auch andere Einflüsse wie Druck, Zeit, Temperatur, Material…) beschrieben/modelliert wird. Zu den Modellierungen liefert das Tolerierungsbuch von Krishnamoorthy und Mathew auch Formeln, mit denen für bestimmte Situationen Toleranzen in Abhängigkeit der Einflüsse ermittelt werden.

    Ich hoffe, die Erklärung hilft Dir ein Stück weiter, auch wenn damit Deine Frage zum Zusammenhang zwischen Vielfachem der Standardabweichung, Abdeckung/Prozentwert und nicht-normalen Verteilungen unbeantwortet bleibt.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Stefan741
    Mitglied
    Beitragsanzahl: 46

    Es gibt auch ein „R“-Paket ‚tolerance‘: http://cran.r-project.org/web/packages/tolerance/tolerance.pdf
    Hat damit schon jemand etwas „rumgespielt“?

    Mich beschäftigt ebenfalls die Frage, wie man z.B. bei einer logarithmischen Verteilung oder Exponentialverteilung die Toleranzen abschätzt.
    Und dann können sich verschiedene Verteilungsformen zusammen kommen und müssen daher „addiert“ werden. Hat da vielleicht jemand ein praktisches Beispiel, wie man das berechnen oder mittels R auswerten könnte?

    Eine Rechtecks- oder Trapezverteilung ist mir bei ausreichender Datenlage noch nicht unter gekommen.

    Gruß

    Stefan

    Rainaari
    Teilnehmer
    Beitragsanzahl: 630

    Hallo Stefan,

    ich denke, wenn du verschiedene Verteilungen und Verteilungsformen hast, die sich irgendwie addieren, wird unterm Strich wieder eine Normalverteilung heraus kommen, sofern alle in derselben Größenordnung sind.

    gruß Rainer

    eonhummel
    Mitglied
    Beitragsanzahl: 2

    Hallo Stefan,

    Gauß sagt in seinem zentralen Grenzwertsatz:

    Werden n unabhängige Werte xi aus derselben oder verschiedenen Grundgesamtheiten zusammengefasst, so ist die Summe normalverteilt auch dann, wenn die einzelnen Grundgesamtheiten nicht normalverteilt sind.

    Das tritt ab drei Werten schwach und ab vier Werten sicher ein, welches sich über die Faltung von Verteilungen exakt beweisen lässt. Bei weniger als 3 Teilen würde ich mich mal über ebendiese Faltung schlau machen, da gibt es einige Schemata – Erfahrungen habe ich damit leider nicht.

    sG
    Yannick

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Stefan,

    quote:


    Ursprünglich veröffentlicht von Stefan741

    Es gibt auch ein „R“-Paket ‚tolerance‘: http://cran.r-project.org/web/packages/tolerance/tolerance.pdf
    Hat damit schon jemand etwas „rumgespielt“?


    Ja, hab ich [:)] Das package enthält diverse Berechnungsmöglichkeiten für Toleranzintervalle, u. a. für die Normalverteilung und die nicht-parametrische Berechnungsmethode. Soweit ich das gesehen habe sind die meisten Anwendungen aus dem Buch von Krishnamoorthy (s. o.).

    Hier ein kleines Beispiel:

    x = runif(100) # 100 gleichverteilte Zufallswerte in x speichern

    # 1. Verteilungsprüfung / Werte sind natürlich nicht normalverteilt
    qqnorm(x);qqline(x) # zeichnet Wahrscheinlichkeitsnetz mit Ideallinie
    require(nortest) # package „nortest“ für AD-Test auf Normalverteilung laden
    ad.test(x) # berechnet AD-Test

    require(tolerance) # package laden, bei Bedarf installieren
    nptol.int(x, alpha=0.05, P=0.99, side=2)
    # nptol.int() berechnet verteilungsfreie Toleranzintervalle
    # alpha=0.05 entspricht Konfidenz- oder Vertrauensniveau von 95%
    # P=0.99 Abdeckung/Überdeckung der Einzelwerte (99%)
    # side=2 berechnet 2-seitige Toleranzgrenzen

    Mehr R-Code zur Toleranzrechnung gibts z. B. hier: NOT-Statistik unter der Überschrift „Beispiel Projektlaufzeit“ (und natürlich in dem dazu gehörenden Buch „NOT-Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R“)

    quote:


    Ursprünglich veröffentlicht von Stefan741

    Mich beschäftigt ebenfalls die Frage, wie man z.B. bei einer logarithmischen Verteilung oder Exponentialverteilung die Toleranzen abschätzt.


    Für die logarithmischen Verteilung kenne ich keine Formel, allerdings ist diese Verteilung auch extrem selten. Bei der Logarithmischen Normalverteilung bzw. Lognormal-Verteilung läuft die Berechnung von Toleranzgrenzen über die Normalverteilung, d. h. die lognormalverteilten Werte werden über den Logarithmus in normalverteilte Werte umgerechnet (transformiert) und dann auf die normalverteilten Werte die Standardformeln für Toleranzintervalle angewendet (Krishnamoorthy, p.174/175).

    Für die Exponentialverteilung gibt es eigene Berechnungsformeln. Bei Krishnamoorthy findet sich nur die allgemeinere Form für die 2-parametrige Exponentialverteilung. Für die „normale“ bzw. 1-parametrige gibts da Nichts spezielles. Im R-package „tolerance“ sind die Formeln mit dem Hinweis auf folgendes Buch hinterlegt:

    Blischke, Wallace R.; Murthy, D. N. Prabhakar Murthy [2000] Reliability: Modeling, Prediction, and Optimization
    Wiley, ISBN 9780471184508

    quote:


    Ursprünglich veröffentlicht von Stefan741

    Und dann können sich verschiedene Verteilungsformen zusammen kommen und müssen daher „addiert“ werden. Hat da vielleicht jemand ein praktisches Beispiel, wie man das berechnen oder mittels R auswerten könnte?


    Nein. Wie schon geschrieben ist es in der Statistik unüblich, Verteilungen so zusammenzufügen. Um das mathematisch sauber hinzubekommen brauchst Du für jeden speziellen Einzelfall bzw. jede Kombination von Verteilungen eine neue Berechnung, welche Verteilungsfunktion die Summe der beiden Verteilungen hat. Dabei spielen neben den beiden Einzelverteilungen auch Eigenschaften wie Unabhängigkeit der beiden Einzelmerkmale eine Rolle.

    quote:


    Ursprünglich veröffentlicht von Stefan741

    Eine Rechtecks- oder Trapezverteilung ist mir bei ausreichender Datenlage noch nicht unter gekommen.


    [:)] Und wenn die Datenlage sehr schmal ist, dann kann theoretisch jede (oder keine) Verteilung passen.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

    Barbara
    Senior Moderator
    Beitragsanzahl: 2766

    Hallo Rainer und Yannick,

    quote:


    Ursprünglich veröffentlicht von Rainaari

    ich denke, wenn du verschiedene Verteilungen und Verteilungsformen hast, die sich irgendwie addieren, wird unterm Strich wieder eine Normalverteilung heraus kommen, sofern alle in derselben Größenordnung sind.


    Nein, das funktioniert nicht. Hier z. B. ein Link mit einem Buchkapitel aus Introduction to Probability, in dem für unterschiedliche Verteilungen (attributiv und variabel) die Verteilung der Summe hergeleitet wird. Werden z. B. zwei Exponentialverteilungen addiert, ergibt sich eine Gamma-Verteilung (s.
    „>Mathematics Stack Exchange: Gamma Distribution out of sum of exponential random variables).

    quote:


    Ursprünglich veröffentlicht von eonhummel

    Gauß sagt in seinem zentralen Grenzwertsatz:

    Werden n unabhängige Werte xi aus derselben oder verschiedenen Grundgesamtheiten zusammengefasst, so ist die Summe normalverteilt auch dann, wenn die einzelnen Grundgesamtheiten nicht normalverteilt sind.


    Ganz so einfach ergibt sich die Normalverteilung (auch nach Gauß/ZGWS) nicht. Die (harte) Voraussetzung ist, dass ALLE WERTE aus 1 Grundgesamtheit mit konstantem Mittelwert und konstanter Streuung stammen. Wenn die Unterschiede zwischen den einzelnen Grundgesamtheiten klein genug sind, entsteht auch eine ungefähre Normalverteilung (weiche Voraussetzung).

    Sind die Unterschiede zwischen den Grundgesamtheiten zu groß, ergibt sich nicht mal aus der Kombination von 2 Normalverteilungen eine Normalverteilung für die Summe bzw. den Mittelwert. Ob die Normalverteilung aus der Kombination entsteht, hängt von der Ähnlichkeit der Grundgesamtheiten (wenn es mehrere gibt) ab. Auf überhaupt gar keinen Fall können beliebige, verschiedene Grundgesamtheiten zusammengeworfen werden und am Ende ist alles normalverteilt.

    Da gerade beim Zentralen Grenzwertsatz (ZGWS) immer mal wieder Mythen und Legenden auftauchen, hab ich ein paar Beispiele zusammengestellt, die das veranschaulichen. Unter diesem Link https://login.yoursecurecloud.de/d/9941c4219e/ findet Ihr einen Ordner mit einem pdf-Dokument „Zentraler Grenzwertsatz (ZGWS).pdf“ sowie den R-Code zum Nachrechnen.

    Viele Grüße

    Barbara

    ————
    Eine gute wissenschaftliche Theorie sollte einer Bardame erklärbar sein.
    (Ernest Rutherford, Physiker)

Ansicht von 7 Beiträgen - 1 bis 7 (von insgesamt 7)
  • Sei müssen angemeldet sein, um auf dieses Thema antworten zu können.
Nach oben