Statistische Methoden des Operativen Qualitätsmanagement

Viele Menschen haben ein gestörtes Verhältnis zur Statistik, denn auf der einen Seite glauben sie den statistischen Aussagen (vor allem dann, wenn es die eigene Meinung stützt) und auf der anderen Seite werden statistische Aussagen als besonders raffinierte Lügen angesehen (vor allem dann, wenn es der eigenen Meinungen zuwider läuft). Versuchen wir die Frage, warum sind Wettervorhersagen manchmal falsch, zu beantworten. Trotz umfangreicher Modelle, tausenden von Messwerten, schnellsten Rechnern und komplexen Statistiken irrt der Meteorologe manchmal. Nicht weil er die Daten manipuliert oder weil er Freude an der Lüge hat, sondern im Gegenteil, er möchte richtige Vorhersagen treffen. Dies würde aber ein deterministisches System voraussetzen. Wettervorhersagen sind nur wahrscheinlich und deshalb keine sicheren Ereignisse.

 

 

 

 

 

 

 

Statistische Aussagen sind nicht wahr, sondern nur wahrscheinlich.

Statistische Verfahren und Methoden gibt es wie Sand am Meer. Einige dieser neueren Methoden wie Data Mining, Text Mining und Meta Analysis liefern manchmal wenig vertrauenswürdige Ergebnisse. Deshalb beschränke ich mich auf die Darstellung klassischer Methoden der angewandten Statistik und deren Anwendung in Excel.

 

Die verwendeten statistischen Verteilungsmodelle sind:

 

Mathematisch-statistische Funktionen: Gamma-Funktion, unvollständige Gamma-Funktion, Beta-Funktion, unvollständige Beta-Funktion, erf-Funktion, Digamma-Funktion, Trigamma-Funktion, etc.

Prüfverteilungen: t-Verteilung, nichtzentrale t-Verteilung, chi2-Verteilung, nichtzentrale chi2-Verteilung, F-Verteilung, nichtzentrale F-Verteilung, etc.

Diskrete Verteilungen: Hypergeometrische Verteilung, negative hypergeometrische Verteilung, Binomial-Verteilung, negative Binomial-Verteilung, Poisson-Verteilung, etc.

Kontinuierliche univariate Verteilungen mit kompaktem Intervall: Beta-Verteilung, Kumaraswamy-Verteilung, Dreieck-Verteilung U-quadratische Verteilung, Uniform-Verteilung, etc.

Kontinuierliche univariate Verteilungen mit halboffenem Intervall: Burr-Verteilung, Erlang-Verteilung, Exponential-Verteilung, Betragsverteilung I. Art (folded normal distribution), Frechét-Verteilung, Gamma-Verteilung, Extremwert-Verteilung, inverse Normal-Verteilung, logarithmische Normal-Verteilung, Pareto-Verteilung, Rayleigh-Verteilung (Betragsverteilung II. Art), gestutzte Normal-Verteilung (trimmed normal distribution), Weibull-Verteilung, etc.

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall: Cauchy-Verteilung, Laplace-Verteilung, logistische Verteilung, Normal-Verteilung, inverse Normal-Verteilung, Gumbel-Verteilung, etc.

 

Als Besonderheit können stetige Merkmalswerte mittels Box-Cox- oder Johnson-Transformation an die Normal-Verteilung angepasst werden. Mischverteilungen können mittels EM-Algorithmus in einzelne Normal-Verteilungen getrennt werden. Für alle Verteilungen können Zufallswerte generiert, Parameter und Kenngrößen der Verteilungsfunktion (pdf, cdf, etc.) berechnet werden.

 

Statistische Methoden im operativen Qualitätsmanagement:

 

Stichprobenpläne für diskrete Merkmale: wie Einfachstichprobenpläne, verkettete Einfachstichprobenpläne und sequentielle Stichprobenpläne inklusive der Annahmekennlinien (OC), der Durchschlupfkennlinie (AOQ), Kennlinie des durchschnittlichen Prüfumfangs (ASN), etc.

Stichprobenpläne für stetige Merkmale: wie Einfachstichprobenpläne mit bekannter und unbekannter Streuung (Sigma), etc.

Mess-System-Analyse (MSA): wie Verfahren 1, dieses Verfahren untersucht die Richtigkeit und Wiederholpräzision eines Mess-Systems; Verfahren 2 (GRR), dieses Verfahren untersucht die Wiederhol- und Vergleichspräzision eines Messmittels; etc.

Mittelwertvergleiche und Qualitätsregelkarten(QRK): wie einfache Streuungszerlegung inklusive Welch-Test, Levene-Test, Bartlett-Test, Phasenhäufigkeitstest, Iterationstest und Anderson-Darling-Test; ORK für stetige Merkmale mit und ohne erweiterten Grenzen; Annahmeregelkarten, etc.

Analyse diskreter Daten und Qualitätsregelkarten(QRK): nach Binomial-Verteilung, Poisson-Verteilung, etc. inklusiv QRK und G-Test zur Anpassung Prüfung.

Sensitive Analysen: wie paarweise Unterschiedsprüfung, Dreiecksprüfung und paarweiser Vergleich mit Konsistenz- und Akkordanzprüfung.

Prozessfähigkeits- und Prozessleistungsanalysen: wie Berücksichtigung von acht zeitabhängigen Prozessmodellen und vielen statistischen Verteilungen (wie Normal-Verteilung mit und ohne Transformation, Betragsverteilungen I. und II. Art, zwei- und dreiparametrische Weibull-Verteilung, etc.) nach DIN ISO 21747:2007, ISO 22514-2:2013 und ISO/TR 22514-4:2007.

 

Alle Verfahren verwenden keine vereinfachten Näherungen, sondern es werden nur exakte und numerische Berechnungsmethoden genutzt. Beschränkungen gibt es nur bei den verwendeten Daten, fehlende Werte werden nicht akzeptiert. Für numerische Lösungen z.B. bei Parameterschätzungen wird der BFGS-Solver eingesetzt.

 

Höhere Verfahren der angewandten Statistik:

 

Zweifache Varianzanalysen: für Modelle mit Zufallsfaktoren, Fixfaktoren oder gemischtes Vorkommen der Faktoren, für die Analyse stehen gekreuzte und hierarchische Modelle zur Verfügung.

Äquivalenztest (TOST): für eine oder zwei Stichproben, es wird die Äquivalenz zu einer vorgegebenen Relevanzschranke geprüft, nichtzentraler F-Test zur Prüfung auf Äquivalenz.

Einfache lineare und quasilineare Regression: mit der Möglichkeit eine Regression durch den Ursprung oder eine orthogonale Regression durchzuführen, Auswahl möglicher quasilinearer Regressionsmodelle, Analysen zur Prüfung der Modellanpassung, der Homoskedastizität (Pagan-Breusch Test), der Normal-Verteilung und der Autokorrelation von Residuen werden durchgeführt, Hebelwirkungen, Cooks Distance und DFFITS komplettieren die Ausgabe.

Multiple Regression: das universelleste Werkung der statistische Analyse, so können multiple Regressionen mit und ohne Indikatorvariablen, polynomiale Regressionen, Regressionen durch den Ursprung, Regressionen für DoE und Mischungen und die zweifache Diskriminanzanalysen durchgeführt werden. Ergänzt werden diese Analysen durch Tests der Modellgüte (Test auf Modellanpassung, Varianzinflationsfaktoren VIF, ANOVA) sowie den Residuenanalysen (Homoskedastizität, Autokorrelation, Normal-Verteilung, Hebelwirkungen, Cooks Distance und DFFITS). Abgerundet wird die Ausgabe durch verschiedene Grafiken.

Resampling: Vertrauensintervalle sind wichtige Werkzeuge bei der Datenanalyse in der angewandten Statistik. Sie kombinieren Punktschätzungen mit einer Hypothesenprüfung. Fortschritte in der statistischen Methodik ermöglichen die Konstruktion von sehr genauen angenäherten Vertrauensintervallen auch für sehr komplizierte Wahrscheinlichkeitsmodelle und Datenstrukturen. Die Resampling-Methoden in OQM-Stat verwenden Jackknife- und Bootstrap-Methoden zur Konstruktion solcher Vertrauensintervalle.

 

Die Analysen zur multiplen Regression sind abhängig von der Datenaufbereitung. Die Datenaufbereitung wird nicht unterstützt, diese muss manuell in Excel durchgeführt werden.

 

Druckversion Druckversion | Sitemap
© Angewandte Statistik