SIMPLE-QUALITY
Quality - Keep it simple...!!
Zählung fehlerhafter Einheiten bei variabler Stichprobenprüfung



Level 1 = Community-Lehrling

Gruppe: Aktivierungsprozess
Mitglied seit: 05.06.2015
Beiträge: 7
Mitglied seit: 05.06.2015
Beiträge: 7
Hallo,
Aus der Praxis ereilte mich jüngst ein statistisches Problem bei Stichprobenprüfungen, dass ich bislang nicht lösen konnte:
Sowohl bei der Stichprobenprüfung für attributive Merkmale nach ISO 2859-1 als auch bei der Stichprobenprüfung für variable Merkmale nach ISO 3951-1 wird der Begriff fehlerhafte Einheiten verwenden. Nach Begriffsbestimmung ist dies eine „Einheit mit einem oder mehreren Fehlern.“
Bei der Prüfung attributiver Merkmale, das heißt bei Einteilung in „in Ordnung“ und „fehlerhaft“, stellt sich dieser Begriff für mich folgender Maßen dar:
An einer Einheit werden mehrere attributive Merkmale geprüft. Nur wenn alle Merkmale der Einheit „in Ordnung“ geprüft werden, ist auch die Einheit „in Ordnung“. Ist aber eines oder mehrere Merkmale der Einheit „fehlerhaft“, ist die gesamte Einheit „fehlerhaft“. Diese Bewertung wird an allen geprüften Einheiten durchgeführt und die Summe über alle fehlerhaften Einheiten gebildet. Diese Summe wird dann mit der Annahmezahl verglichen und ein Verwendbarkeitsentscheid getroffen.
Bei der Prüfung variabler Merkmale ist die Sache komplizierter. Dort wird bei Prüfung nicht in „in Ordnung“ und „fehlerhaft“ unterschieden. Aus dem Mittelwert und der Standardabweichung der über ein Merkmal gemessenen Werte wird auf den Anteil in der Grundgesamtheit geschlossen, der die Toleranzgrenzen überschreitet. Dieser berechnete Überschreitungsanteil kann über der zulässigen annehmbaren Qualitätsgrenzlage liegen, obwohl alle Messwerte innerhalb der spezifizierten Toleranzgrenzen lagen. Eine Zählung von Fehlern wie bei attributiven Merkmalen ist also nicht möglich. Demnach können auch nicht „fehlerhafte Einheiten“ gezählt werden.
Wie muss also verfahren werden, wenn ich an einer Einheit mehrere variable Merkmale prüfe und die AQL (die annehmbare Qualitätsgrenzlage) auf Anteil fehlerhafter Einheiten beziehen möchte?
Beispiel: An einer Einheit werden 40 unterschiedliche Merkmale geprüft. Die AQL soll 0,1 betragen. Nehmen wir an, jedes der 40 Merkmale wird auf die Vorgaben von AQL=0,1 bewertet und alle Merkmale besitzen tatsächlich einen ermittelten Überschreitungsanteil 0,1%. Dann könnten sich schlimmstenfalls die einzelnen Überschreitungsanteile der Merkmale addieren und die Ausfallquote wäre, auf Prüfeinheiten bezogen, wesentlich höher (Worst-Case: 40*0,1%=4%).
Noch verrückter wird die ganze Sache, wenn neben den 40 variablen Merkmalen noch 2 attributive Merkmale erhoben werden.
Wer kann helfen? Gibt es Berechnungsformeln, die automatisiert angewendet werden können? Gibt es einschlägige Literatur zum Thema?
Für jegliche angeregte Diskussion bin ich dankbar!
Juliane
Aus der Praxis ereilte mich jüngst ein statistisches Problem bei Stichprobenprüfungen, dass ich bislang nicht lösen konnte:
Sowohl bei der Stichprobenprüfung für attributive Merkmale nach ISO 2859-1 als auch bei der Stichprobenprüfung für variable Merkmale nach ISO 3951-1 wird der Begriff fehlerhafte Einheiten verwenden. Nach Begriffsbestimmung ist dies eine „Einheit mit einem oder mehreren Fehlern.“
Bei der Prüfung attributiver Merkmale, das heißt bei Einteilung in „in Ordnung“ und „fehlerhaft“, stellt sich dieser Begriff für mich folgender Maßen dar:
An einer Einheit werden mehrere attributive Merkmale geprüft. Nur wenn alle Merkmale der Einheit „in Ordnung“ geprüft werden, ist auch die Einheit „in Ordnung“. Ist aber eines oder mehrere Merkmale der Einheit „fehlerhaft“, ist die gesamte Einheit „fehlerhaft“. Diese Bewertung wird an allen geprüften Einheiten durchgeführt und die Summe über alle fehlerhaften Einheiten gebildet. Diese Summe wird dann mit der Annahmezahl verglichen und ein Verwendbarkeitsentscheid getroffen.
Bei der Prüfung variabler Merkmale ist die Sache komplizierter. Dort wird bei Prüfung nicht in „in Ordnung“ und „fehlerhaft“ unterschieden. Aus dem Mittelwert und der Standardabweichung der über ein Merkmal gemessenen Werte wird auf den Anteil in der Grundgesamtheit geschlossen, der die Toleranzgrenzen überschreitet. Dieser berechnete Überschreitungsanteil kann über der zulässigen annehmbaren Qualitätsgrenzlage liegen, obwohl alle Messwerte innerhalb der spezifizierten Toleranzgrenzen lagen. Eine Zählung von Fehlern wie bei attributiven Merkmalen ist also nicht möglich. Demnach können auch nicht „fehlerhafte Einheiten“ gezählt werden.
Wie muss also verfahren werden, wenn ich an einer Einheit mehrere variable Merkmale prüfe und die AQL (die annehmbare Qualitätsgrenzlage) auf Anteil fehlerhafter Einheiten beziehen möchte?
Beispiel: An einer Einheit werden 40 unterschiedliche Merkmale geprüft. Die AQL soll 0,1 betragen. Nehmen wir an, jedes der 40 Merkmale wird auf die Vorgaben von AQL=0,1 bewertet und alle Merkmale besitzen tatsächlich einen ermittelten Überschreitungsanteil 0,1%. Dann könnten sich schlimmstenfalls die einzelnen Überschreitungsanteile der Merkmale addieren und die Ausfallquote wäre, auf Prüfeinheiten bezogen, wesentlich höher (Worst-Case: 40*0,1%=4%).
Noch verrückter wird die ganze Sache, wenn neben den 40 variablen Merkmalen noch 2 attributive Merkmale erhoben werden.
Wer kann helfen? Gibt es Berechnungsformeln, die automatisiert angewendet werden können? Gibt es einschlägige Literatur zum Thema?
Für jegliche angeregte Diskussion bin ich dankbar!
Juliane



Level 5 = Community-Ingenieur





Gruppe: Aktivierungsprozess
Mitglied seit: 16.06.2010
Beiträge: 633
Mitglied seit: 16.06.2010
Beiträge: 633
Hallo Juliane,
da sind jetzt zwei unterschiedliche Themen in einen Topf geworfen - und haben darin offenbar etwas Verwirrung gestiftet.
Zunächst mal wäre zu prüfen, wozu die Stichprobenprüfung dienen soll:
- zum entscheid i.O./n.i.O. (Bsp: Freigebe eines Fertigungsloses zum Versand oder zur Weiterverwendung, WEP)
- zur Beurteilung eines Fertigungsprozesses.
In ersterem Fall werden variable Merkmale sozusagen attributiv beurteilt: innerhalb oder ausserhalb der Spezifikationsgrenzen, damit lässt sich dann wiederum prima auszählen. Die Gesamtbeurteilung erfolgt dann auf Basis einer Absprache oder z.B. nach AQL (nicht wirklich up todate und Stand der Technik).
In zweiterem Fall: Primär wird mal intern verwertet. es gibt oft Absprachen, daß die Fertigung mit einer bestimmten Prozessfähigkeit aufrecht erhalten wird, hierbei handelt es sich aber um längerfristige Aufzeichnungen, die per Definition eine Fertigungscharge oder Herstellcharge deutlich überschreiten. Wer für eine Liefercharge eine Cpk zusagt, muss zur Strafe tausend Mal den Satz schreiben: ich darf für eine Liefercharge keinen cpk zusagen. Um der Frage vorzubeugen: Jedes Merkmal hat seinen eigenen cpk, eine Zusammenfassung z.B. in Form einer Mittelwertbildung ist ebenso falsch wie unsinnig.
Hilft es Dir weiter, wenn Du diese strikte Trennung andenkst?
Grüßle
T
da sind jetzt zwei unterschiedliche Themen in einen Topf geworfen - und haben darin offenbar etwas Verwirrung gestiftet.
Zunächst mal wäre zu prüfen, wozu die Stichprobenprüfung dienen soll:
- zum entscheid i.O./n.i.O. (Bsp: Freigebe eines Fertigungsloses zum Versand oder zur Weiterverwendung, WEP)
- zur Beurteilung eines Fertigungsprozesses.
In ersterem Fall werden variable Merkmale sozusagen attributiv beurteilt: innerhalb oder ausserhalb der Spezifikationsgrenzen, damit lässt sich dann wiederum prima auszählen. Die Gesamtbeurteilung erfolgt dann auf Basis einer Absprache oder z.B. nach AQL (nicht wirklich up todate und Stand der Technik).
In zweiterem Fall: Primär wird mal intern verwertet. es gibt oft Absprachen, daß die Fertigung mit einer bestimmten Prozessfähigkeit aufrecht erhalten wird, hierbei handelt es sich aber um längerfristige Aufzeichnungen, die per Definition eine Fertigungscharge oder Herstellcharge deutlich überschreiten. Wer für eine Liefercharge eine Cpk zusagt, muss zur Strafe tausend Mal den Satz schreiben: ich darf für eine Liefercharge keinen cpk zusagen. Um der Frage vorzubeugen: Jedes Merkmal hat seinen eigenen cpk, eine Zusammenfassung z.B. in Form einer Mittelwertbildung ist ebenso falsch wie unsinnig.
Hilft es Dir weiter, wenn Du diese strikte Trennung andenkst?
Grüßle
T



Level 1 = Community-Lehrling

Gruppe: Aktivierungsprozess
Mitglied seit: 05.06.2015
Beiträge: 7
Mitglied seit: 05.06.2015
Beiträge: 7
Hallo Tom,
Danke für deine Antwort, doch leider hilft mir das nicht weiter.
Tatsächlich geht es mir nicht um eine Prozessbewertung. Eine klassische SPC wonach in einem fortlaufendem Prozess mit cmk und cpk erst die Maschinen- und Prozessfähigkeit beurteilt wird, um dann über Stichprobenprüfung festzustellen, ob sich Streuung oder Lage des einst fähigen Prozesses geändert hat, kommt für uns ohnehin nicht in Frage.
Die Produkte um die es sich dreht entstehen durch Halbleiter-, Lithographie- und Beschichtungsprozesse. Es sind reine Chargenproduktionen, was bedeutet, dass die Beurteilung der Qualitätslage für jede einzelne Charge erfolgen muss. Diese Beurteilung soll im Rahmen von Warenausgangs- und Eingangsprüfungen erfolgen und soll aus Kostengründen stichprobenmäßig erfolgen.
In der DIN-Reihe 2859 ist eine solche Prüfung für attributive Merkmale, also i.O. und n.i.O., beschrieben. Diese Einteilung kann natürlich auch für variable Merkmale vorgenommen werden. Das ist soweit klar.
Die DIN 3951-1 beschreibt die Prüfung anhand variabler Merkmale ohne, dass die Ergebnisse in i.O. und n.i.O. klassifiziert werden. Das hat einen entscheidenden Vorteil: Der Stichprobenumfang kann deutlich reduziert werden!!!
(Beispiel: AQL = 0,1; Losgröße = 3000 Teile; normales Prüfniveau II :
notwendiger Stichprobenumfang bei attributiver Prüfung -> 125 Teile
notwendiger Stichprobenumfang bei variabler Prüfung -> 28 Teile )
Ich spinne mal deinen Gedanken weiter, dass der cpk oder in meinem Fall ein AQL-Wert immer an einem Merkmal festgelegt werden muss. Dann muss bei Prüfung mehrerer Merkmale der AQL-Wert des einzelnen Merkmals unter dem des Gesamtprozesses liegen. Kommen wir auf das Beispiel von AQL = 0,1 und 40 Prüfmerkmalen zurück. Hier hätte ich mich mit dem Fehlerfortpflanzungsgesetz nach Gauss beholfen, wonach sich die quadrierten Überschreitungsanteile der einzelnen Merkmale addieren. In diesem Fall würde ich für jedes einzelne Prüfmerkmal einen AQL von 0,016 (0,1 durch Wurzel(40)) festlegen.
Doof ist nur, dass diese Festlegung bei einer großen Anzahl von Prüfmerkmalen zu sehr strengen Kriterien für die einzelnen Prüfmerkmale führt.
Du sagtest AQL ist nicht mehr Stand der Technik. Was wäre denn in meinem Falle Stand der Technik?
Viele Grüße,
Juliane
Danke für deine Antwort, doch leider hilft mir das nicht weiter.
Tatsächlich geht es mir nicht um eine Prozessbewertung. Eine klassische SPC wonach in einem fortlaufendem Prozess mit cmk und cpk erst die Maschinen- und Prozessfähigkeit beurteilt wird, um dann über Stichprobenprüfung festzustellen, ob sich Streuung oder Lage des einst fähigen Prozesses geändert hat, kommt für uns ohnehin nicht in Frage.
Die Produkte um die es sich dreht entstehen durch Halbleiter-, Lithographie- und Beschichtungsprozesse. Es sind reine Chargenproduktionen, was bedeutet, dass die Beurteilung der Qualitätslage für jede einzelne Charge erfolgen muss. Diese Beurteilung soll im Rahmen von Warenausgangs- und Eingangsprüfungen erfolgen und soll aus Kostengründen stichprobenmäßig erfolgen.
In der DIN-Reihe 2859 ist eine solche Prüfung für attributive Merkmale, also i.O. und n.i.O., beschrieben. Diese Einteilung kann natürlich auch für variable Merkmale vorgenommen werden. Das ist soweit klar.
Die DIN 3951-1 beschreibt die Prüfung anhand variabler Merkmale ohne, dass die Ergebnisse in i.O. und n.i.O. klassifiziert werden. Das hat einen entscheidenden Vorteil: Der Stichprobenumfang kann deutlich reduziert werden!!!
(Beispiel: AQL = 0,1; Losgröße = 3000 Teile; normales Prüfniveau II :
notwendiger Stichprobenumfang bei attributiver Prüfung -> 125 Teile
notwendiger Stichprobenumfang bei variabler Prüfung -> 28 Teile )
Ich spinne mal deinen Gedanken weiter, dass der cpk oder in meinem Fall ein AQL-Wert immer an einem Merkmal festgelegt werden muss. Dann muss bei Prüfung mehrerer Merkmale der AQL-Wert des einzelnen Merkmals unter dem des Gesamtprozesses liegen. Kommen wir auf das Beispiel von AQL = 0,1 und 40 Prüfmerkmalen zurück. Hier hätte ich mich mit dem Fehlerfortpflanzungsgesetz nach Gauss beholfen, wonach sich die quadrierten Überschreitungsanteile der einzelnen Merkmale addieren. In diesem Fall würde ich für jedes einzelne Prüfmerkmal einen AQL von 0,016 (0,1 durch Wurzel(40)) festlegen.
Doof ist nur, dass diese Festlegung bei einer großen Anzahl von Prüfmerkmalen zu sehr strengen Kriterien für die einzelnen Prüfmerkmale führt.
Du sagtest AQL ist nicht mehr Stand der Technik. Was wäre denn in meinem Falle Stand der Technik?
Viele Grüße,
Juliane



Level 5 = Community-Ingenieur





Gruppe: Aktivierungsprozess
Mitglied seit: 16.06.2010
Beiträge: 633
Mitglied seit: 16.06.2010
Beiträge: 633
Hallo Juliane,
frag mal Deinen Kunden, wieviele Fehler er euch zugesteht - das wäre dann Stand der Technik. In Zeiten da alle Welt über Zorro defects plaudert ist ein System, das bewußt Fehler zulässt (insbesondere dann bei höheren Anlieferlosen) nicht mehr so richtig zum Zeitgeist passend.
Im Bereich der Automobilindustrie beispielsweise dürfen die AQL-Matrizen nicht verwendet werden, da sie nicht der Null-Fehler-Strategie entsprechen.
Du müsstest zumindest alle Prüfungen auf "zu Null" setzen, d.h. eine fehlerfhafte Einheit führt zur Ablehnung der gesamten Charge.
eins noch zur Klarstellung: AQL-Fehler kannst Du problemlos auch über noch so viele Merkmale aufaddieren, nur bei den cmk-Werten geht das nicht (ist ja auch korrekt so: ein grenzwertiger cmk soll ja nicht durch einen sehr hohen cmk ausgeglichen werden). Bei Merkmalen funzts dann nimmer, wenn Du verschiedene Fehler auf der Attributivseite definierst, seis Haupt- und Nebenfehler, Fehler auf A,B oder C-Seite etc.
Hinweis: SPC ist eine Langfristangelegenheit, einen cpk für eine Charge zu berechnen macht nicht wirklich Sinn. Wenn Du die cpks der Merkmale nicht über die Chargengrenzen hinweg fortschreiben kannst, solltet Ihr lieber mal den Prozess der Verifizierung von Einrichtvorgängen genauer anschauen.
Könnte es sein, daß Ihr ein bestehendes und funktionierendes System von Prüfungen habt, jetzt aber mittels Verwissenschaftlichung den Prüfaufwand reduzieren wollt? Das wird Euch höchstwahrscheinlich nicht gelingen.
Gelingen kann Folgendes (mehrmals erprobt): Ihr weist - wie auch immer- nach, daß Eure Prozesse fähig sind und könnt infolge dessen den Prüfaufwand drastisch reduzieren (ist ja auch der Grundgedanke der Prozessfähigkeit). Vielleicht könnt ihr zusätzlich noch nachweisen, daß bestimmte Merkmale zusammenhängen und ihr könnt aus 40 Merkmalen 25 machen???
Unfähige Prozesse mittels Statistik gesund zu beten hat da deutlich schlechtere Realisierungschancen. Nix für ungut, ist auch nur mal so eine Vision...
Grüßle
T.
frag mal Deinen Kunden, wieviele Fehler er euch zugesteht - das wäre dann Stand der Technik. In Zeiten da alle Welt über Zorro defects plaudert ist ein System, das bewußt Fehler zulässt (insbesondere dann bei höheren Anlieferlosen) nicht mehr so richtig zum Zeitgeist passend.
Im Bereich der Automobilindustrie beispielsweise dürfen die AQL-Matrizen nicht verwendet werden, da sie nicht der Null-Fehler-Strategie entsprechen.
Du müsstest zumindest alle Prüfungen auf "zu Null" setzen, d.h. eine fehlerfhafte Einheit führt zur Ablehnung der gesamten Charge.
eins noch zur Klarstellung: AQL-Fehler kannst Du problemlos auch über noch so viele Merkmale aufaddieren, nur bei den cmk-Werten geht das nicht (ist ja auch korrekt so: ein grenzwertiger cmk soll ja nicht durch einen sehr hohen cmk ausgeglichen werden). Bei Merkmalen funzts dann nimmer, wenn Du verschiedene Fehler auf der Attributivseite definierst, seis Haupt- und Nebenfehler, Fehler auf A,B oder C-Seite etc.
Hinweis: SPC ist eine Langfristangelegenheit, einen cpk für eine Charge zu berechnen macht nicht wirklich Sinn. Wenn Du die cpks der Merkmale nicht über die Chargengrenzen hinweg fortschreiben kannst, solltet Ihr lieber mal den Prozess der Verifizierung von Einrichtvorgängen genauer anschauen.
Könnte es sein, daß Ihr ein bestehendes und funktionierendes System von Prüfungen habt, jetzt aber mittels Verwissenschaftlichung den Prüfaufwand reduzieren wollt? Das wird Euch höchstwahrscheinlich nicht gelingen.
Gelingen kann Folgendes (mehrmals erprobt): Ihr weist - wie auch immer- nach, daß Eure Prozesse fähig sind und könnt infolge dessen den Prüfaufwand drastisch reduzieren (ist ja auch der Grundgedanke der Prozessfähigkeit). Vielleicht könnt ihr zusätzlich noch nachweisen, daß bestimmte Merkmale zusammenhängen und ihr könnt aus 40 Merkmalen 25 machen???
Unfähige Prozesse mittels Statistik gesund zu beten hat da deutlich schlechtere Realisierungschancen. Nix für ungut, ist auch nur mal so eine Vision...

Grüßle
T.



Level 1 = Community-Lehrling

Gruppe: Aktivierungsprozess
Mitglied seit: 05.06.2015
Beiträge: 7
Mitglied seit: 05.06.2015
Beiträge: 7
Hallo T.,
Ich fürchte unsere Diskussion driftet in eine Grundlagendiskussion ab. Natürlich hast du recht, wenn du meinst, dass in der Automobilbranche Prüfungen nach AQL verpönt sind, da sie nicht der Null-Fehler-Philosophie entsprechen. Ich möchte einige Argumente liefern, die dem entgegenstehen:
1. AQL-Tabellen gehen bis zu Werten von AQL 0,001 dies kommt einem cpk-Wert von 1,33 schon sehr nahe.
2. Alle Prüfungen einfach „zu Null“ zu setzen sichert nicht vor erhöhten Fehlerquoten in der Grundgesamtheit. Dazu muss auch der Stichprobenumfang entsprechend hoch sein.
3. Die Prozessfähigkeit für unsere Prozesse nachzuweisen funktioniert leider nicht. Unsere Prozesse sind nach den Standards der Automobilbranche nicht fähig! Sie befinden sich eher im technisch machbaren Grenzbereich. Im Sinne von Null-Fehler-Produktion wären also eine 100% Prüfungen angebracht.
Nun existiert folgender Sachverhalt. Auf dem Weg zum fertigen Endprodukt werden mehrere Halbfabrikate gefertigt. Mit unseren „unfähigen“ Prozessen kann auf 2 Art und Weisen umgehen:
A) Nach Null-Fehler-Produktion müsste ich an allen Halbfabrikaten eine 100% Prüfung durchführen. Das ist sehr teuer.
Ich toleriere für die Halbfabrikate der Lieferanten einen Fehleranteil X, der aus Kosten-Nutzen-Sicht gerade noch akzeptabel ist. Die Null-Fehler-Quote erreiche ich durch 100% Prüfung am Endprodukt. Nun muss ich nur sicherstellen, dass unsere Lieferanten einen Fehleranteil X und kleiner auf lange Sicht stabil fertigen können.
Meine eigentliche Frage bleibt leider unbeantwortet.
Danke trotzdem!
Juliane
Ich fürchte unsere Diskussion driftet in eine Grundlagendiskussion ab. Natürlich hast du recht, wenn du meinst, dass in der Automobilbranche Prüfungen nach AQL verpönt sind, da sie nicht der Null-Fehler-Philosophie entsprechen. Ich möchte einige Argumente liefern, die dem entgegenstehen:
1. AQL-Tabellen gehen bis zu Werten von AQL 0,001 dies kommt einem cpk-Wert von 1,33 schon sehr nahe.
2. Alle Prüfungen einfach „zu Null“ zu setzen sichert nicht vor erhöhten Fehlerquoten in der Grundgesamtheit. Dazu muss auch der Stichprobenumfang entsprechend hoch sein.
3. Die Prozessfähigkeit für unsere Prozesse nachzuweisen funktioniert leider nicht. Unsere Prozesse sind nach den Standards der Automobilbranche nicht fähig! Sie befinden sich eher im technisch machbaren Grenzbereich. Im Sinne von Null-Fehler-Produktion wären also eine 100% Prüfungen angebracht.
Nun existiert folgender Sachverhalt. Auf dem Weg zum fertigen Endprodukt werden mehrere Halbfabrikate gefertigt. Mit unseren „unfähigen“ Prozessen kann auf 2 Art und Weisen umgehen:
A) Nach Null-Fehler-Produktion müsste ich an allen Halbfabrikaten eine 100% Prüfung durchführen. Das ist sehr teuer.

Meine eigentliche Frage bleibt leider unbeantwortet.

Danke trotzdem!
Juliane



Level 5 = Community-Ingenieur





Gruppe: Aktivierungsprozess
Mitglied seit: 16.06.2010
Beiträge: 633
Mitglied seit: 16.06.2010
Beiträge: 633
Hallo Juliane,
jetzt fühl ich mich aber total ertappt
Für Deine ursprüngliche Frage habe ich nämlich leider keine Antwort. Ich hab mir gedacht, wenn ich nur viel genug drum rum diskutiere, merkts niemand. Ist jetzt irgendwie stark suboptimal gelaufen für mich...
Und Du wirst an einer Grundsatzdiskussion nicht vorbei kommen.
Beispiel gefällig: wie rechnest (und begründest ) Du einen cpk für einen Prozess, der von vorne bis hinten nicht fähig ist?
Wenn Du Dich eh drauf verlässt, Fehler aus den Vorstufen in der Endprüfung zu entdecken, welchen Sinn machen dann Prüfungen in den Vorstufen?
Ich denke, für euer Problem gibt es keine Lösung ausser dem extrem sauren Apfel, der da 100% Prüfung heisst - oder eben Mut zur Lücke und nachsichtige Kunden - in Verbindung mit guter Rückverfolgbarkeit und einer leistungsfähigen Produkthaftpflicht...
Aber wir können ja mal die kompetenten Kollegen fragen..
HAAAAALLLLOOOO- kann mal jemand....???
Grüßle
T
jetzt fühl ich mich aber total ertappt

Für Deine ursprüngliche Frage habe ich nämlich leider keine Antwort. Ich hab mir gedacht, wenn ich nur viel genug drum rum diskutiere, merkts niemand. Ist jetzt irgendwie stark suboptimal gelaufen für mich...
Und Du wirst an einer Grundsatzdiskussion nicht vorbei kommen.
Beispiel gefällig: wie rechnest (und begründest ) Du einen cpk für einen Prozess, der von vorne bis hinten nicht fähig ist?
Wenn Du Dich eh drauf verlässt, Fehler aus den Vorstufen in der Endprüfung zu entdecken, welchen Sinn machen dann Prüfungen in den Vorstufen?
Ich denke, für euer Problem gibt es keine Lösung ausser dem extrem sauren Apfel, der da 100% Prüfung heisst - oder eben Mut zur Lücke und nachsichtige Kunden - in Verbindung mit guter Rückverfolgbarkeit und einer leistungsfähigen Produkthaftpflicht...
Aber wir können ja mal die kompetenten Kollegen fragen..
HAAAAALLLLOOOO- kann mal jemand....???
Grüßle
T



Level 1 = Community-Lehrling

Gruppe: Aktivierungsprozess
Mitglied seit: 05.06.2015
Beiträge: 7
Mitglied seit: 05.06.2015
Beiträge: 7
Hallo T.,
Wie ich sehe siehts für mein Problem nicht gut aus…
Ich möchte dir aber dennoch auf deine Fragen antworten:
1. „wie rechnest (und begründest ) Du einen cpk für einen Prozess, der von vorne bis hinten nicht fähig ist?“
Also rechnen ist ja kein Problem, die Formeln sind unvoreingenommen. Begründen muss ich einen schlechten cpk Wert nur vor dem Produktverantwortlichen, der aufgrund der schlechten Werte mit viel Ausschuss- und Prüfkosten rechnen muss. Solange aber unsere Kunden bereit sind höher Preise hinzulegen, ist das okay. Besser wäre es natürlich die Fertigungen so zu optimieren, dass fähige Prozesse hinten raus kommen. Aber wie gesagt ist das nicht immer möglich.
2. „Wenn Du Dich eh drauf verlässt, Fehler aus den Vorstufen in der Endprüfung zu entdecken, welchen Sinn machen dann Prüfungen in den Vorstufen?“
Weil man die Kosten für den Aufbau und Verbau von Halbfertigprodukten in ein Endprodukt mit in die Rechnung einbeziehen muss. Diese Kosten bleiben bestehen, wenn man ein schlechtes Bauteil am Ende des Fertigungsprozesses wegschmeißt und nicht gleich am Anfang.
Durch die stichprobenartigen Prüfungen in den Vorstufen stelle ich sicher, dass Lose mit hohen Fehlerquoten gar nicht erst verbaut werden und ich die Kosten für Aufbau und Verbau spare. Die Kosten-Nutzen-Rechnung ist nicht ganz trivial.
Einen Hinweis auf meine Frage habe ich im schlauen Buch von Rinne/Mittag „Statistische Methoden der Qualitätssicherung“ (3.Auflage) gefunden. Dort steht im Kapitel 3.3.5 zu den Nachteilen der variablen/ messenden Stichprobenprüfung:
„Wenn mehrere Q-Merkmale zu überwachen sind, muss bei der univarianten messenden Prüfung für jedes Q-Merkmal eine Stichprobenanweisung festgesetzt und mithin eine eigene Stichprobe gezogen werden, während bei der attributiven Prüfung eine Anweisung zur Prüfung mehrerer Merkmale ausreicht.“
Ich werde mir aber jetzt noch die ISO 3951-2: 2013 besorgen, die dieses Thema zu behandeln scheint.
Gruß,
Juliane
Wie ich sehe siehts für mein Problem nicht gut aus…
Ich möchte dir aber dennoch auf deine Fragen antworten:
1. „wie rechnest (und begründest ) Du einen cpk für einen Prozess, der von vorne bis hinten nicht fähig ist?“
Also rechnen ist ja kein Problem, die Formeln sind unvoreingenommen. Begründen muss ich einen schlechten cpk Wert nur vor dem Produktverantwortlichen, der aufgrund der schlechten Werte mit viel Ausschuss- und Prüfkosten rechnen muss. Solange aber unsere Kunden bereit sind höher Preise hinzulegen, ist das okay. Besser wäre es natürlich die Fertigungen so zu optimieren, dass fähige Prozesse hinten raus kommen. Aber wie gesagt ist das nicht immer möglich.
2. „Wenn Du Dich eh drauf verlässt, Fehler aus den Vorstufen in der Endprüfung zu entdecken, welchen Sinn machen dann Prüfungen in den Vorstufen?“
Weil man die Kosten für den Aufbau und Verbau von Halbfertigprodukten in ein Endprodukt mit in die Rechnung einbeziehen muss. Diese Kosten bleiben bestehen, wenn man ein schlechtes Bauteil am Ende des Fertigungsprozesses wegschmeißt und nicht gleich am Anfang.
Durch die stichprobenartigen Prüfungen in den Vorstufen stelle ich sicher, dass Lose mit hohen Fehlerquoten gar nicht erst verbaut werden und ich die Kosten für Aufbau und Verbau spare. Die Kosten-Nutzen-Rechnung ist nicht ganz trivial.
Einen Hinweis auf meine Frage habe ich im schlauen Buch von Rinne/Mittag „Statistische Methoden der Qualitätssicherung“ (3.Auflage) gefunden. Dort steht im Kapitel 3.3.5 zu den Nachteilen der variablen/ messenden Stichprobenprüfung:
„Wenn mehrere Q-Merkmale zu überwachen sind, muss bei der univarianten messenden Prüfung für jedes Q-Merkmal eine Stichprobenanweisung festgesetzt und mithin eine eigene Stichprobe gezogen werden, während bei der attributiven Prüfung eine Anweisung zur Prüfung mehrerer Merkmale ausreicht.“
Ich werde mir aber jetzt noch die ISO 3951-2: 2013 besorgen, die dieses Thema zu behandeln scheint.
Gruß,
Juliane



Level 1 = Community-Lehrling

Gruppe: Aktivierungsprozess
Mitglied seit: 05.06.2015
Beiträge: 7
Mitglied seit: 05.06.2015
Beiträge: 7
Hallo,
ich habe die Antwort in der ISO 3951-2:2006 gefunden. (Diese ist zwar schon durch eine Version von 2013 ersetzt, doch das Prinzip wird das Gleiche sein.)
Dort wird aus Mittelwert und Standardabweichung auf den Überschreitungsanteil eines Prüfmerkmals geschlossen. Der Überschreitungsanteil setzt sich bei zweiseitigem Toleranzbereich additiv aus dem Überschreitungsanteil an der oberen Toleranzgrenze und dem Überschreitungsanteil an der unteren Toleranzgrenze zusammen.
Hat man die Überschreitungsanteile pi eines Merkmal ermittelt wird der Überschreitungsanteil p über alle Merkmale, der Anzahl m, geschätzt durch:
p = 1-(1-p1)(1-p2)….(1-pm)
Sind die Überschreitungsanteile allesamt sehr klein (<0,01) dann die Gesamtüberschreitung geschätzt werden über p = p1+p2+….+pm.
Der geschätzte Überschreitungsanteil wird dann mit einem Tabellenwert p* vergleichen. Ist p>p* wird das Prüflos abgelehnt.
Interessant ist, dass in der ISO 3951-2 Prüfmerkmale entsprechend ihrer Fehlerschwere in Klassen eingeteilt werden. Jeder Klasse kann dann ein AQL zugeordnet werden. Es geht sogar so weit, dass der oberen Toleranzgrenze eines Merkmals ein anderer AQL zugeordnet werden kann als der unteren Toleranzgrenze.
Für jede Klassen/ AQL muss die obige Berechnung getrennt durchgeführt werden.
Diese Annahmen gelten im Übrigen nur für normalverteilte und voneinander unabhängige Merkmale.
Gruß,
Juliane
ich habe die Antwort in der ISO 3951-2:2006 gefunden. (Diese ist zwar schon durch eine Version von 2013 ersetzt, doch das Prinzip wird das Gleiche sein.)
Dort wird aus Mittelwert und Standardabweichung auf den Überschreitungsanteil eines Prüfmerkmals geschlossen. Der Überschreitungsanteil setzt sich bei zweiseitigem Toleranzbereich additiv aus dem Überschreitungsanteil an der oberen Toleranzgrenze und dem Überschreitungsanteil an der unteren Toleranzgrenze zusammen.
Hat man die Überschreitungsanteile pi eines Merkmal ermittelt wird der Überschreitungsanteil p über alle Merkmale, der Anzahl m, geschätzt durch:
p = 1-(1-p1)(1-p2)….(1-pm)
Sind die Überschreitungsanteile allesamt sehr klein (<0,01) dann die Gesamtüberschreitung geschätzt werden über p = p1+p2+….+pm.
Der geschätzte Überschreitungsanteil wird dann mit einem Tabellenwert p* vergleichen. Ist p>p* wird das Prüflos abgelehnt.
Interessant ist, dass in der ISO 3951-2 Prüfmerkmale entsprechend ihrer Fehlerschwere in Klassen eingeteilt werden. Jeder Klasse kann dann ein AQL zugeordnet werden. Es geht sogar so weit, dass der oberen Toleranzgrenze eines Merkmals ein anderer AQL zugeordnet werden kann als der unteren Toleranzgrenze.
Für jede Klassen/ AQL muss die obige Berechnung getrennt durchgeführt werden.
Diese Annahmen gelten im Übrigen nur für normalverteilte und voneinander unabhängige Merkmale.
Gruß,
Juliane



Level 5 = Community-Ingenieur





Gruppe: Aktivierungsprozess
Mitglied seit: 16.06.2010
Beiträge: 633
Mitglied seit: 16.06.2010
Beiträge: 633
Hallo Juliane,
eigentlich unke ich ausgesprochen ungern - kanns aber in diesem Fall nicht lassen.
Zitat:"Dort wird aus Mittelwert und Standardabweichung auf den Überschreitungsanteil eines Prüfmerkmals geschlossen"
Nun ist es leider so, daß sich unfähige Prozesse u.a. dadurch auszeichnen, daß die Standardabweichung entsprechend hoch ist, im Zweifelsfall kann das theoretisch bis zu einem negativen Sigma gehen, wenn die Standardabweichung schon größer als die Spezifikationsgrenzen ist. Dementsprechend wird bei hoher Standardabweichung ein entsprechend hoher Überschreitungsanteil berechnet.
Dann warst Du zwar überaus erfolgreich darin, den Prüfaufwand im ersten Schritt zu minimieren, stehst dann aber vor einem Berg verworfener Lose, weil die Überschreitungswahrscheinlichkeit zu hoch ist und die Prüfung daher n.i.O. bewertet wird.
DEN Aufwand kannst Du Dir so gesehn sparen. Aber lass uns doch mal wissen wie Deine Erfahrungsgewinnung so aussieht...
Grüßle
T
eigentlich unke ich ausgesprochen ungern - kanns aber in diesem Fall nicht lassen.
Zitat:"Dort wird aus Mittelwert und Standardabweichung auf den Überschreitungsanteil eines Prüfmerkmals geschlossen"
Nun ist es leider so, daß sich unfähige Prozesse u.a. dadurch auszeichnen, daß die Standardabweichung entsprechend hoch ist, im Zweifelsfall kann das theoretisch bis zu einem negativen Sigma gehen, wenn die Standardabweichung schon größer als die Spezifikationsgrenzen ist. Dementsprechend wird bei hoher Standardabweichung ein entsprechend hoher Überschreitungsanteil berechnet.
Dann warst Du zwar überaus erfolgreich darin, den Prüfaufwand im ersten Schritt zu minimieren, stehst dann aber vor einem Berg verworfener Lose, weil die Überschreitungswahrscheinlichkeit zu hoch ist und die Prüfung daher n.i.O. bewertet wird.
DEN Aufwand kannst Du Dir so gesehn sparen. Aber lass uns doch mal wissen wie Deine Erfahrungsgewinnung so aussieht...
Grüßle
T
1 Besucher lesen dieses Thema (Gäste: 1)
0 Mitglieder: