
Gastbeitrag von Eli Schragenheim
Joel-Henry Grossard machte eine interessante Feststellung, die ich hier wiedergeben möchte. Er schrieb:
“[…] man kann zwei Verteilungen haben mit dem gleichen Durchschnitt und der gleichen Standardabweichung, die jedoch von den Zahlen her vollkommen unterschiedlich sind. Was fehlt, ist der Faktor Zeit: es ist entscheidend, zu wissen, wie die Zahlen über die Zeit verteilt sind. Dabei kann Statistische Prozessregelung hilfreich sein.“
Meine Frage: Wissen wir, wie die Variablen, mit denen wir in unserem Unternehmensalltag zu tun haben, sich über die Zeit verhalten?
Nehmen wir als Beispiel einen Herstellungsvorgang, bei dem wir eine Menge Daten aufzeichnen, mitsamt ihrer Verteilung über die Zeit. Nun erhalten wir zwar eine Zeitreihe an Ergebnissen, doch das daraus resultierende Diagramm zeigt lediglich eine mögliche Verteilung der Ergebnisse, nicht aber die reale Verteilung in der Praxis. Wenn zum Beispiel ein Arbeiter nach einer Stunde müde wird und sich diese Müdigkeit in der Produktionsqualität ausdrückt, dann sollten wir eine gewisse Abweichung erkennen. Doch sofern wir dieses Phänomen nicht ohnehin erwarten, sind die Chancen sehr klein, dass wir einen solchen Abweichungsgrund aus den Daten herauslesen können.
Ist der Vorgang, den wir messen, vollkommen unter unserer Kontrolle, dann können wir den Daten entnehmen, ob die Grundparameter bedeutenden Veränderungen unterlagen. Doch selbst in einem solch stark vereinfachten Fall hat Professor Deming bei der Entwicklung der Qualitätskontrolle meines Wissens nicht die volle Kraft der Statistik eingesetzt, sondern lediglich Standard-Heuristik angewandt, um „ausreichende“ (good enough) Qualität zu gewährleisten.
Sobald der Vorgang außerhalb unserer Kontrolle ist, wissen wir noch weniger darüber, welche Auswirkungen das ungewisse Umfeld darauf haben wird. Wir können nicht einmal sagen, ob alle aufgezeichneten Ergebnisse zur gleichen Verteilungsfunktion gehören.
Nehmen wir an, es käme ein neues Buch der Harry-Potter-Serie heraus. Das letzte Buch ist 2007 erschienen. Welches statistische Modell könnte die Anzahl verkaufter Bücher in der ersten Woche vorhersagen? Zwar haben wir die vorherigen Verkaufszahlen, die sicher bis zu einem gewissen Grad relevant sind. Doch aufgrund der langen Pause zwischen dem Ende der Serie und diesem neuen, unerwarteten Buch hat sich die ursprüngliche Verteilungsfunktion verändert. Was aber diese Veränderung ist, können wir nicht genau sagen. Wir wissen nicht einmal wirklich, ob die Nachfrage unter oder über dem letzten Buch liegen wird.
Heißt das also, wir haben überhaupt keine Informationen? Kann es wirklich eine beliebige Zahl sein? Wir kennen einige Parameter, die die Nachfrage beeinflussen werden:
- Die Original-Serie erfreut sich immer noch großer Beliebtheit.
- Andererseits sind viele der Leser nun älter und es ist nicht sicher, ob sie weiterhin Interesse daran haben.
So können wir zumindest eine intuitive Schätzung über die zu erwartende minimale Verkaufszahl abgeben. Wir können zudem schätzen, wie weit die erwartete Nachfrage über diesem Minimum liegen könnte, basierend auf den Verkaufszahlen des letzten Buches.
Doch welche Bedeutung haben die vorherigen Ergebnisse wirklich? Die einzige Schlussfolgerung, die wir daraus ziehen können, ist, dass das letzte Buch nicht isoliert existierte und die gesamte Serie ein großer Erfolg war. Doch die genauen Ergebnisse und ihre Verteilung über die Zeit tragen nichts weiter zu unserer Vorhersage bei.
Ich möchte hier das Wort „zu erwarten“ hervorheben („reasonable“ im englischen Original). Wir wissen, dass manchmal unerwartete Dinge passieren. Doch wenn wir davon ausgehen, dass unsere Intuition auf Umsicht und Erfahrung basiert, dann werden die meisten Entwicklungen uns nicht überraschen. Unsere Intuition entwickeln wir aufgrund vieler kleiner Ereignisse und ob sie uns überraschen oder nicht.
Diese Intuition ist eine Quelle wertvoller – doch unvollständiger – Informationen, die uns dabei helfen, Entscheidungen im Kontext normaler und zu erwartender Ungewissheit zu treffen.
In den meisten Lebenssituationen stehen uns unvollständige Informationen zur Verfügung: nicht ausreichend, um uns immer vor schlechten Entscheidungen zu schützen, doch genug, um uns insgesamt zu mehr Vorteilen als Nachteilen zu verhelfen.
Wenn wir aber diese unvollständigen Informationen bewusst ignorieren, dann verursachen wir definitiv Schaden. Genau das ist es aber, was die meisten Unternehmensregeln tun: sie zwingen einer ungewissen Situation Gewissheit auf – etwa, wenn aus Umsatzprognosen plötzlich Umsatzziele werden und diese sich dann als feste Kennzahl in der Leistungsbewertung wiederfinden.
Dieser Drang, einer ungewissen Situation Gewissheit aufzwingen zu wollen, entstammt meines Erachtens der Befürchtung, unberechtigt kritisiert zu werden. Ich möchte Ursache und Wirkung dieser Angst sowie der sich daraus ergebenden Leistungsmessung auf den Grund gehen und die unangenehmen Seiten des Verhältnisses zwischen Unternehmen und Mitarbeitern aufzeigen. Davon wird hoffentlich mein nächster Beitrag handeln – wenn denn nichts Unerwartetes dazwischenkommt!
________
Quelle: http://elischragenheim.com/2015/04/29/the-balance-between-statistics-and-intuition/