W rozwoju zastosowania metod statystycznych w doświadczalnictwie można wyróżnić cztery okresy.
Pierwsze próby implementacji metod statystycznych dotyczyły rolnictwa, a pionierem w tym obszarze był brytyjski matematyk Ronald A. Fisher. Badania prowadzone przez niego w ramach pracy w podlondyńskiej Rothamsted Agricultural Experimental Station na przełomie lat dwudziestych i trzydziestych XX wieku doprowadziły Fishera do sformułowania zasad trzech fundamentalnych do dziś reguł w doświadczalnictwie: randomizacji, replikacji, blokowania. Statystyka zawdzięcza Fisherowi również koncepcję eksperymentów czynnikowych oraz metod analizy wariancji, stanowiących do dziś podstawę wielu narzędzi organizacji i analizy danych doświadczalnych.
W naturalny sposób wzrastało równolegle zainteresowanie możliwością wykorzystania metod statystycznych w procesach przemysłowych. Za prawdziwy impuls dynamicznego rozwoju w tym obszarze należy jednak uznać opublikowanie w 1951 roku pracy Boxa i Wilsona w której zaprezentowali oni metodologię sekwencyjnej procedury tzw. powierzchni odpowiedzi (Response Surface Methodology). Punktem wyjścia ich badań była obserwacja dotycząca cech charakterystycznych dla eksperymentów przemysłowych, odróżniających je zarazem od doświadczeń rolniczych:
(1) zmienna wynikowa doświadczenia dostępna jest niemal natychmiast,
(2) w realizacji eksperymentu można zastosować podejście sekwencyjne.
Metody RSM zyskały szeroki oddźwięk w środowiskach badaczy różnych dziedzin, szczególnie chemicznych i z obszarów inżynierii procesowej, jednak z uwagi na konieczność posiadania przez badacza zaawansowanego przygotowania merytorycznego, ich stosowanie ograniczało się przeważnie do sfery badawczej.
Powszechny wzrost zainteresowania możliwościami, jakie niesie ze sobą zastosowanie w procesach produkcji statystycznie planowanych doświadczeń nastąpił dopiero w latach osiemdziesiątych, w wyniku skierowania uwagi przemysłowców na zagadnienia kontroli i poprawy jakości. Punktem zwrotnym było zaprezentowanie przez japońskiego inżyniera i statystyka Genichi Taguchi nowatorskiej metody rozwiązywania niezwykle istotnego problemu z tego zakresu, tzw. zagadnienia RPD (Robust Parametr Design). Idea zagadnienia RPD polega na znalezieniu takiego poziomu parametrów wejściowych systemu, by
(1) średnia wielkość wyjściowa (np. dany parametr produktu) utrzymywana była na stałym poziomie oraz
(2) charakteryzowała się ona minimalną wariancją.
Metoda Taguchi charakteryzuje się dostępnością dla inżynierów i projektantów nie posiadających specjalistycznego przygotowania statystycznego, a jej wdrożenie przyniosło wielu znanym koncernom (m.in. Xerox Corporation, Delphi Automotive Systems) jak również mniejszym przedsiębiorstwom działającym w wielu różnych branżach spektakularny wzrost zysków.
Niewątpliwie metoda Taguchi przyczyniła się ona do wzrostu powszechnego zainteresowania korzyściami ze stosowania statystycznie projektowanych doświadczeń nie tylko w środowiskach badawczych ale i wśród inżynierów i praktyków różnych specjalności. W środowisku statystyków jednak analiza danych metodą Taguchi budziła liczne kontrowersje, czego konsekwencją jest obecny rozwój interesujących alternatywnych metod rozwiązania zagadnienia RPD (takich jak np. powierzchnie i modelowanie odpowiedzi).
Obecnie coraz więcej przedsiębiorstw z tak różnych obszarów działalności jak sektor usługowy, finansowy, biznesowy a także przemysłowy np. lotniczy, elektryczny wykorzystuje z powodzeniem metody statystycznie projektowanych doświadczeń do dynamizacji rozwoju i generowania większych zysków.
Literatura:
1. Montgomery D.C.,2005. Design and Analysis of Experiments.
2. Taguchi G., Chowdhury S., Wu Y., 2001. The Taguchi-Mahalanobis System.