Niezawodność – czyli zdolność systemu lub produktu do bezawaryjnego działania – jest dziś cechą, której wymagamy od niemal wszystkich otaczających nas urządzeń i usług. Od samochodów i sprzętu AGD po sieci telekomunikacyjne i oprogramowanie, oczekujemy ciągłości działania i minimalnej liczby usterek. Droga do osiągnięcia tak wysokiej niezawodności była jednak długa.
Pojęcie reliability (niezawodność) pojawiło się po raz pierwszy już w 1816 roku, gdy angielski poeta Samuel T. Coleridge użył go na określenie rzetelności swojego przyjaciela. Przez kolejne stulecie odnosiło się głównie do cechy charakteru lub ogólnie rozumianej solidności osób i rzeczy (synonim dependability – niezawodności, pewności). Dopiero XX wiek przyniósł rozwój technicznego znaczenia niezawodności.
W niniejszym artykule przedstawiono, jak niezawodność wyewoluowała w odrębną dziedzinę inżynierii. Omówiono historię niezawodności od pierwszych prób jej definiowania i pomiaru, poprzez rozwój metod statystycznych w kontroli jakości, doświadczenia II wojny światowej i zimnej wojny, zastosowania w elektronice, wojsku, eksploracji kosmosu i motoryzacji, aż po współczesne trendy – niezawodność oprogramowania, mikrosystemów (np. urządzeń MEMS) oraz systemów krytycznych (takich jak energetyka, transport czy infrastruktura teleinformatyczna).
Początki pojęcia niezawodności – od literatury do techniki
Historia niezawodności jako pojęcia technicznego zaczyna się stosunkowo późno. Choć niezawodność jako zaleta ludzka była ceniona od dawna, w świecie techniki termin ten pojawił się dopiero po I wojnie światowej. W latach 20. XX wieku zaczęto używać „niezawodności” do opisywania bezpieczeństwa eksploatacji samolotów – na przykład porównywano niezawodność maszyn jedno-, dwu- i czterosilnikowych, mierząc liczbę wypadków na godzinę lotu. Był to jeden z pierwszych przypadków nadania pojęciu niezawodności formalnego, ilościowego znaczenia w kontekście technicznym.
Jednocześnie rozwijały się fundamenty teoretyczne niezbędne do analizy niezawodności. Już na początku lat 30. Walter A. Shewhart oraz Harold F. Dodge i Harry G. Romig z Bell Labs opracowali podstawy statystycznej kontroli jakości, wprowadzając metody pozwalające mierzyć i kontrolować zmienność procesów produkcyjnych. Ich prace zapoczątkowały wykorzystanie statystyki w inżynierii niezawodności, choć początkowo nie znajdowały szerokiego zastosowania – dopiero wyzwania II wojny światowej wymusiły szersze wdrożenie metod statystycznych w przemyśle.
Pierwsze dekady XX wieku przyniosły też nowe technologie, które uwidoczniły problem niezawodności w praktyce. Telegraf, telefon, a następnie radio lampowe to jedne z pierwszych systemów elektronicznych, gdzie zawodność komponentów (np. pękające przewody czy przepalające się lampy) ograniczała ich użyteczność. Również motoryzacja dostarczyła przykładów wyzwań niezawodności – samochody, które około 1920 roku stały się powszechnym środkiem transportu, musiały być projektowane tak, by minimalizować awarie mechaniczne.
W latach 30. XX wieku w kilku konkretnych branżach poczyniono duże postępy indywidualne. Jakość i pomiary procesów były w powijakach, ale rozwijały się. Wallodie Weibull pracował w Szwecji w tym okresie i badał zmęczenie materiałów. W tym czasie stworzył rozkład prawdopodobieństwa, który obecnie nazywamy Rozkładem Weibulla (często stosowany w analizie przeżycia do modelowania sytuacji, gdy prawdopodobieństwo śmierci/awarii zmienia się w czasie).
Mimo tych wyzwań, przed II wojną światową kwestie niezawodności rozwiązywano głównie doraźnie, polegając na poprawie jakości wykonania części i reakcji serwisowej na awarie. Planowej inżynierii niezawodności jako odrębnej specjalności jeszcze nie było.
II wojna światowa – narodziny inżynierii niezawodności
Dopiero wojna totalna lat 1939–1945 uzmysłowiła inżynierom, jak krytyczna jest niezawodność uzbrojenia i sprzętu. W Niemczech program rakietowy V-1 borykał się z fatalną awaryjnością – pierwsze testowe pociski kończyły się fiaskiem jeden po drugim. Pomimo wykorzystania wysokiej jakości podzespołów i dbałości o detale, pierwszych 10 rakiet V-1 albo eksplodowało tuż po starcie, albo spadło daleko przed celem. Do projektu wezwano matematyka Roberta Lussera, który przeanalizował system i sformułował słynne prawo iloczynu niezawodności: niezawodność systemu złożonego z wielu elementów jest iloczynem niezawodności poszczególnych komponentów. Innymi słowy, jeśli urządzenie działa tylko wtedy, gdy działa każdy z np. 100 elementów, to nawet przy bardzo wysokiej niezawodności pojedynczych części (np. 99%) prawdopodobieństwo bezawaryjnego działania całego systemu będzie niewielkie (dla 100 elementów po 99% każde – tylko ok. 37%). Ta obserwacja – dziś oczywista – w latach 40. tłumaczyła, czemu skomplikowane wynalazki zawodziły tak często.
Alianci również musieli zmierzyć się z zawodnością nowoczesnej broni, elektroniki i pojazdów. Na początku II wojny światowej stwierdzono, że ponad połowa lotniczych urządzeń radiowych składowanych w magazynach nie spełnia wymagań – innymi słowy, nie działa poprawnie. Po wojnie analiza sprzętu pokładowego wykazała, że w dowolnym momencie nawet 50% elektroniki na okrętach może być niesprawne. Armie nie mogły sobie pozwolić, by tak duża część sprzętu była bezużyteczna – koszty operacyjne i ryzyko były nieakceptowalne. Konieczne stało się wypracowanie metod systematycznej poprawy niezawodności. Początkowo skupiano się na zwiększaniu jakości komponentów: lepsze materiały, dokładniejsze wykonanie. Dawało to pewną poprawę, lecz w latach 40. nie prowadzono jeszcze pełnych, naukowych analiz zjawiska zawodności systemów.































































