Wymiana dobrego komponentu na dobry, czyli rozmowa z superinżynierem
- Jeżeli wykonujemy D-FMEA na końcu, to jest to błąd. W takim przypadku D-FMEA to w zasadzie tylko papierek, który służy do zatwierdzenia projektu, ale w istocie nic nie daje – mówi Zbigniew Huber z FLC, jeden z naszych wykładowców Hardware Forum 2026.
Jednym z pól Pana aktywności jest analiza przyczyn powstawania awarii płytek PCB. W jakim momencie klienci trafiają do zewnętrznego specjalisty?
Klienci korzystają z analiz uszkodzeń głównie w trzech przypadkach. Pierwsza grupa to awarie, w których trudno jest zlokalizować miejsce uszkodzenia, znaleźć konkretny wadliwy komponent lub uszkodzone połączenie elektryczne. Dotyczy to głównie skomplikowanych modułów z dużą liczbą elementów. Druga grupa to pęknięcia komponentów ceramicznych lub połączeń lutowanych. Lokalizacja uszkodzenia jest znana, a badanie ma na celu identyfikację przyczyny. Typowo ma to związek ze stresem mechanicznym, wygięciem laminatu, jakimś naciskiem na połączenia lutowane i wpływem różnic w rozszerzalności termicznej stosowanych materiałów. Trzecia grupa tematów dotyczy samego PCB. Mam tu na myśli takie zjawiska jak: wady metalizacji, pęknięcia przelotek, czarny pad w płytkach z pokryciem ENIG, rozpuszczanie miedzi w procesie lutowania oraz rzadko spotykany CAF.
Ciekawym tematem jaki wyłania się z analiz, szczególnie wtedy, kiedy badam produkty, które odpadły w testach to problem, powiedzmy ‘kumulacji rozrzutów parametrów’. To sytuacja, w której zmienność parametrów komponentów w danym obwodzie nakłada się na siebie w taki sposób, że pewien niewielki procent produktów nie przechodzi testów funkcjonalnych. Elektronika nie realizuje swojej funkcji poprawnie, mimo że wszystkie komponenty odpowiedzialne są zgodne ze specyfikacją.
Opisywany problem może ujawnić się po dłuższym czasie produkcji. Typowa sytuacja to przypadek, kiedy po kilku miesiącach czy nawet latach stabilnej produkcji trafia do montażu partia komponentów o nieco przesuniętych parametrach, ale nadal mieszczących się w specyfikacji. Wiele osób wtedy zakłada, że jeżeli coś produkowaliśmy przez dłuższy czas i nagle pojawia się problem, to na pewno spowodowały to wadliwe komponenty. Często okazuje się, że nie do końca tak jest, a problem wynika z braku uwzględnienia pełnego zakresu zmienności parametrów użytych części.
Opisuje Pan bardzo ciekawy przypadek niekorzystnego nakładania się tolerancji. Jakie istnieją rozwiązania takich złożonych sytuacji?
Optymalne działanie to analiza i korekta projektu lub jeżeli to problem samego testu to poprawa limitów w teście. Decyzję należy podejmować na podstawie zebranych twardych danych tj. wyników pomiarów, analizy histogramów poszczególnych pomiarów, analizy schematów elektrycznych i kart katalogowych komponentów.
Mniej optymalne podejście, to wymiana elementów na inną partię jeżeli koszty korekty projektu są zbyt wysokie. To działanie potocznie określam jako ‘wymianę komponentu z dobrego na dobry’. W tej sytuacji producent ma przynajmniej świadomość, dlaczego wymienia dany komponent. Wiedza ta pozwala nie reklamować niepotrzebnie części do dostawcy, bo one są technicznie dobre. Pozostaje ustalić z właścicielem projektu, jak rozliczyć koszty dodatkowej wymiany komponentów.
W ramach analizy tego problemu ważne jest zrozumienie kilku zagadnień związanych z narzędziami jakości, czy też ze statystyką. Takie kwestie jak średnia, odchylenie standardowe, histogram, zdolność procesu Cp, Cpk, Pp, Ppk, analiza Monte Carlo powinny być zrozumiane i stosowane. Moim zdaniem w projektowaniu elektroniki, ta świadomość zmienności komponentów nie zawsze jest brana pod uwagę. Typowy scenariusz w projektowaniu to: prototyp działa - jest OK, partia próbna 10 sztuk nam działa - jest OK, więc uruchamiamy produkcję seryjną. Później okazuje się, że np. 2% wyrobów nie funkcjonuje poprawnie właśnie z powodu zmienności komponentów. Finalnie pojawiają się koszty, które ktoś musi ponieść.
Ostatni temat, który Pan opisuje to już zagadnienie z obszaru D-FMEA. Gdyby miał Pan podać popularną definicję idei D-FMEA, to jak by ona brzmiała?
W dużym uproszczeniu można to ująć następująco: projektując jakiekolwiek urządzenie, każdy konstruktor w pewien sposób wykonuje tego typu analizę ‘w swojej głowie’, czyli próbuje przewidzieć potencjalne problemy z wyrobem i jak im zapobiec. Projektant rozmyśla, jak produkt powinien funkcjonować pomimo różnych zewnętrznych zakłóceń i w jaki sposób dobrać komponenty. To jest taka swoista analiza ryzyka. Najczęściej przebiega na podstawie dotychczasowych doświadczeń, kopiowania podobnych rozwiązań z poprzednich projektów, analizy kart katalogowych itp. Problemem jest to, że taka analiza jest nie jest systematyczna, zawsze coś nam umknie, coś zrobimy nie po kolei. To sprawia, że mimo nawet dużego doświadczenia, zdarzają się błędy w projektach.
W latach 50-tych XX wieku Amerykanie stworzyli procedurę o nazwie MIL-P-1629. To był zalążek metody D-FMEA, która najpierw stała się standardem w branży militarnej, a niedługo później także w branży lotniczej, energetyce jądrowej oraz w motoryzacji. Obecnie w przemyśle spotykamy kilka różnych standardów FMEA. D-FMEA to metodyka postępowania, gdzie w pewien poukładany, systematyczny sposób, staramy się znaleźć jak najwięcej potencjalnych błędów w funkcjonowaniu danego obwodu. Następnie oceniamy, co może stać się z produktem i jego użytkownikiem, jeżeli dany błąd wystąpi. Następnie sprawdzamy, co może być przyczyną. Określamy jak obecnie redukujemy szansę wystąpienia przyczyny oraz czy zaplanowane testy i walidacje prototypu są w stanie wykryć problem. Podsumowując: D-FMEA to metodyka, w której identyfikujemy jak najwięcej możliwych błędów projektowych, określamy skutki oraz przyczyny błędów i finalnie oceniamy ryzyko. Na tej podstawie podejmujemy działania redukujące to ryzyko, czyli doskonalimy projekt.
Czy Pana doświadczenie w prowadzeniu analiz D-FMEA wskazuje, że istnieje jakaś kwestia, o której projektanci często zapominają?
Moje obserwacje wskazują na to, że częstym błędem projektowym jest za mały ‘design margin’, czyli na przykład dobór komponentów, w których margines bezpieczeństwa, ‘zapas w projekcie’ jest po prostu niewystarczający. Jest to oczywiście związane z omawianymi wcześniej kwestiami zmienności komponentów i odporności na zjawiska zewnętrzne.
Kolejnym często spotykanym problemem jest niezrozumienie wymagań. Na samym początku projektu ustalamy, jakie wymagania powinien spełniać nasz produkt i właśnie na tym etapie dochodzi do wielu problemów, często kluczowych błędów jakie mogą nawet położyć cały projekt. Zazwyczaj wymagania w projekcie są rozumiane jako te, które wprost zdefiniował klient oraz oczywiście wymogi prawne z tym związane, a to jednak nie jest wszystko. Może się okazać, że wyrób ma pracować w warunkach, których klient nam nie podał wprost, nie doprecyzował takich niuansów jak: zmiany oświetlenia, insekty, różne stresy mechaniczne, nietypowe postępowanie użytkowników itp. Jeżeli nie ustalimy dobrze wymagań, to później w trakcie walidacji wyrobu lub w trakcie jego funkcjonowania okazuje się, że są jeszcze narażenia, których nie przewidzieliśmy. Wtedy mamy problem z projektem oraz związane z tym zazwyczaj duże koszty.
Ryzyko niedoszacowania wymagań lub stosowania szeregu niepotrzebnych wymagań jest znaczące w projektach, gdzie wchodzimy w nowy temat, w nową aplikację i brakuje nam doświadczenia. Jeżeli realizujemy projekt dla znanej nam branży i opieramy się na sprawdzonych ścieżkach, ryzyko jest oczywiście mniejsze. Rolą D-FMEA jest właśnie wsparcie konstruktorów w przeglądnięciu projektu pod kątem wymagań oraz identyfikacja słabych punktów w projekcie, które następnie możemy poprawić.
D-FMEA jest czasami źle stosowane. Jeżeli wykonujemy D-FMEA na końcu, to jest to błąd. W takim przypadku D-FMEA to w zasadzie tylko papierek, który służy do zatwierdzenia projektu, ale w istocie nic nie daje. D-FMEA powinno się rozpoczynać na samym początku procesu, kiedy ustalamy schemat blokowy urządzenia, kiedy jeszcze dużo możemy zmienić w koncepcji produktu. To narzędzie powinno wspierać konstruktorów w trakcie całego procesu projektowego i finalnie powinno być też swoistą bazą wiedzy dla zespołu.
W pracy konsultanta często funkcjonuje pojęcie świeżego spojrzenia na problem. Czy bywa tak również w przypadku D-FMEA?
Tak. Dobrą praktyką w D-FMEA jest zaproszenie do teamu kogoś nowego, np. pracownika z obszaru testów, produkcji lub nowego konstruktora. Kogoś kto ma inne spojrzenie na dany temat, co może pomóc w identyfikacji nowych rodzajów błędów lub ich przyczyn. Chciałbym także dodać, że praca grupowa jest ważnym elementem dobrej analizy D-FMEA. Do najlepszej synergii dochodzi właśnie w takim zróżnicowanym, kilkuosobowym zespole. Burza mózgów w takim przypadku pomaga znaleźć więcej potencjalnych problemów, niż gdyby każdy z nas wykonywał analizę oddzielnie. Podsumowując, dobra analiza D-FMEA opiera się o odpowiednio dobrany zespół i będzie realizowana od etapu koncepcji aż do zakończenia procesu projektowego. W takim podejściu D-FMEA realnie wspomaga projektowanie, redukuje ryzyko błędów i pomaga zapewnić wysoką jakość oraz niezawodność produktu.
Zapraszamy na nasze nowe wydarzenie, Hardware Forum 2026, 14-15 maja 2026. Zapisz się już dziś i skorzystaj z oferty early bird:
