AXI CT – od obrazu do metrologii (część I)
Z rentgenem w elektronice jest trochę jak z fotografią w ciemnym pokoju: da się zrobić piękne zdjęcie, ale piękne zdjęcie nie zawsze znaczy „mierzalna prawda”. Wiele osób, które zaczynają przygodę z AXI, ma naturalne odruchy: „pokaż mi obraz, ja ocenię” - pisze Daniel Trzciński, inżynier procesu i praktyk produkcji elektroniki, dyrektor zarządzający w IMT Technologies & Solutions Sp. z o.o.
Od zdjęcia rentgenowskiego do tomografii CT
Co właściwie zmienia się w AXI, kiedy wchodzimy w 3D?
Z rentgenem w elektronice jest trochę jak z fotografią w ciemnym pokoju: da się zrobić piękne zdjęcie, ale piękne zdjęcie nie zawsze znaczy „mierzalna prawda”. Wiele osób, które zaczynają przygodę z AXI, ma naturalne odruchy: „pokaż mi obraz, ja ocenię”. To działa — do pewnego momentu. A potem wchodzi nowoczesna elektronika: gęste BGA, QFN, pola termiczne, złącza, które w 2D wyglądają podobnie, mimo że w środku są zupełnie inne. I wtedy zaczyna się pytanie: czy ja naprawdę widzę strukturę połączenia, czy tylko jego cień?
Klasyczny obraz rentgenowski jest w gruncie rzeczy projekcją. To znaczy, że promieniowanie przechodzi przez obiekt, a detektor „zbiera” efekt w postaci obrazu 2D. Brzmi dobrze, prawda? Problem w tym, że detektor nie wie, co było na jakiej wysokości. Każdy piksel to suma tego, co promieniowanie napotkało na swojej drodze. Innymi słowy: wszystko, co jest „wzdłuż wiązki”, nakłada się na siebie w jednym miejscu obrazu. To trochę jak próba oceny układu warstwowego tortu na podstawie zdjęcia z góry — widać, że jest tort, ale nie widać, jak układają się warstwy w środku.
W przypadku połączeń lutowanych oznacza to realne ograniczenia. Voidy (czyli pęcherze gazu w luty) mogą się maskować. Kształt lutu może wyglądać „w miarę ok” w 2D, choć w osi Z coś jest nie tak. A czasem bywa odwrotnie: obraz wygląda podejrzanie, ale po chwili okazuje się, że to tylko geometria projekcji, a połączenie jest dobre. I właśnie dlatego klasyczne AXI bywa dla wielu firm narzędziem trudnym do standaryzacji: dwie osoby mogą zobaczyć to samo i wyciągnąć różne wnioski.
Żeby obejść ograniczenia projekcji, pojawiły się techniki pseudo-3D, najczęściej tomosynteza. W praktyce polega to na wykonaniu kilku lub kilkunastu ujęć pod różnymi kątami, a potem złożeniu z tego serii „warstw”, czyli slice’ów. Daje to więcej informacji niż jedno zdjęcie 2D, bo można „zajrzeć” na określoną wysokość. Tyle że tomosynteza nadal nie jest pełnym 3D. Ona nie rekonstruuje całej objętości tak, jak robi to tomografia medyczna. Raczej przypomina sprytne „odfiltrowywanie” tego, co jest nie w tej warstwie, którą akurat chcesz oglądać. To bywa przydatne, ale nadal prowadzi do pracy na obrazach i do oceny wizualnej. Czyli nadal jesteśmy w świecie „interpretacji”, a nie „pomiaru”.
Pełne CT zmienia reguły gry. Zamiast jednego zdjęcia albo kilku zdjęć pod różnymi kątami, zbieramy serię projekcji i rekonstruujemy z nich wolumen — czyli trójwymiarową bryłę danych. W tej bryle podstawową jednostką nie jest piksel, tylko voxel. Różnica jest fundamentalna. Piksel mówi: „tu jest taki poziom absorpcji w 2D”. Voxel mówi: „w tym miejscu, na tej wysokości, w tej objętości, jest taka struktura”. To znaczy, że nie musisz zgadywać, co jest „pod spodem”, bo masz dane przestrzenne.
Oczywiście CT nie jest magią. CT jest wymagające: stabilność geometrii, powtarzalność ruchu, jakość projekcji, małe ognisko lampy, minimalizacja drgań — to wszystko ma znaczenie. CT nie wybacza „prawie dobrze” tak jak obraz 2D. Jeśli geometria pływa, rekonstrukcja potrafi to „zamienić” w artefakty. Ale kiedy system jest zaprojektowany i skalibrowany pod takie obrazowanie, nagroda jest ogromna: dostajesz dane, które można mierzyć, porównywać i używać w procesie.
I tu dochodzimy do kluczowej konsekwencji: CT jest fundamentem nie tylko lepszej detekcji, ale przede wszystkim metrologii. Jeśli masz voxele, możesz mówić o objętości lutu, o rozkładzie voidów w przestrzeni, o ciągłości struktury w osi Z. To przestaje być „ładny obraz”, a zaczyna być „pomiar połączenia jako bryły”.
W kolejnej części cyklu przejdziemy właśnie do tego: co się dzieje z wolumenem CT po rekonstrukcji i jak z tej bryły robi się decyzję, która nie zależy od tego, czy operator jest po kawie czy przed kawą.
Daniel Trzciński – inżynier procesu i praktyk produkcji elektroniki. Od lat zajmuje się sprzedażą, szkoleniami oraz wdrożeniami systemów inspekcyjnych i testowych, obejmujących SPI, AOI, AXI, a także testy FCT, ICT oraz testy wiązek kablowych – od prostych aplikacji po zaawansowane systemy inspekcji optycznej. W swojej pracy wspiera zakłady produkcyjne w optymalizacji kontroli jakości i procesów SMT. Obecnie pełni funkcję dyrektora zarządzającego w IMT Technologies & Solutions Sp. z o.o.
Zapraszamy na TEK.day Wrocław, 19 marca 2026. Zapisz się tutaj!
