W jaki sposób widzi i nawiguje łazik Perseverance
18 lutego 2021 łazik NASA wylądował bezpiecznie na Marsie. Świat obserwował, choć nie do końca w czasie rzeczywistym, jak łazik wszedł w atmosferę planety, opuścił się i ostatecznie wylądował nie tam gdzie mógł, ale tam, gdzie chciał.
Proces wejścia, zniżania i lądowania - określany jako EDL - był całkowicie autonomiczny. Jest to spowodowane faktem, iż opóźnienie między wysłaniem przez łazik sygnału a odebraniem go przez kontrolę misji wynosiło około 11 minut. Wszystkie poprzednie misje stawiały czoła temu samemu wyzwaniu i tylko około 40% podróży na Marsa zakończyło się sukcesem. Już samo pomyślne lądowanie sprawia, że Perseverance (czyli Wytrwałość) można nazwać sukcesem, ale jeszcze bardziej zdumiewające jest to, że ten łazik był pierwszą misją, która aktywnie nawigowała podczas opadania. Osiągnięto to dzięki zastosowaniu nowego systemu zapoczątkowanego w misji Mars 2020: nawigacji względnej w terenie (Terrain-Relative Navigation).
Poprzednie misje wykorzystywały dane zebrane przed wejściem w atmosferę planety, aby na tej podstawie zdecydować, gdzie konkretnie wylądować. System ten miał on błąd oszacowania rzędu … 3 km, co oznaczało, że poprzednie łaziki musiały spędzić dni, a nawet tygodnie, podróżując z miejsca lądowania do obszaru interesującego z naukowego punktu widzenia. Oznaczało to również, że poprzednie strefy lądowania zostały wybrane nie tyle ze względu na ich szczególne walory naukowe, ale dlatego, że oferowały stosunkowo płynne lądowanie. Próba wylądowania łazikiem ‘z zawiązanymi oczami’ była po prostu zbyt trudna, a technologia pokładowa nie mogła tego zrekompensować za pomocą dostępnych czujników. Korzystanie z czujników obrazu, dostarczających danych w czasie rzeczywistym, pozwala przezwyciężyć ten problem.
Dzięki nawigacji względnej w terenie wszystko się zmienia. Oznacza to, że łazik może teraz celować w trudniejsze strefy lądowania, ponieważ ma większą kontrolę nad tym, gdzie faktycznie wyląduje. W ten sposób zespół był w stanie umieścić Perseverance w Kraterze Jezero. Oznacza to również, że przyszłe łaziki będą miały jeszcze więcej swobody i będą lądować tam, gdzie chcą, a nie tylko tam, gdzie mogą.
Rysunek 1. Obraz uzyskany podczas zejścia Perseverance na Marsa za pomocą jego Parachute Up-Look Camera A.
Źródło zdjęcia: © NASA / JPL-Caltech
Rysunek 2. Obraz uzyskany podczas zniżania przez kamerę Perseverance Rover Up-Look
Źródło zdjęcia: © NASA / JPL-Caltech
Łazik skierował się w stronę powierzchni, robiąc zdjęcia krajobrazu i porównując je z biblioteką obrazów przechowywanych na pokładzie (punkty orientacyjne na obrazach zostały zidentyfikowane i wykorzystane do orientacji i nawigacji). System EDL mógł następnie wykorzystać swoją znaną lokalizację do skonsultowania się z biblioteką mapowanych obszarów, aby nawigować do miejsca przeznaczenia. Mógł również wykorzystać informację o swojej lokalizacji do wprowadzenia zmian podczas zniżania, gdyby zdecydował, że nie jest tam, gdzie się spodziewał.
To ogromny postęp w technologii misji na Marsa, który umożliwiły kamery oparte na czujnikach obrazu, dostępnych jako komercyjne, gotowe komponenty. Było to częścią strategii NASA dotyczącej korzystania z technologii COTS.
Łazik i lądownik Perseverance ma łącznie 23 kamery (19 z nich jest zamontowanych na samym łaziku, a 16 z nich jest przeznaczonych do użytku przez łazik podczas poruszania się na powierzchni). Pozostałe siedem kamer, zarówno w łaziku, jak i w lądowniku, wspierało fazę EDL podróży. Z tych siedmiu kamer ON Semiconductor dostarczyło przetworniki obrazu dla sześciu z nich.
Nagrania z niektórych z tych kamer oglądano miliony razy. NASA dostarczyła materiał filmowy z fazy EDL misji. Trzy z kamer, oznaczone jako Parachute Uplook Cameras (PUC), były używane wyłącznie do obserwacji otwierania się spadochronu podczas opadania a dostarczone informacje i spostrzeżenia będą kształtować przyszłe misje. Kamery PUC działały z szybkością 75 kl./s przez około 35 sekund po otwarciu spadochronu, a następnie przełączały się na 30 kl./s przez pozostałą część opadania. Dwie pozostałe kamery, nazywane Rover Uplook Camera (RUC) i Rover Downlook Camera (RDC), dostarczyły podobnych obrazów i działały przy 30 fps przez cały okres EDL.
Czujniki zastosowane w PUC, RUC i RDC to model PYTHON1300 o rozdzielczości 1,3 megapiksela (½ w przetworniku obrazu CMOS z matrycą 1280 na 1024 pikseli). Wszystkie trzy kamery wykonały łącznie ponad 27.000 zdjęć podczas ‘siedmiu minut horroru’ jak kolokwialnie prasa nazwała lądowanie na Marsie.
Szósty czujnik obrazu ON Semiconductor, znajdujący się obecnie na Marsie, to PYTHON5000, czujnik obrazu o rozdzielczości 5,3 megapiksela z obszarem 1 cala i matrycą pikseli 2592 na 2048. Ten czujnik jest używany w Lander Vision System i jest nazywany LCAM. Kamera ta ma pole widzenia 90° na 90° i zapewnia dane wejściowe do pokładowego systemu lokalizacji mapy Terrain-Relative Navigation.
Nie byłoby prawdą stwierdzenie, że Perseverance nie mógłby wylądować bez opisanych zespołów kamer i czujników obrazu. Przeszłe, zakończone sukcesem misje pokazały, że byłoby to możliwe. Jednak można z pewnością stwierdzić, że system nawigacji względnej terenu nie mógłby działać bez kamer, a to z kolei umożliwiło NASA zbadanie zupełnie nowego obszaru Marsa. Ten obszar może dostarczyć dowodów na istnienie życia drobnoustrojów na Marsie, co interesuje chyba każdego człowieka na świecie.
Źródło: © ON Semiconductor
Przeczytaj case study Mars Perseverance Rover