Jesteśmy częścią konsorcjum tworzącego projekt prekursora polskiej konstelacji satelitarnej do obserwacji Ziemi.
Warunki, panujące w przestrzeni kosmicznej, w tym próżnia, bardzo niskie temperatury, radiacja i mocne promieniowanie UV niekorzystnie wpływają na sprzęt elektroniczny, optyczny i mechaniczny. W związku z tym, payload umieszczany w satelitach powinien być zaprojektowany i stworzony w taki sposób, aby możliwe było działanie takich urządzeń bez zakłóceń. Najlepszym sposobem na odpowiednie przygotowanie osprzętu jest nieustanne go testowanie w warunkach zbliżonych do kosmicznych. Istnieje na to kilka przepisów: przeprowadzenie złożonych symulacji komputerowych, uwzględniających wiele parametrów, przeprowadzenie testów w komorze próżniowej, albo przetestowanie sprzętu w stratosferze. W Scanway Space postawiliśmy na tą ostatnią opcję.
Celem takich misji jest sprawdzenie w warunkach zbliżonych do kosmicznych zachowania podzespołów optycznych, mechanicznych i elektronicznych, które docelowo planujemy umieścić na orbicie. Założeniem jest umieszczenie opracowanych i wykorzystywanych przez naszych inżynierów komponentów w gondoli balonu stratosferycznego, który docelowo osiąga wysokość 30 km w celu uzyskania warunków niskiego ciśnienia i niskiej temperatury.
Misja zazwyczaj składa się z kilku eksperymentów, na przykład: test powłok optycznych stosowanych w teleskopach, test komputera OBC w niskich temperaturach, test składników systemu autodiagnostyki misji satelitarnych.
Misja zaczyna się od przygotowania wszystkich elementów balona, zaplanowania eksperymentów, stworzenia odpowiedniego oprogramowania do diagnostyki testowanego sprzętu. Kolejnym krokiem jest start balonu: balon stratosferyczny jest napełniany wodorem (lub alternatywnie: helem). Następnie, do balonu zostaje podpięty payload zawierający planowane eksperymenty. Gdy wszystkie czynności zostaną wykonane poprawnie, balon zostaje wypuszczony w powietrze.
Po osiągnięciu przez balon zaprojektowanej wysokości (najczęściej 35 km), balon wybucha i zaczyna się opadanie. Komputer pokładowy w trakcie całej misji zbiera dane, na podstawie których jesteśmy w stanie przeanalizować przebieg misji i zachowanie się wszystkich badanych elementów payloadu.
Taki lot balonem stratosferycznym nie może się odbyć bez uzyskania odpowiednich zgód, których udziela żegluga powietrzna. Nasze misje są pilotowane przez Stowarzyszenie WroSpace.
Projektowanie urządzeń, które mają pracować w kosmosie, to szereg odpowiedzialnych i szeroko zakrojonych działań. Co jest ważne w mechanicznym aspekcie projektowania satelity? Projekt mechaniczny teleskopu musi spełnić masę wymagań. Od podstawowych, pozwalających satelicie przetrwać bez szwanku podróż w kosmos i dalsze etapy misji, aż po zaawansowane, doskonale dopracowane narzędzia, których zadaniem będzie zapewnienie bezpieczeństwa misji i jej bezproblemowego przebiegu.
W projektowaniu mechaniki teleskopu ScanSAT, duży nacisk położyliśmy na zidentyfikowanie oraz zrealizowanie wymagań bezpieczeństwa i konstrukcji. Podzieliliśmy je na funkcjonalne i wytrzymałościowe. Aspekty funkcjonalne – to te pozwalające zapewnić poprawną pracę układu obrazowania. Należą do nich m.in. struktura mechaniczna – która musi być tak zaprojektowana, aby odkształcenia termiczne układu optycznego nie wpływały na jakość obrazowania. Aspekty wytrzymałościowe są natomiast zasadami, które stosowane odpowiednio chronią satelitę przed skutkami obciążeń, przyspieszeń i drgań. Mieliśmy również na uwadze pozostałe elementy mechaniczne, niezwiązane z zabezpieczeniem lub wspomaganiem obrazowania, które również muszą pozytywnie przechodzić testy wytrzymałości oraz kompatybilność z platformą wynoszącą.
W efekcie opracowaliśmy atermalny układ optomechaniczny, który jest skonstruowany przy użyciu m.in: aluminium i kompozytów z włókna węglowego. Odporność na wahania temperatur jest tu bardzo istotną cechą ponieważ pozwala na minimalizacje wpływu zmiennej temperatury przy przechodzeniu pomiędzy oświetloną i zacienioną częścią orbity. Zastosowanie tego typu rozwiązania było możliwe do uzyskania wyłącznie dzięki nowoczesnym technikom wsparcia projektowania i analiz numerycznych.
Co by się działo, gdyby rzeczy w kosmosie psuły się tak często, jak nasza mikrofalówka, pralka lub robot na linii technologicznej w fabryce?
„Działoby się” nieciekawie i o tym najlepiej opowiedzieć na przykładzie danych. W 2019 roku w USA sprzedano około 13 mln mikrofalówek, wymagających wymiany średnio co 7-10 lat oraz 10 mln pralek wymienianych średnio co 10 lat. Dla porównania — w kosmosie: jeden ze światowych liderów branży Satellogic wysłał w ciągu całej historii tylko (albo aż) 21 sztuk satelitów, a Maxar - 4.
W przypadku awarii się urządzeń domowych tracimy trochę pieniędzy i sporo komfortu bytowego, który wróci do normy wraz z (szybkim i bezproblemowym) zakupem nowego sprzętu. W przypadku produktów kosmicznych tracimy ogromną ilość pieniędzy i danych, a oprócz tego – niedziałające obiekty kosmiczne pozostają w kosmosie (nie ma możliwości wymiany) i przekształcają się w nic innego jak śmieci kosmiczne, stanowiące poważne zagrożenie. Widząc wyraźną różnicę w poziomie straty, warto się zastanowić — jak zapobiegać wielkim, kosmicznym problemom?
Najbardziej skomplikowaną rzeczą dla kosmicznego sprzętu jest sam lot. Wysłanie czegokolwiek nawet na niską orbitę okołoziemską kojarzy się z latami przygotowań i olbrzymimi pieniędzmi — i tak w zasadzie jest. Drugą i nie mniej skomplikowaną rzeczą jest kosmos sam w sobie. Grawitacja, próżnia, temperatura, promieniowanie – warunki zdecydowanie różniące się od ziemskich. Dla przykładu: wszystkie urządzenia wysyłane w kosmos powinny być dostosowane do pracy w zakresie temperatur od -100 do 100 stopni Celsjusza.
Czy kosmos jest najbardziej wymagającym środowiskiem, dla którego człowiek konstruuje maszyny? Nie. Na Ziemi istnieją miejsca, gdzie warunki są jeszcze mniej przyjazne. Na przykład dno oceanu, gdzie zmagamy się z ciśnieniem wymagającym bardzo zaawansowanych rozwiązań inżynieryjnych. Dlatego to, co najważniejsze w projektach kosmicznych to nowe, otwarte spojrzenie. Na sam projekt, na wymagania, na testy oprzyrządowania, na software oraz nawet na sposób zarządzania projektem. Kosmos podważa każdą oczywistość i działanie „na pamięć”, niezależnie od etapu projektu, jest zazwyczaj szkodliwe.
Statystycznie najwięcej awarii pojawia się podczas pierwszego roku obecności sprzętu w kosmosie. Przyczyny są różne: elektronika, mechanika, soft. Około 17% przyczyn stanowią awarie określone jako „niezidentyfikowane”. Jako że branża kosmiczna nie jest miejscem, które pozwala na uczenie się na błędach, najważniejszą częścią jakiegokolwiek projektu kosmicznego są (a przynajmniej powinny być) wymagania i testy.
Wymagania (funkcjonalne, wydajnościowe czy projektowe) w dużej mierze są kształtowane warunkami, w których będzie pracować dane urządzenie. Kosmos sam w sobie narzuca nam ich sporo, a dodać należy jeszcze te, które zdefiniowane są przez charakter ładunku. Nietrudno więc wyobrazić sobie kilkudziesięciostronicową listę wymagań do satelity — i to jest m.in.: znak dobrze rozpoznanego środowiska i wyraźnie zdefiniowanych wymagań. Na szczęście, w sferze określania i weryfikowania wymagań możemy liczyć na wsparcie. O nasz projekt w branży kosmicznej zatroszczą się m.in.: zewnętrzni recenzenci, którzy dokonają regularnych przeglądów oraz uszczegółowiają wcześniej określone wymagania.
Spisanie wymagań nie jest jednak kluczem do ich spełnienia. Trzeba je stale weryfikować - w testach, kontrolach, próbach i inspekcjach. Taki „trening” nie tylko pozwala odnotować błędy i uczyć się wraz z postępem projektu — daje również poczucie uporządkowania, niweluje wiele obaw oraz pozwala kompleksowo zarządzać ryzykiem. Testy są niemal najważniejszą częścią tworzenia każdego projektu kosmicznego. Ile razy byśmy nie przetestowali danego elementu – zawsze będzie za mało. Ile scenariuszy byśmy nie rozpatrzyli – zawsze może się wydarzyć coś, czego nie byliśmy w stanie przewidzieć. Kosmos wciąż umie nas zaskoczyć, ale najważniejsze, aby zaskakiwał nas w tym, czego mimo starań nie udało się przewidzieć.
Działanie każdego urządzenia w przestrzeni kosmicznej, w tym satelitów do obserwacji Ziemi, wymaga przesyłania danych do stacji odbiorczych. W jaki sposób szybko wysłać gigabity informacji? Co, jeśli te dane są wrażliwe i zachodzi potrzeba zabezpieczenia całego procesu komunikacji? Te i inne problemy rozwiązuje telekomunikacja laserowa. W ramach prac badawczych podjęliśmy się zaprojektowania i stworzenie komunikacji laserowej, przekazującej dane szybko i na bardzo duże odległości, jednocześnie zapewniając ich bezpieczeństwo.
Tradycyjna komunikacja radiowa odbywa się poprzez odpowiednie modulowanie fali elektromagnetycznej, rozchodzącej się w każdym kierunku i zapewniającej ostatecznie pokrycie bardzo dużego obszaru Ziemi. Komunikacja laserowa działa podobnie do komunikacji światłowodowej — z punktu A do punktu B. Wpuszczone w światłowód z nadajnika fotony trafiają jedynie do docelowego punktu na końcu medium (światłowodu) — czyli do odbiornika. W przypadku aplikacji kosmicznych wiązka laserowa korzysta z atmosfery jako medium, ale odpowiednio przygotowany moduł do telekomunikacji laserowej jest w stanie przesłać wiązkę w określony, relatywnie niewielki punkt na Ziemi. Przesyłanie informacji w sposób konwencjonalny niesie za sobą szereg zagrożeń, np. ograniczenia częstotliwości, konieczność rozbudowania sieci stacji odbiorczych, szyfrowanie, mała przepustowość, nieustanna modernizacja celem zwiększenia mocy nadawania. Telekomunikacja laserowa rozwiązuje te problemy.
Przy zastosowaniu komunikacji laserowej nie ma konieczności regulowania prawnego procesu wymiany informacji dzięki faktowi, że promień lasera pada w określone miejsce na Ziemi. Umożliwia to bezpieczny sposób przesyłania informacji, w którym podsłuchanie informacji jest możliwe tylko wtedy, gdy nasłuchujący znajduje się fizycznie obok odbiornika. Dzięki bardzo dużej koncentracji energii również moc nadawcza jest znacznie mniejsza niż w konwencjonalnej telekomunikacji. Największą zaletą telekomunikacji laserowej jest jej ogromna przepustowość. Możliwe do osiągnięcia są prędkości rzędu gigabitów na sekundę – są to wartości o rząd większe od tych, używanych za pomocą konwencjonalnej telekomunikacji w paśmie X lub innych.
Światło jest przede wszystkim zjawiskiem fizycznym i ma dwoistą naturę. Z jednej strony jest strumieniem fotonów (najmniejszych nośników energii), które poruszają się w określonym kierunku, natomiast z drugiej strony jest falą. Z tego powodu naturę światła określa się jako dualizm korpuskularno-falowy, który daje światłu wyjątkowy wachlarz parametrów.
Ze światłem mamy do czynienia praktycznie w każdym aspekcie naszego życia. Światło naturalne i sztuczne towarzyszy nam przez cały czas. Promieniowanie laserowe, ultrafioletowe, mikrofalowe i rentgenowskie spotykane jest wszędzie. Najbardziej użytkowymi parametrami światła są natężenie światła, moc i luminancja.
Natomiast w przypadku naukowego spojrzenia na światło, najważniejszymi parametrami do dokonania klasyfikacji rodzajów światła jest długość emitowanej przez źródło fali [nm], częstotliwość [Hz] i irradiancja [W/m2], która jest strumieniem promieniowania przypadającym na jednostkę powierzchni.
Promieniowanie elektromagnetyczne ze względu na długość fali można podzielić na:
W obrębie promieniowania podczerwonego wyróżnia się 4 typy promieniowania: NIR (Near Infrared — biska podczerwień), SWIR (Short-Wave InfraRed — krótkofalowa podczerwień), MWIR (Mid-Wave InfraRed) i LWIR (Long-Wave InfraRed).
W jaki sposób mierzymy za pomocą światła w kosmosie? Przede wszystkim warto rozróżniać obserwacje kosmosu (gwiazd, planet, meteoroidów itp.) i obserwacje Ziemi. W przypadku obserwacji Ziemi (EO) mechanika pomiaru wygląda następująco:
Detektory jakiego typu promieniowania wykorzystujemy do pomiarów w kosmosie? Najczęściej są rejestrowane fale pasm widzialnego VIS i podczerwieni NIR i SWIR. Fotony tych rodzajów promieniowania odbijają się albo zostają pochłonięte przez obiekty na Ziemi, co umożliwia uzyskanie mocnego kontrastu niezbędnego do otrzymania wysokoroździelczych zobrazowań. VIS służy przede wszystkim do identyfikacji obiektu, jego kształtu i wymiarów. Natomiast promieniowanie podczerwone daje inne możliwości. Jedną z nich jest uzyskanie wskaźnika wegetacji roślinności NDVI, który jest wyliczany na podstawie NIR i VIS i pozwala na określenie terenu jako: terenu zabudowanego, odkrytą glebę, wodę, śnieg, teren z występującą roślinnością wraz z typem roślinności.
Stratosfera – warstwa atmosfery, charakteryzująca się:
Pzykładowy wynik monitoringu misji: https://bit.ly/3xdNwKA
Przykładowy film z przebiegu misji: https://bit.ly/3xoWZih
Telekomunikacja laserowa działa analogicznie do tej, w której używany jest światłowód – również w niej występuje nadajnik i odbiornik. Fotony niosące informacje nie podróżują w zamkniętej przestrzeni światłowodu, ale docierają do stacji odbiorczej przez atmosferę.
Dla przykładu: Satelity Sentinel osiągają prędkość transmicji danych maksymalnie ponad 500 MBit/s.
Ułatw sobie zadanie! Przygotuj się do etapu II: