Zastosowanie sztucznej inteligencji do analizowania Ziemi
Co roku SpaceNews wybiera osoby, programy i technologie, które miały największy wpływ na kierunek przemysłu kosmicznego w minionym roku. Rozpoczęto w 2017 roku, nasze coroczne święto uznaje nadzwyczajne osiągnięcia w branży, w której żadna ambicja nie wydaje się nieosiągalna. Tegoroczni laureaci 8. dorocznych nagród SpaceNews Icon Awards zostali ogłoszeni i uczczeni podczas ceremonii 2 grudnia, zorganizowanej w Centrum Bloomberg Uniwersytetu Johns Hopkins w Waszyngtonie, DC. Gratulacje dla wszystkich zwycięzców i finalistów.
Na średnich szerokościach geograficznych Ziemi, będących domem dla większości aktywności gospodarczej, chmury pokrywają dwie trzecie powierzchni w danym momencie. W związku z tym satelity obserwacyjne Ziemi skanujące powierzchnię w szerokich pasach lub kierujące kamery na konkretne miejsca często tworzą zdjęcia zasłonięte przez chmury.
Wcześniej w tym roku NASA Jet Propulsion Laboratory (JPL) pokazało sposób, jak rozwiązać ten problem. Eksperyment badawczy o nazwie Dynamic Targeting wykazał, że satelita mógłby patrzeć naprzód wzdłuż swojej orbity i analizować wyniki przed zbieraniem obrazów.
„Wierzymy, że w przyszłości każda pojedyncza misja kosmiczna będzie działać w ten sposób” — powiedział Steve Chien, główny badacz JPL ds. Dynamic Targeting, podczas wykładu w 2024 roku w Instytucie AI Doświadczalnej Northeastern University.
Dynamic Targeting obiecuje, że satelity będą bardziej elastyczne i wydajne — powiedzieli jego liderzy. Czujniki satelitarne połączone z algorytmami AI wytrenowanymi do wykrywania anomalii termicznych mogłyby zlecać kamery na tym samym statku kosmicznym lub na innych, aby zbliżyć ujęcie w przypadku potencjalnego pożaru lasu lub erupcji wulkanu. Podobnie dopasowane algorytmy mogłyby pomóc satelitom ujawnić głębokie burze konwekcyjne lodowe, które powodują intensywne opady, turbulencje i błyskawice.
„Szukamy konkretnych rzeczy, które nas interesują” — powiedział Chien w wywiadzie. „Nie robimy tylko zdjęć wszystkiego. To duża zmiana.”
Badacze zaczęli składać elementy składowe Dynamic Targeting ponad dekadę temu. Jednak doprowadziły do tego postępy w sztucznej inteligencji i przetwarzaniu na krawędzi w systemach kosmicznych, by to zadziałało.
Pokaz doszedł do skutku, gdy JPL nawiązał współpracę z brytyjskim startupem Open Cosmos i irlandzkim startupem Ubotica Technologies. W lipcu sensor hiperspektralny w CogniSat-6 firmy Open Cosmos zeskanował horyzont, zanim ładunek Ubotica uruchomił algorytm JPL, aby zidentyfikować chmury i ustalić, jak obrócić sensor, aby uzyskać zdjęcia bez chmur.
Czas był kluczowy, ponieważ satelita, na wysokości 500 kilometrów, przelatywał nad ziemią z prędkością 7,5 kilometra na sekundę. Aby precyzyjnie skierować kamerę, algorytm Dynamic Targeting uwzględniał także rotację Ziemi i jej krzywiznę.
„Musimy interpretować obrazy, wyodrębniać informacje, ustalać, jak zmienić kąty skierowania instrumentu, a następnie zebrać dane w czasie od 50 do 90 sekund” — powiedział Chien.
Dalszym utrudnieniem była pojedyncza kamera. Początkowa koncepcja JPL Dynamic Targeting zakładała satelitę z sensorem patrzącym naprzód i drugim sensorem skierowanym w dół. Ponieważ CogniSat-6 miał tylko jedną kamerę, najpierw patrzył naprzód na chmury, zanim obrócił się, by skierować kamerę w dół — w lewo lub w prawo.
„To prawdziwa autonomia satelity” — powiedział Aubrey Dunne, współzałożyciel Ubotica i dyrektor ds. technologii. „To satelita zbierający dane, podejmujący decyzję samodzielnie, bez człowieka w pętli, i także realizujący tę decyzję.”
Ten artykuł po raz pierwszy ukazał się w grudniowym numerze SpaceNews Magazine z 2025 roku.
Vielen Dank, dass Sie den Artikel gelesen haben! Beobachten Sie uns unter Google Nachrichten.