Google leci w kosmos. Takiej serwerowni jeszcze nie było
Google buduje centrum trenowania algorytmów AI w kosmosie. Cel? Efektywne wykorzystanie energii słonecznej.
Jednym z największych wyzwań stojących przed dostawcami usług AI jest astronomiczne i nieustannie rosnące zapotrzebowanie na moc obliczeniową, a tym samym na energię elektryczną. Szacuje się, że sztuczna inteligencja już teraz odpowiada nawet za 1-2 proc. światowego zużycia energii, a w ciągu kilku najbliższych lat pojedyncze firmy będą miały większe zapotrzebowanie energetyczne niż całe kraje.
Najwydajniejszym źródłem energii, do którego człowiek ma dostęp, jest Słońce, ale nie jesteśmy w stanie wykorzystać jej w pełni efektywnie. Przede wszystkim raptem połowa energii jest w ogóle w stanie przedrzeć się przez atmosferę, a wynik ten może być dodatkowo osłabiony przez zachmurzenia, zanieczyszczenia czy dużą wilgotność. Poza tym panele fotowoltaiczne postawione w jednej lokalizacji z oczywistych względów nie mogą pracować w nocy, co w skrajnych sytuacjach pozwala na przechwytywanie promieni słonecznych przez jedynie kilka godzin w ciągu doby.
Wszystkie te ograniczenia da się "łatwo" obejść. Wystarczy opuścić naszą planetę.
Projekt Suncatcher. Google buduje serwerownię AI w kosmosie
Celem projektu Suncatcher (ang. łapacz Słońca) jest umieszczenie na niskiej orbicie okołoziemskiej konstelacji satelitów wyposażonych w jednostki TPU, odpowiedzialne za wykonywanie obliczeń uczenia maszynowego. Te miałyby być nastawione na stałe światło słoneczne, zapewniające ciągłą pracę, bez konieczności gromadzenia energii w ciężkich i stratnych akumulatorach.
Google tłumaczy jednak, że przedsięwzięcie będzie ekstremalnie trudne w realizacji, a przed inżynierami postawiono sporo problemów do rozwiązania. Aby zapewnić wydajność porównywalną do naziemnych centrów danych, satelity musiałby komunikować się ze sobą bezprzewodowo z przepustowością liczoną w dziesiątkach terabitów na sekundę. Możliwość osiągnięcia takich transferów na razie potwierdzono jedynie teoretycznie, bo uzyskany przez Google’a rekord w testach laboratoryjnych to 1,6 Tb/s.
A to rodzi kolejny problem, bo prawa fizyki są nieubłagane. Osiągnięcie wymaganych prędkości przekłada się na konieczność zbudowania i kontrolowania rekordowo ciasnej konstelacji satelitów. Google precyzuje, że poszczególne jednostki musiałyby być oddalone o kilometr lub mniej, więc mowa o formacji "znacznie bardziej zwartej niż jakikolwiek obecny system".
Do tego dochodzi ekspozycja jednostek TPU na promieniowanie kosmiczne, choć Google twierdzi, że wyniki testów laboratoryjnych przeprowadzonych z wykorzystaniem akceleratorów cząstek są obiecujące.
No i względy ekonomiczne. Opłacalność całego przedsięwzięcia póki co opera się na prognozach, że koszty wystrzelenia i eksploatacji satelitów w najbliższych latach drastycznie spadną.
Aktualne plany zakładają wystrzelenie dwóch prototypowych satelitów w 2027 roku.