Symulatory chaosu

Symulatory chaosu21.03.2016 09:35
Źródło zdjęć: © chip.pl

Tianhe-2, Titan, Sequoia, K computer - cztery najszybsze superkomputery świata, potężna moc obliczeniowa i równie potężne koszty budowy, w przypadku lidera sięgające niemal 400 milionów dolarów. Do czego są wykorzystywane te maszyny?

Mimo kolosalnych kosztów budowy superkomputerów wciąż powstają kolejne tego typu konstrukcje. Ich olbrzymi potencjał jest wart ich ceny, bo umożliwia symulowanie złożonych zjawisk, których zrozumienie nie tylko wpływa na rozwój technologiczny i cywilizacyjny, ale też często pozwala uchronić tysiące ludzkich istnień - dzięki przewidywaniu klęsk żywiołowych czy opracowywaniu nowych leków.

Prognozowanie pogody

Większość ludzi niezwiązanych bezpośrednio z meteorologią nie zdaje sobie sprawy, jak skomplikowanym procesem jest prognozowanie pogody. Ogrom danych przetwarzanych w celu możliwie dokładnego przewidzenia, jaka aura będzie w najbliższym czasie w konkretnym regionie, w żaden sposób nie przystaje do medialnego wizerunku "pogodynki" prezentującej nam kolorową mapkę ze słoneczkami i chmurkami. Pogoda to jedno ze zjawisk naturalnych, które jest doskonałym przykładem układu chaotycznego. O ile daje się on w pewnym stopniu modelować, co właśnie robimy, prognozując pogodę, o tyle nawet niewielka modyfikacja warunków początkowych może powodować zmiany rosnące wykładniczo w czasie - w efekcie wyniki pracy na modelu nadają się do kosza. Niemniej nawet tak złożony proces, jakim jest kształtowanie się pogody na świecie (w dowolnym jego obszarze), jest w znacznym stopniu zdeterminowany, a tym samym przewidywalny. Problemów nastręcza skala oraz liczba czynników, które trzeba uwzględnić, prognozując np. powstanie w
konkretnym miejscu tornada, którego skutki mogą w ogromnym stopniu wpływać na gospodarkę danego regionu. Z kartką i długopisem nie damy rady tego zrobić - potrzebujemy komputerów. Superkomputerów.

Źródło zdjęć: © Tak wygląda meteorogram wygenerowany przez komputery działające w warszawskim ośrodku ICM. Prezentuje on znacznie dokładniejsze informacje na temat pogody niż piktogramy na mapkach prezentowane przez stacje telewizyjne, choć na pierwszy rzut oka może przerazić laika. (fot. chip.pl)
Źródło zdjęć: © Tak wygląda meteorogram wygenerowany przez komputery działające w warszawskim ośrodku ICM. Prezentuje on znacznie dokładniejsze informacje na temat pogody niż piktogramy na mapkach prezentowane przez stacje telewizyjne, choć na pierwszy rzut oka może przerazić laika. (fot. chip.pl)

W Polsce matematycznym modelowaniem pogody zajmuje się warszawskie Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego. Ta badawcza jednostka nazywana ICM opracowuje numeryczną prognozę pogody dla całej Europy Środkowej: od północnych rubieży Półwyspu Skandynawskiego po północne Włochy i południowe szczyty Karpat znajdujące się na terenie południowo-zachodniej Rumunii. Wyniki obliczeń przepowiadającego pogodę klastra obliczeniowego warszawskiego ośrodka są publikowane na stronie www.meteo.pl. Każdy może wybrać jeden spośród trzech dostępnych modeli prognostycznych, z których dwa - UM oraz COAMPS - dotyczą prognozy pogody, a trzeci, czyli WAM, prognozuje falowanie Bałtyku. Niestety ICM nie udzieli odpowiedzi na pytanie, jaka będzie pogoda np. 2. września (bo akurat mamy ślub i zastanawiamy się, czy zamówić kabriolet - ponoć i takie maile do ośrodka ICM były wysyłane).

Dokładniejszy okazuje się model UM: przewiduje pogodę dla sektorów, z których każdy jest kwadratem o boku 4 km. Długość prognozy to ok. 60-7. godzin. Z jednej strony to niby niewiele, całego urlopu na podstawie tej prognozy nie zaplanujemy. Z drugiej wyniki numerycznej prognozy pogody są wykorzystywane np. przez kapitanów promów, którzy docenili trafność prognoz dotyczących zachowania się Bałtyku. Co ciekawe, warszawski ICM jest również źródłem danych dla wielu działających w Polsce elektrowni wiatrowych, które na podstawie sugerowanych przez komputery ICM kierunków wiatrów ustawiają swoje wiatraki. Choć w Polsce na szczęście nie borykamy się z pogodowymi kataklizmami, jak tajfuny, cyklony tropikalne czy huragany, to doskonale wiemy, jak duże straty materialne niejednokrotnie powodują znane w naszym klimacie burze. Wiedza o nadchodzącej nawałnicy pozwala uniknąć przynajmniej części strat. W przypadku państw zagrożonych klęskami żywiołowymi o większym zasięgu i sile działania możliwość prognozowania pogody na
większym obszarze i w dłuższej perspektywie to nie kaprys, lecz konieczność pozwalająca oszczędzić, bądź zabezpieczyć dobra materialne, a także ocalić życie ludzi. Oczywiście nie oznacza to, że superkomputery zastąpią meteorologów, wręcz przeciwnie - wiedza synoptyka jest niezbędna do tego, by odpowiednio skonstruować model prognostyczny, a następnie zinterpretować jego wyniki.

Badania zmian klimatu

Źródło zdjęć: © Tianhe 2 - chiński superkomputer (fot. chip.pl)
Źródło zdjęć: © Tianhe 2 - chiński superkomputer (fot. chip.pl)

Superkomputery wykorzystuje się nie tylko do krótkoterminowych prognoz pogody na konkretnych obszarach, ale również do przewidywania długofalowych trendów klimatycznych. Używa się do tego celu całego arsenału numerycznych modeli zmian klimatycznych. Szczególnym ich przykładem jest tzw. globalny model klimatu (GCM - Global Climate Model). Opiera się on na podstawowych prawach fizyki, chemii oraz wiedzy naukowej na temat przepływu cieczy (nie tylko wody, ale i powietrza) oraz układów dynamicznych. W połączeniu z olbrzymią liczbą danych wejściowych dotyczących aktualnych i dawnych pomiarów klimatu (m.in. temperatury, prędkości i kierunku wiatru, procesy radiacyjne w atmosferze, rozkład temperatury w oceanach, wpływ gazów cieplarnianych, pyłów, aerozoli itd.) oznacza to, że mamy do czynienia z olbrzymią złożonością obliczeniową. Aparatem matematycznym w modelu GCM są równania Naviera-Stokesa. W najprostszych przypadkach ich rozwiązania da się uzyskać ręcznie (np. poprzez całkowanie i rachunek różniczkowy), ale
klimat to nie jest prosty przypadek.

W takiej sytuacji w grę wchodzą jedynie metody numeryczne, dlatego do akcji muszą wkroczyć superkomputery. Mówiąc wprost, bez nich nie bylibyśmy w stanie nawet podjąć próby przewidzenia zmian klimatycznych. Znaczenie takich badań jest bezdyskusyjne. Oczywiście można protestować przeciwko np. prognozom sugerującym śmierć głodową milionów ludzi z powodu ocieplania się klimatu i wynikających z tego zmian w znacznej części globu, ale protesty nie na wiele się zdadzą - natura nie negocjuje. Dzięki wiedzy uzyskanej przy pomocy superkomputerów znacznie wcześniej zdołamy przygotować się na negatywne zmiany. Modelowanie reakcji chemicznych

Źródło zdjęć: © Symulacja próby zmiany trajektorii asteroidy za pomocą eksplozji nuklearnej. Moc obliczeniowa superkomputerów pozwala dokładnie przewidzieć, jak będzie wyglądało rozchodzenie się fali uderzeniowej wewnątrz porowatej struktury kosmicznej skały i jaki to będzie miało wpływ na jej dalszy ruch. W takich przypadkach rzeczywiste eksperymenty są po prostu niemożliwe. (fot. chip.pl)
Źródło zdjęć: © Symulacja próby zmiany trajektorii asteroidy za pomocą eksplozji nuklearnej. Moc obliczeniowa superkomputerów pozwala dokładnie przewidzieć, jak będzie wyglądało rozchodzenie się fali uderzeniowej wewnątrz porowatej struktury kosmicznej skały i jaki to będzie miało wpływ na jej dalszy ruch. W takich przypadkach rzeczywiste eksperymenty są po prostu niemożliwe. (fot. chip.pl)

Rok 2013. trzech naukowców - Martin Karplus, Michael Levitt oraz Arieh Warshel - otrzymuje z rąk przedstawicieli Królewskiej Szwedzkiej Akademii Nauk Nagrodę Nobla w dziedzinie chemii. Wynaleźli nowy pierwiastek? Odkryli nową substancję? Nie. Dokonali czegoś znacznie ważniejszego: opracowali działające modele złożonych procesów chemicznych. Innymi słowy, przenieśli klasyczny laboratoryjny świat chemii do uniwersum wirtualnego, w którym - dzięki mocy superkomputerów - badań i odkryć można dokonywać nieporównywalnie szybciej niż w pełnym ograniczeń świecie fizycznym. Badania trzech noblistów pozwoliły światu nauki zaoszczędzić miliardy dolarów na badania eksperymentalne, które zakończyłyby się fiaskiem. Dzięki możliwości symulacji złożonych procesów chemicznych za pomocą superkomputerów dziś chemicy są już w stanie w znacznym stopniu przewidzieć, jak dana cząsteczka będzie się zachowywać, jeszcze przed rozpoczęciem jakichkolwiek rzeczywistych eksperymentów. To pozwala oszacować, czy w ogóle warto inwestować w
badania. Dzięki pracy wyróżnionych przez Szwedzką Akademię naukowców już dziś przemysł farmaceutyczny może tworzyć nowe leki, przewidując zachowanie cząsteczek istotnych dla biologicznych procesów życiowych.

Za to dzięki skalowalności rozwiązania - gdy tylko będziemy dysponować jeszcze większą mocą obliczeniową - możliwe będzie również symulowanie procesów życiowych na poziomie molekularnym z uwzględnieniem efektów kwantowych albo wręcz symulacja biochemii żywego organizmu. Jeżeli to zależy tylko od mocy obliczeniowej, dojdziemy i do tego - to jedynie kwestia czasu. Czyż nie byłoby lepiej, gdyby przeprowadzać np. eksperymenty genetyczne na wirtualnych konstruktach, nie narażając organizmów żywych na efekty błędnych założeń? Tego typu obliczenia są prowadzone również w Polsce. Dr inż. Jerzy Proficz z Centrum Informatycznego Trójmiejskiej Akademickiej Sieci Komputerowej wyjaśnia, że nowy superkomputer Politechniki Gdańskiej - Tryton - będzie służył m.in. do przeprowadzania wirtualnych doświadczeń znacznie taniej i szybciej niż w rzeczywistości. Symulowanie działania nowych leków czy analiza obrazów powstałych np. w trakcie różnego rodzaju badań endoskopowych - to tylko przykłady zastosowań nowego polskiego
superkomputera.

Eksplozje nuklearne

Źródło zdjęć: © Superkomputery w Los Alamos (fot. chip.pl)
Źródło zdjęć: © Superkomputery w Los Alamos (fot. chip.pl)

Nie licząc eksperymentów prowadzonych przez Koreę Północną, ostatni próbny naziemny wybuch nuklearny miał miejsce jeszcze w ubiegłym wieku. Co spowodowało, że zaprzestano prób z bronią nuklearną? Oczywiście możesz myśleć, że to naciski społeczeństw przeciwnych tej broni wpłynęły na decyzje władz mocarstw atomowych, ale jedną z głównych przyczyn zaprzestania rzeczywistych prób jądrowych są superkomputery. Po prostu przeprowadzanie eksplozji przestało się opłacać. Wbrew pozorom nie odbywają się one w celu sprawdzenia, czy broń działa. Działa, i to zabójczo dobrze, zbyt dobrze - można powiedzieć. Celem rzeczywistych prób jest testowanie zabezpieczeń broni nuklearnej oraz jej udoskonalanie. Jednak broń nuklearna nie dość, że jest droga (1 gram plutonu kosztuje ok. 500. dolarów, mowa oczywiście o kosztach wytworzenia, a nie o cenie rynkowej - taka nie istnieje), to jeszcze ma bardzo negatywny wpływ na środowisko.

Potężna moc obliczeniowa superkomputerów - zwłaszcza tych znajdujących się w posiadaniu atomowych mocarstw takich jak Stany Zjednoczone czy Chiny - pozwala obecnie na symulowanie efektów eksplozji nuklearnych z dokładnością do poziomu molekularnego. Dzięki wynikom takich symulacji nie ma potrzeby przeprowadzania rzeczywistych eksplozji, co już oznacza korzyści (zarządzanie arsenałem, zabezpieczenie transportu, brak skażenia środowiska itd.). Potencjał obliczeniowy superkomputerów umożliwia też coś więcej niż symulowanie samych efektów eksplozji, pozwala wykraczać poza ramy wyznaczane przez rzeczywistość i symulować zagrożenia, jakie dopiero mogą się pojawić. Przykładem mogą być prace badawcze prowadzone przez amerykańskie laboratorium Los Alamos - kolebkę broni atomowej. Obliczenia superkomputerów są tu wykorzystywane m.in. do symulacji prób zmiany trajektorii asteroidy znajdującej się na kursie kolizyjnym z naszą planetą.

Źródło zdjęć: © (fot. chip.pl)
Źródło zdjęć: © (fot. chip.pl)

Kolejne monstra obliczeniowe

Amerykanie już pracują nad budową kolejnego giganta obliczeniowego: 9 kwietnia 2015 amerykański podsekretarz stanu w Departamencie Energii, Lynn Orr, ogłosił podpisanie wartej 200 milionów dolarów umowy pomiędzy federalną administracją a dwoma dobrze znanymi na rynku superkomputerów korporacjami - Intelem oraz Cray. Do roku 2018 w jednej z najstarszych placówek badawczych Stanów Zjednoczonych, Argonne National Laboratory, ma powstać najsilniejszy superkomputer świata: Aurora. Jednostka ma dysponować mocą obliczeniową aż 180 PFLOPS (petaflopów). Potencjał tego komputera trudno sobie wyobrazić - jego moc stanowi niemal 2/3 mocy obliczeniowej oferowanej łącznie przez 500 najwydajniejszych komputerów świata funkcjonujących obecnie. Aurora ma być wykorzystywana do badań nad energią odnawialną, biopaliwami, rozprzestrzenianiem się chorób, ma umożliwić również budowę nowej generacji akumulatorów. Warto przy tym zauważyć, że choć kwota umowy jest znacząco niższa od kosztów budowy najszybszego dziś chińskiego
Tianhe-2 (390 milionów dolarów), to Departament Energii USA w umowie wynegocjował jeszcze jeden superkomputer. Maszyna o nazwie Theta ma być gotowa do działania już w przyszłym roku. Jej moc jest wyraźnie mniejsza od mocy Aurory - "tylko" 8,5 PFLOPS - co i tak pozwoli Thecie znaleźć się w pierwszej dziesiątce najszybszych superkomputerów świata. Obie maszyny budowane są na bazie układów Intel Xeon i Intel Xeon Phi. Mimo, że rząd USA odmówił firmie Intel zgody na sprzedaż Chinom kilkudziesięciu tysięcy procesorów Xeon, to i tak Intel nadal będzie miał co robić. Jak podaje BBC, "_ superkomputery służą Chinom do badań nad bronią nuklearną. Co oznacza, że chińskie instytucje działają wbrew interesom bezpieczeństwa czy polityki zagranicznej Stanów Zjednoczonych _". Dlatego Intel podpisał z rządem USA kontrakt na budowę dwóch superkomputerów Aurora oraz Theta. Ten ostatni będzie wyjątkowo oszczędnie zarządzał energią - ma pobierać 1,7 MW. Dla porównania dodajmy, że inny amerykański superkomputer - Mira -
dysponujący porównywalną mocą obliczeniową (8,6 PFLOPS) potrzebuje zasilania o mocy 3,9 MW.

Przyszłość jest obiecująca

W dalszej perspektywie będzie jeszcze ciekawiej - tempo wzrostu spodziewanych mocy obliczeniowych bynajmniej nie słabnie. Już dziś mówi się o zupełnie nowych technologiach, dzięki którym wydajność przyszłych komputerów ma sięgnąć "magicznej" granicy 1 EFLOPS (tryliona operacji na sekundę). Ciekawy pomysł forsuje brytyjska firma Optalysys, która pod koniec 2014 zapowiedziała opracowanie w ciągu kilku miesięcy prototypu komputera optycznego. Co prawda, jednostka prototypowa ma oferować moc "jedynie" 346 gigaflopów, czyli o kilka rzędów wielkości niższą od tej, którą dysponują najpotężniejsze działające obecnie klastry obliczeniowe, ale - jeżeli wierzyć założycielowi firmy doktorowi Nickowi New - dzięki technologii optycznej już w roku 2020 będzie możliwe zbudowanie komputera optycznego o wydajności aż 17,1 EFLOPS, zajmującego tyle miejsca na biurku co zwykły pecet. Brzmi rewelacyjnie, ale poczekajmy na działający prototyp.

Szanowna Użytkowniczko! Szanowny Użytkowniku!
×
Aby dalej móc dostarczać coraz lepsze materiały redakcyjne i udostępniać coraz lepsze usługi, potrzebujemy zgody na dopasowanie treści marketingowych do Twojego zachowania. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności.

Kliknij "PRZECHODZĘ DO SERWISU" lub na symbol "X" w górnym rogu tej planszy, jeżeli zgadzasz się na przetwarzanie przez Wirtualną Polskę i naszych Zaufanych Partnerów Twoich danych osobowych, zbieranych w ramach korzystania przez Ciebie z usług, portali i serwisów internetowych Wirtualnej Polski (w tym danych zapisywanych w plikach cookies) w celach marketingowych realizowanych na zlecenie naszych Zaufanych Partnerów. Jeśli nie zgadzasz się na przetwarzanie Twoich danych osobowych skorzystaj z ustawień w polityce prywatności. Zgoda jest dobrowolna i możesz ją w dowolnym momencie wycofać zmieniając ustawienia w polityce prywatności (w której znajdziesz odpowiedzi na wszystkie pytania związane z przetwarzaniem Twoich danych osobowych).

Od 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (określane jako "RODO"). W związku z tym chcielibyśmy poinformować o przetwarzaniu Twoich danych oraz zasadach, na jakich odbywa się to po dniu 25 maja 2018 roku.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będzie Wirtualna Polska Media Spółka Akcyjna z siedzibą w Warszawie, oraz pozostałe spółki z grupy Wirtualna Polska, jak również nasi Zaufani Partnerzy, z którymi stale współpracujemy. Szczegółowe informacje dotyczące administratorów znajdują się w polityce prywatności.

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług, portali i serwisów internetowych udostępnianych przez Wirtualną Polskę, w tym zapisywanych w plikach cookies, które są instalowane na naszych stronach przez Wirtualną Polskę oraz naszych Zaufanych Partnerów.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy je dostarczać coraz lepsze materiały redakcyjne, dopasować ich tematykę do Twoich zainteresowań, tworzyć portale i serwisy internetowe, z których będziesz korzystać z przyjemnością, zapewniać większe bezpieczeństwo usług, udoskonalać nasze usługi i maksymalnie dopasować je do Twoich zainteresowań, pokazywać reklamy dopasowane do Twoich potrzeb. Szczegółowe informacje dotyczące celów przetwarzania Twoich danych znajdują się w polityce prywatności.

Komu możemy przekazać dane?

Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa – oczywiście tylko, gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz prawo żądania dostępu, sprostowania, usunięcia lub ograniczenia przetwarzania danych. Możesz wycofać zgodę na przetwarzanie, zgłosić sprzeciw oraz skorzystać z innych praw wymienionych szczegółowo w polityce prywatności.

Jakie są podstawy prawne przetwarzania Twoich danych?

Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy). Podstawą prawną przetwarzania danych w celu pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych realizowanych przez Wirtualną Polskę na zlecenie Zaufanych Partnerów i bezpośrednio przez Zaufanych Partnerów będzie odbywać się na podstawie Twojej dobrowolnej zgody.