Od tysięcy lat umiemy mierzyć jasność gwiazd. Jak i po co to robimy?

Gwiazdozbiór Oriona zawiera wiele jasnych gwiazd
Gwiazdozbiór Oriona zawiera wiele jasnych gwiazd
Źródło zdjęć: © APOD, NASA | Matthew Spinelli

09.10.2024 15:10

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Jeśli ktoś wskaże na niebo i zapyta "jak jasna jest jakaś gwiazda?", a naszą odpowiedzią będzie ogólnik typu "całkiem jasna" lub "jaśniejsza od innych", odpowiedź taka będzie może prawdziwa, ale niezbyt przydatna. W każdym razie zupełnie bezwartościowa z punktu widzenia wszelkich badań porównawczych. Z tego powodu astronomowie od Starożytności opracowują i stosują różne sformalizowane metody określania jasności gwiazd i innych obiektów niebieskich.

Prawdopodobnie pierwszą osobą, która zaczęła systematycznie określać różnice w jasnościach gwiazd i zarazem je katalogować, był grecki astronom Hipparchos z Nike, żyjący w II wieku p.n.e. (przy okazji zwolennik teorii geocentrycznej). Wprowadził tzw. wielkości gwiazdowe, czyli stosowaną do dziś metodę oceny obserwowanej jasności gwiazd. Swoją listę około tysiąca zaobserwowanych (bez teleskopu!) gwiazd podzielił na sześć zakresów jasności, nazywając najjaśniejsze z nich gwiazdami pierwszej wielkości, a najsłabsze (jeszcze) widoczne gołym okiem – szóstej wielkości. Nietrudno zauważyć, że była to skala odwrócona: im jaśniejsza dana gwiazda, tym niższa jest jej wielkość gwiazdowa. Ta własność skali jasności obowiązuje do dziś.

Starożytni

Choć prace Hipparchosa nie przetrwały, znamy je, bo odnosili się do nich późniejsi uczeni starożytni, w tym Ptolemeusz. Po około 200 latach Klaudiusz Ptolemeusz, egipski matematyk i autor słynnego Almagestu, poprawił nieco podział jasności gwiazd w zakresie sześciu poziomów opisanych przez Hipparchosa. W dużym uproszeniu – jego nowy system uwzględniał, że nawet w każdym z tych sześciu zakresów niektóre z gwiazd mogą być jaśniejsze lub ciemniejsze. System ten był używany praktycznie bez poprawek przez kolejne 1500 lat, a Ptolemeuszowi przypisuje się dziś upowszechnienie tej metody oceniania jasności ciał niebieskich.

Dalsza część artykułu pod materiałem wideo

Wynalazki i wyzwania

W XVII wieku okazało się, że i system Ptolemeusza wymaga zmian. Wiązało się to w dużej mierze z nowym wynalazkiem: teleskopem, a właściwie z jego udoskonaleniem przez Galileusza. Choć proste narzędzia do obserwacji odległych obiektów (w tym zbliżających się statków) były znane już wcześniej, to właśnie włoski uczony zaczął je intensywnie i w sposób naukowy wykorzystywać do spoglądania w niebo. Był też jednym z pierwszych popularyzatorów astronomii, który gromadził widzów i prowadził dla nich pokazy nieba. Dzięki zastosowaniu optyki w astronomii ludzie szybko zorientowali się, że mogą zobaczyć z jej pomocą znacznie więcej gwiazd niż wcześniej. Sam Galileusz zaczął modyfikować skale jasność Ptolemeusza, dodając do swej listy odkryć także niewidoczne gołym okiem obiekty siódmej wielkości gwiazdowej.

W późniejszych epokach budowano nowe, często większe teleskopu. Astronomowie zaczęli odkrywać dzięki nim chmary jeszcze słabiej świecących gwiazd, więc potrzebowali bardziej precyzyjnego sposobu porównywania ich jasności. W 1856 roku brytyjski astronom Norman R. Pogson zauważył, że istniejący już system można doprecyzować poprzez przyjęcie, że różnica w obserwowanej jasności gwiazd równa pięciu wielkościom gwiazdowym odpowiada stosunkowi ich natężenia światła wynoszącemu 1:100. Jednocześnie w przypadku gwiazd różniących się o jedną wielkość gwiazdową czynnik ten jest równy pierwiastkowi piątego stopnia ze 100, czyli liczbie równej w przybliżeniu 2,512. Liczba ta, nazwana później czynnikiem Pogsona, została ustanowiona jako matematyczny standard, który pozwolił zachować bez większych zmian oryginalny system katalogowania gwiazd Hiparchosa/Ptolemeusza.

Powszechnie dziś spotykaną w literaturze jednostką wielkości gwiazdowej jest magnitudo (oznaczenie m lub mag). Z czasem pojawił się pomysł wprowadzenia wielkości gwiazdowych równych i mniejszych od zera (ujemnych). Uzasadnieniem było zachowanie jednej z podstaw oryginalnego systemu, w którym graniczna jasność dla oka ludzkiego wynosi około 6 magnitudo. Przy takim założeniu, mając na uwadze ścisły wzór na jasność wyprowadzony przez Pogsona, w oczywisty sposób na niebie były co najmniej trzy gwiazdy (Syriusz – α Canis Majoris, Canopus – α Carinae i Rigil Kentaurus – α Centauri) znacznie jaśniejsze niż 1 mag, czyli pierwsza wielkość gwiazdowa. Idąc dalej tym tokiem rozumowania, jeszcze jaśniejsze są inne ciała niebieskie, w tym Wenus (ok. -4 mag), Księżyc w pełni (-12 mag) i Słońce (-26 mag).

Wraz z dalszym rozwojem nauki sytuacja się komplikowała. Po pierwsze, zdano sobie sprawę, że gwiazdy wcale nie muszą świecić zawsze z tą samą jasnością. Gwiazdy zmieniające swój blask były znane już w wieku XVI lub i wcześniej, ale zaczęto je regularnie badać w wieku XVIII i XIX. W pierwszej połowie wieku XX znano ich tysiące. Co ciekawe, Polaris (Gwiazda Polarna), która początkowo służyła Pogsonowi jako punkt odniesienia w jego poprawionej skali wielkości gwiazdowych, także okazała się ostatecznie gwiazdą zmienną w typie Cefeid. Tak czy inaczej, jasność obserwowana gwiazd mogła zmieniać się w czasie – czasem o bardzo mały ułamek skali. Współcześnie jednak astronomowie mogą mierzyć jasności gwiazd z dokładnością do tysięcznych części magnitudo. Szacuje się na przykład, że najsłabsze obserwowalne przez Teleskop Hubble’a obiekty mają jasność ponad +28 mag

Po drugie, gwiazdy nie świecą tylko w jednym zakresie, czy też na jednej długości fali światła. Dana gwiazda może być na przykład jaśniejsza w świetle żółtym, ale świecić znacznie słabiej w zakresie czerwieni. Czerwone olbrzymy świecą z kolei bardzo słabo w świetle niebieskim. Zatem z naukowego punktu widzenia niezbędne jest podanie metody pomiaru jej jasności, która jest związana z samym urządzeniem rejestrującym, szczególnie jeśli jasność tą chcemy dalej porównywać. Dlatego obecnie w powszechnym użyciu jest m.in. system UBV, w którym jasność ciał niebieskich mierzy się w trzech wyróżnionych zakresach: U (gdzie środek przypada na falę o długości 350 nm, czyli na ultrafiolet), B (435 nm – kolor niebieskiej) i V (555 nm, pośrodku zakresu widzialności ludzkiego oka, żółty). Jasność gwiazdy w zakresie V, jako najbardziej zbliżona do sposobu postrzegania przez nasze oczy, może być uważana za odpowiadającą klasycznym wielkościom gwiazdowym. Osobom ciekawym, jakiemu konkretnemu kolorowi odpowiada dana długość fali w nanometrach, polecamy tę prostą stronę.

Naukowcy opracowali też system, który uwzględnia całe promieniowanie emitowane przez gwiazdę, a nie tylko jej widzialne światło. Na przykład promieniowanie UV lub radiowe. Rejestrując taki wskaźnik, uzyskuje się magnitudo bolometryczne gwiazdy, czyli całkowitą ilość wysyłanej przez nią energii. Dla Słońca jasność bolometryczna wynosi 4,74.

O ile jaśniejsza?

Zdarza się, że chcemy określić, o ile jaśniejsza jest dana gwiazda, np. A, od gwiazdy B. Na przykład, znajdźmy różnicę jasności między Regulusem o jasności 1,4 mag, a Delta Aurigae o jasności 3,7 mag. Wzór na obliczenie tej różnicy jest prosty: to 2,512 podniesione do potęgi różnicy jasności między tymi dwiema gwiazdami. Należy tylko obliczyć wartość 2,512 podniesioną do potęgi (3,7 - 1,4). Okazuje się, że Regulus jest 8,3 razy jaśniejszy od gwiazdy Delta Aurigae.

Jasność absolutna

Wielkości gwiazdowe znane od Starożytności i omówione wyżej dotyczą tylko tzw. jasności pozornych. Jasność pozorna to jasność gwiazdy widzianej z Ziemi. Bardziej naukowym pomiarem jest wielkość absolutna. Astronomowie stworzyli tę skalę, aby móc porównywać ze sobą rzeczywiste jasności gwiazd, niezależnie od ich faktycznej odległości od Ziemi.

Wielkość absolutna gwiazdy mówi nam o tym, jak jasna byłaby ona, gdybyśmy widzieli ją z ustandaryzowanej odległości 10 parseków (czyli 32,6 lat świetlnych). Do jej wyznaczenia potrzebujemy znać nie tylko wielkość obserwowaną gwiazdy, ale i jej odległość od nas. Podsumowując, przy porównywaniu jasności różnych gwiazd absolutna wielkość gwiazdowa pozwala na wyeliminowanie czynnika związanego z miejscem obserwacji. I tak, podczas gdy obserwowana jasność Słońca to -26,7 mag, gdybyśmy mogli oddalić je na odległość 10 parseków od Ziemi, jego jasność byłaby dla nas równa już tylko 4,8 mag – czyli byłoby jeszcze widoczne gołym okiem. To właśnie wartość jasności absolutnej Słońca.

Bibliografia

  1. https://astronet.pl/slownik/jasnosc-absolutna/
  2. https://astronet.pl/autorskie/oa/fotometria-4-wielkosci-gwiazdowe-wzor-pogsona/
  3. https://www.national-geographic.pl/artykul/galileusz-odkrycia

Źródło: https://www.astronomy.com/observing/why-do-astronomers-measure-stars-in-magnitudes/

Twórz treści i zarabiaj na ich publikacji. Dołącz do WP Kreatora

Źródło artykułu:Elżbieta Kuligowska
wiadomościkosmosciekawostki
Komentarze (0)