Jak działają "cyfrówki"

Strona głównaJak działają "cyfrówki"
21.07.2009 14:00
Jak działają "cyfrówki"

Warto wiedzieć jak obsługiwać aparat, ale też jak jest zbudowany. Postaramy się odpowiedzieć na pytania: czym cyfrówka różni się od tradycyjnego aparatu fotograficznego? Z czego składa się krzemowy odpowiednik światłoczułego filmu? Jak przebiega proces powstawania elektronicznego obrazu?

Z trzech do dwóch wymiarów

Można zaryzykować twierdzenie, że zdjęcie z pikseli powstaje podobnie jak jego tradycyjny odpowiednik. By zrozumieć zasadę działania aparatu cyfrowego, należy rozróżnić dwa etapy powstawania obrazu: naświetlanie, czyli przenoszenie wizerunku trójwymiarowej rzeczywistości na płaszczyznę, oraz rejestrację, czyli utrwalanie dwuwymiarowego wizerunku. Pierwszy etap w tradycyjnym aparacie analogowym i cyfrówce jest niemal identyczny. Różnica pojawia się na etapie rejestracji.

Aby zarejestrować wizerunek jakiegokolwiek motywu w postaci dwuwymiarowego obrazu na szkle, papierze czy ekranie monitora, musimy znaleźć sposób na przeniesienie trójwymiarowej bryły czy przestrzeni na płaszczyznę. Niezbędne jest do tego światło, które można określić jako nośnik wizerunku, oraz układ optyczny, dzięki któremu ów wizerunek spłaszczymy. Najprostszym układem optycznym jest zwykła wypukła soczewka. Za jej pomocą można przenieść przestrzenny motyw na płaszczyznę elementu światłoczułego. Wystarczy tylko umieścić ją w odpowiedniej odległości między motywem a płaszczyzną (określenie właściwego dystansu potocznie określamy jako ustawianie ostrości). Najprostszy układ pozwalający na realizację opisanego zadania prezentujemy na zdjęciu.

288771883934234771
Źródło zdjęć: © Zdjęcie przedstawia proste doświadczenie świetnie ilustrujące działanie najprostszego układu optycznego. Przed przeciwległą do okna ścianą umieściłem soczewkę. Silne światło wpadające do pokoju przez okno przeniosło wizerunek okna i znajdujących się za nim drzew oraz budynków na płaszczyznę ściany (fot. zoom)

Oczywiście, we współczesnych aparatach cyfrowych trudno jest znaleźć obiektyw, w którym umieszczono jedną, prostą soczewkę. Od optyki aparatu fotograficznego wymagamy nie tylko, by odwzorowywała wizerunek tego, co chcemy sfotografować, ale także by potrafiła go powiększyć (zbliżyć określony fragment fotografowanego motywu) czy objąć bardzo szeroki plan. Nowoczesny obiektyw składa się zatem z kilku czy kilkudziesięciu ruchomych względem siebie soczewek.

Wykorzystuje się w nich wspomniane soczewki skupiające i rozpraszające wiązki światła. Nie wszystkie wypukłości lub wklęsłości stosowanych w obiektywach soczewek stanowią wycinek sfery. W bardziej zaawansowanych konstrukcjach inżynierowie stosują tzw. soczewki asferyczne - trudniejsze w wykonaniu, przez co znacznie droższe od klasycznych sferycznych. Po co się je stosuje? Zostały one opracowane, by korygować wadę optyczną zwaną aberracją sferyczną, powodującą spadek ostrości obrazu. Ten defekt można też minimalizować, wykorzystując układ składający się z kilku zwykłych soczewek, ale zastosowanie jednej soczewki asferycznej upraszcza konstrukcję, a do tego zmniejsza wymiary i masę obiektywu.

Opisując elementy optyczne, warto krótko wspomnieć o dwóch układach: ustawiania ostrości (autofokus) i stabilizatorze obrazu, oraz o ważnym elemencie obiektywu - przysłonie.

Autofokus

Układ automatycznego ustawienia ostrości pozwala uzyskiwać właściwe położenie soczewki lub soczewek względem zarówno fotografowanego motywu, jak i światłoczułej płaszczyzny, aby uzyskać odwzorowanie o właściwej ostrości. Ale to tylko część pracy, jaką wykonuje. Znacznie bardziej skomplikowanym zadaniem jest obliczenie właściwego położenia szkła bądź szkieł obiektywu. Stosuje się w tym celu dwie metody, dzięki którym mierzony jest albo kontrast, albo przesunięcie fazowe pomiędzy detalami znajdującymi się w kadrze. Pierwsza metoda - zwana detekcją kontrastu - stosowana jest głównie w aparatach kompaktowych (ale też w dysponujących trybem Live View lustrzankach), druga - zwana detekcją fazy - występuje wyłącznie w lustrzankach. Gdyby chcieć ocenić, która z nich jest lepsza, należałoby wskazać na detekcję fazy ze względu na znacznie szybsze działanie. Niestety, metody tej nie da się zastosować w aparatach kompaktowych.

Stabilizator obrazu

Coraz częściej w aparatach cyfrowych lub wymiennych obiektywach do lustrzanek pojawia się niezwykle przydatny układ - mechaniczny stabilizator obrazu. Dwa rodzaje mechanicznej stabilizacji: optyki oraz matrycy, mają to samo zadanie: wykonać ruch kompensacyjny elementów aparatu (bądź obiektywu) niwelujący skutek wstrząsu całego urządzenia. Z tą różnicą, że aparaty czy obiektywy ze stabilizacją optyczną (np. Panasonic, Nikon czy Canon)
poruszają jedną z soczewek, a aparaty ze stabilizacją matrycy poruszają sensorem CCD lub CMOS (Sony, Olympus). Informacji o kierunku oraz sile wstrząsu dostarczają specjalne czujniki żyroskopowe. Oprogramowanie oblicza i zarządza wykonanie odpowiedniego ruchu kompensacyjnego. Na schemacie przedstawiamy zasadę działania optycznego stabilizatora obrazu w jednym z aparatów Panasonica.

288771883934627987
Źródło zdjęć: © Zasada działania stabilizatora obrazu (fot. zoom)

Przysłona

To stosunkowo prosty, ale bardzo ważny element układu optycznego. Służy do ograniczania ilości światła, jakie przedostaje się przez soczewki, poprzez przysłonięcie otworu obiektywu. Można by się zastanawiać, po co stosować element służący do ograniczenia sprawności - w tym przypadku "przepustowości" pewnego podzespołu, jakim jest obiektyw. Są ku temu trzy powody. Pierwszy to uzyskanie właściwej ekspozycji, czyli właściwego (nie za mocnego i niezbyt słabego) naświetlenia elementu światłoczułego. Gdy światła jest zbyt dużo, a mechanizm (tzw. migawka) dozujący czas padania światła na film lub matrycę osiągnął już kres swoich możliwości (minimalny czas otwarcia), jedyną metodą pozostaje zdławienie promieni za pomocą zawężenia otworu obiektywu. Dzięki temu zwiększy się głębia ostrości (czyli zakres odległości, w którym znajdujące się przedmioty są ostre) i poprawi się nieco odwzorowanie najmniejszych detali (niezależnie od wzrostu głębi ostrości poprawi się także rozdzielczość optyczna, czyli zdolność do
dokładnego odwzorowania najmniejszych szczegółów obrazu). Zmniejszanie otworu obiektywu poprzez zwiększanie powierzchni elementu przysłaniającego (przysłony) aż do maksymalnej wartości będzie powodować wzrost głębi ostrości. Inaczej jest ze wzrostem rozdzielczości optycznej - szczegółowość obrazu będzie wzrastała tylko do pewnej wartości przysłony (granicą są na ogół wartości między 8 a 11). Dalsze zmniejszanie przekroju obiektywu będzie powodowało spadek szczegółowości obrazu (pojawi się zjawisko załamywania się promieni świetlnych na brzegach przysłony - dyfrakcja).

Migawka

To ostatni ważny komponent aparatu fotograficznego wspólny dla cyfrówki i jej poprzednika. Ma do spełnienia dość proste zadanie: dozować ilość czasu, w którym światło padające na element światłoczuły dociera do filmu czy matrycy światła. Występują dwa rodzaje migawek: centralne, zintegrowane z obiektywem i stosowane głównie w kompaktach, oraz szczelinowe, stosowane w lustrzankach.

Rejestracja, czyli utrwalenie obrazu

Każdy aparat fotograficzny, zarówno cyfrowy, jak i tradycyjny, ma właściwie takie samo zadanie: za pomocą optyki, przysłony i migawki wpuścić do wnętrza aparatu pewną dawkę światła, która przenosi wizerunek fotografowanych motywów. Następnie powinna ona paść na materiał światłoczuły bądź na elektroniczny element zwany matrycą CCD lub CMOS. W tradycyjnym aparacie wykonywanie zdjęcia na tym etapie właściwie się kończy, ale w cyfrówce to dopiero część procesu. Obraz rzucony na matrycę musi zostać odczytany przez umieszczone na niej detektory. Znajdujące się w nich fotodiody zamieniają strumień fotonów w ładunek elektryczny, który następnie musi zostać poddany wzmocnieniu i przetworzeniu z postaci analogowej na cyfrową. Te czynności odbywają się (w zależności od rodzaju matryc) albo w samym sensorze, albo w oddzielnym układzie.

Najczęściej poza matrycą znajduje się przetwornik analogowo-cyfrowy (oznaczany "A/C" lub z ang. "A/D"). W nim następuje przeliczenie natężenia ładunku elektrycznego odczytanego przez każdy piksel matrycy na wartość liczbową (by można go było opisać cyfrowo). Wartość, jaką scharakteryzowany jest na tym etapie każdy piksel, mówi tylko o jasności obrazu w danym punkcie matrycy. Gdyby je poskładać, można uzyskać obraz monochromatyczny - czarno-biały. Następnym miejscem, do którego kierowane są informacje o odczytanym obrazie (już w postaci zer i jedynek), jest procesor obrazowy. Składa on poszczególne piksele oraz dokonuje niezbędnej interpolacji danych, by stworzyć obraz barwny. Z procesora obraz kierowany jest już w co najmniej dwa miejsca. Pierwsze to "peryferia", czyli ekran LCD (lub wyjście A/V czy HDMI, przez które zarejestrowany sygnał jest wyprowadzany na zewnątrz, np. na ekran telewizora). Drugim miejscem jest nośnik danych, w którym magazynowane są wykonane zdjęcia. W elektronicznym systemie nie może
zabraknąć jeszcze jednego elementu - bufora pamięci RAM, który zapewnia utrzymanie ciągłości pracy aparatu niezależnie od tego, czy poprzednia czynność (np. zapisanie zdjęcia na karcie) została już zakończona.

Krzemowy film

Upraszczając, można powiedzieć, że "cyfrowa" część aparatu fotograficznego przypomina zminiaturyzowany zestaw komputerowy wraz ze skanerem umieszczonym w miejscu tradycyjnego materiału światłoczułego. Matryca cyfrówki tym różni się od skanera, że obraz "łowiony" jest nie za pomocą ruchomej linijki z niewielką liczbą sensorów, ale rozmieszczonych na całej powierzchni fotodetektorów. Jest kilka rodzajów matryc. Do najpowszechniej stosowanych zalicza się detektor CCD, składający się z prostokątnych, umieszczonych obok siebie komórek. Każda komórka rejestruje natężenie padającego na nią światła, a informacje z nich zebrane pozwalają na utworzenie monochromatycznego obrazu o rozdzielczości zbliżonej do liczby znajdujących się na powierzchni matrycy detektorów. Aby zarejestrować obraz kolorowy, pokryto poszczególne komórki filtrem o barwie czerwonej (R), zielonej (G) lub niebieskiej (B). Na podstawie badań wysnuto wniosek, że w rejestracji typowych scen największą rolę powinny odgrywać detektory z filtrem
zielonym. Dlatego ten właśnie kolor dominuje na "szachownicy" matrycy - zielonych detektorów jest dwa razy więcej niż czerwonych i niebieskich. W 200. r. Sony opracowało udoskonalony model matrycy CCD, wzbogacony filtrem o barwie szmaragdowej, który umieszczono w miejscu nadwyżkowego zielonego. Powstał sensor o równomiernym rozmieszczeniu filtrów - RGBE (litera E pochodzi od słowa "emerald" - szmaragd), mogący poszerzyć zakres dobrze odwzorowywanych barw. Nowy rodzaj matrycy został zastosowany w najwyższym w tym czasie modelu aparatu kompaktowego Cyber-shot DSC-F828. Pomysł się jednak nie upowszechnił i nie powstał kolejny model cyfrówki wyposażonej w sensor z filtrami RGBE.

Składanie kolorów

Wyposażenie poszczególnych detektorów w filtry RGB (lub RGBE) nie zapewnia prawidłowej rejestracji barw fotografowanego obrazu. Dane z każdej fotokomórki wpływają bezpośrednio na jasność tworzonego później piksela obrazu. Jak już powiedzieliśmy, informacja o jasności z poszczególnych komórek pozwala na utworzenie wyłącznie obrazu czarno-białego. Zastosowanie filtru R, B, G czy E umożliwia pobranie tylko części informacji o barwie tworzonego piksela i, aby przybrał właściwą, trzeba "pożyczyć" informacje od sąsiadujących fotokomórek, wyposażonych w inny filtr. Dlatego podczas tworzenia barwy każdego piksela procesor obrazu wykonuje interpolację - dane o jego kolorze opierają się na pomiarach pochodzących z czterech sąsiadujących fotodetektorów.

Niektóre aparaty cyfrowe (głównie lustrzanki i lepsze kompakty) umożliwiają zapis danych o przechwyconym obrazie w surowej formie, w tzw. plikach RAW. Dostajemy informacje, które zostały zarejestrowane przez matrycę. Aby złożyć z nich obraz, musimy wprowadzić plik do komputera i użyć oprogramowania, które pozwoli nam je "wywołać". Zdjęcia w surowym formacie RAW umożliwiają wykonanie szeroko pojętej edycji - zawierają wszelkie dostrzeżone przez matrycę informacje.

Obraz można rozjaśnić bądź przyciemnić (ma znacznie szerszy zakres tonalny) czy ręcznie ustawić balans bieli, niezależnie od tego, przy jakim ustawieniu fotografowaliśmy. Natomiast automatyczna edycja i kompresja JPEG, którą wykonuje procesor aparatu, bezpowrotnie pozbawiają zdjęcie wielu danych.

Alternatywne pomysły na matryce

Inne, znacznie mniej rozpowszechnione przetworniki obrazu w cyfrówkach to podzespoły dwóch firm: Fujifilm, która opracowała matryce z oktagonalnymi fotokomórkami Super CCD, oraz Foveon, twórcy oryginalnej warstwowej technologii X3. Detektory Fujifilm dzięki swojemu kształtowi mogą być gęściej rozmieszczone na matrycy, co daje lepsze efekty podczas interpolowania kolorów. W jednej z matryc tego producenta, oznaczonej jako Super CCD SR, konstruktorzy podzielili pojedynczą komórkę na dwa fotodetektory: pierwszy odczytuje detale w cieniach, a drugi w najjaśniejszych partiach obrazu.

Firma Foveon opracowała element światłoczuły składający się nie z jednej, a z trzech warstw z fotokomórkami, umieszczonych jedna nad drugą. Na górze znajdują się detektory uczulone na światło niebieskie, pod nimi komórki z zielonym filtrem i na samym dole z czerwonym. Detektory z dwóch górnych warstw przepuszczają niepotrzebne im składowe światła, które trafia do położonych niżej komórek, odpowiedzialnych za odczytanie zieleni i czerwieni. Dzięki takiej budowie nie trzeba interpolować barw - każdy piksel ma pełną informację nie tylko o natężeniu światła, ale także o barwie. Niestety, produkowane dotąd matryce nie charakteryzują się dużą rozdzielczością (należy pamiętać, że sensor typu X3 składający się z dziesięciu milionów pikseli jest w stanie zarejestrować obraz o szczegółowości porównywalnej z tym, jaki zarejestruje klasyczna matryca 3 lub najwyżej 4 MP). Czujnik tego typu tworzy obraz o rozdzielczości tylko nieco ponad 3 MP (trzy fotokomórki są nałożone na siebie i tworzą tylko jeden piksel obrazu).
Ponadto X3 ma problem z odwzorowywaniem ciemnych obszarów kadru, zwłaszcza przy dużej czułości. Najsłabiej odwzorowuje wówczas barwy czerwone (do najgłębiej umieszczonej warstwy dociera najmniej światła). Sony uczula CMOS-a

Na początku roku na rynku pojawił się nowy rodzaj przetwornika, a właściwie udoskonalona wersja matrycy CMOS - Sony Exmor R. Czym różni się od wersji stosowanej do tej pory? Została zmodyfikowana tak, aby zminimalizować jedną z głównych wad matryc typu CMOS, czyli ograniczoną światłoczułość. Odwrócono w tym celu strukturę układu warstw przetwornika, przenosząc elementy niebiorące bezpośredniego udziału w naświetlaniu pod fotodiody, które dzięki temu mają lepszy dostęp do padającego na matrycę światła.

Dodatkowe warstwy matrycy. Na nowoczesnej matrycy światłoczułej znajdują się nie tylko barwne filtry, fotodiody i półprzewodniki odpowiedzialne za przekazywanie impulsów elektrycznych do innych podzespołów aparatu. Ważną rolę odgrywa także filtr dolnoprzepustowy oraz mikrosoczewki.

Filtr dolnoprzepustowy. W przypadku światłoczułej matrycy CCD lub CMOS jest to płytka z dwójłomnego (zdolnego do podwójnego załamywania światła) kryształu, umieszczona przed filtrami przetwornika. Służy do niewielkiego rozmycia obrazu padającego na przetwornik tak, aby zapobiec powstawaniu efektów tzw. aliasingu (nakładanie się widm sygnału cyfrowego okresowo zwielokrotnionych) powodujących tzw. morę, czyli zjawisko widoczne na zdjęciach w postaci prążków (zwłaszcza gdy fotografowane są bardzo drobne powtarzalne wzory, np. faktura tkaniny). Aliasing to proces, który zachodzi podczas digitalizacji sygnału analogowego o częstotliwości czy rozdzielczości większej od możliwości przetwornika. Urządzenie samo "dopowiada" sobie istnienie pewnych szczegółów, przez co na zdjęciach mogą pojawiać się prążki lub inne defekty. Skuteczną metodą pozbywania się tego problemu jest więc stosowanie płytki nieco rozmywającej obraz, powodującej spadek rozdzielczości. Filtr dolnoprzepustowy nieco pogarsza zatem szczegółowość
obrazu. Jeśli jest źle dobrany do rozdzielczości przetwornika (co niestety się zdarza), grozi ograniczeniem możliwości matrycy.

Mikrosoczewki. Na wierzchu nowego typu matryc, nad opisanym wyżej filtrem dolnoprzepustowym, znajdują się tzw. mikrosoczewki. Są to miniaturowe soczewki umieszczone nad każdym z pikseli przetwornika CCD lub CMOS. Ich zadaniem jest skupienie światła na każdym światłoczułym elemencie matrycy, by doprowadzić jak największą "porcję" fotonów. Czy bez mikrosoczewki fotony nie dotrą? Dotrą, ale matryca może nie być naświetlana równomiernie - do fotodiod umieszczonych w centralnej jej części dotrze wystarczająco dużo światła, podczas gdy przy brzegach będzie go zdecydowanie mniej. Ten problem wynika z dwóch powodów: z "nietelecentrycznej" konstrukcji większości obiektywów oraz z przestrzennej budowy pikseli matryc.

Obiektywy telecentryczne i nietelecentryczne różnią się od siebie sposobem kierowania promieni światła na płaszczyznę ekspozycji, czyli na światłoczuły film lub matrycę. Te pierwsze kierują wszystkie promienie pod kątem prostym (lub mu bliskim), drugie kierują światło pod różnymi kątami - od prostego w centrum kadru do coraz większego im dalej od środka. Tam, gdzie promienie padają prostopadle (jak Słońce w zenicie w okolicy równika), światła jest najwięcej i odwrotnie - gdzie kąt padania się zwiększa, światła dociera mniej (jak w okolicy biegunów). Dodatkową przeszkodę w naświetlaniu położonych przy brzegu kadru obszarów stanowi przestrzenność, a właściwie głębokość elektronicznego sensora (naświetlanie tradycyjnego filmu światłoczułego promieniami skierowanymi pod dużym kątem nie stanowi dużego problemu). Jak pisaliśmy, matryce składają się z wielu warstw, pod którymi na samym "dnie" ulokowane są absorbujące światło fotodiody. Promienie skierowane prostopadle do powierzchni matrycy dotrą do fotodiody bez
problemu. Jeśli będą padały z boku, do fotodiody dotrze jedynie ograniczona porcja fotonów. Konstruktorzy matryc rozwiązują ten problem, umieszczając nad każdym pikselem miniaturowy element optyczny, który łapie padającą pod kątem wiązkę światła i przekierowuje ją tak, by jak najwięcej dotarło go do umieszczonej na "dnie" fotodiody.

Przechowywanie złowionych obrazów

Do przechowywania zdjęć w aparatach cyfrowych służy teraz niemal wyłącznie pamięć flash. Równolegle rozwijanych jest kilka jej standardów - do najpopularniejszych należą: Secure Digital (niedawno weszła kolejna wersja tego standardu oznaczana jako SDHC, charakteryzująca się podwyższoną pojemnością), tracący już nieco popularność, ale nadal bardzo wydajny CompactFlash, MemoryStick oraz nieudany, bo wolny xD, który zastąpił karty Smart Media. Można spotkać też mutacje wyżej wymienionych standardów (najczęściej zminiaturyzowane wersje, takie jak Mini czy Micro SD oraz MemoryStick Duo). Na początku rozwoju konsumenckich aparatów cyfrowych eksperymentowano z różnymi rodzajami wymiennych nośników. W cyfrówkach z lat 90. pojawiły się dyskietki, później także nagrywarki rejestrujące zdjęcia na krążkach CD-RW. Obie metody nie okazały się jednak strzałem w dziesiątkę.

Łatwiej złowić niż utrwalić

Zasada "łowienia obrazu", czyli przenoszenia wizerunku fotografowanego motywu do wnętrza cyfrówki, jest stosunkowo prosta. Najlepiej ilustruje ją zamieszczone na początku artykułu zdjęcie przedstawiające lupę skupiającą "niosące obraz" promienie światła. To proste doświadczenie pokazuje, jak kawałek szkła potrafi spłaszczyć trójwymiarową rzeczywistość i wyświetlić ją na białej ścianie. Znacznie bardziej skomplikowane procesy zachodzą na kolejnym etapie powstawania zdjęcia - utrwalaniu przeniesionego wizerunku. Szczególnie utrwaleniu w postaci cyfrowej - elektronika aparatu cyfrowego jest niczym innym jak zminiaturyzowanym zestawem komputerowym, składającym się z jednostki centralnej, monitora i skanera. Złożoność procesów, jakie zachodzą, znacznie trudniej zilustrować prostym doświadczeniem. Mam nadzieję, że podjęta przeze mnie próba wyjaśnienia zasady działania tego skomplikowanego instrumentarium, jakim jest aparat cyfrowy, była zrozumiała i choć w niewielkim stopniu poszerzyła wiedzę na temat tego coraz
powszechniej wykorzystywanego urządzenia.

Udostępnij:
Wybrane dla Ciebie
Komentarze (39)