Modernizacja, czy podkręcanie - a może jedno i drugie?

Modernizacja, czy podkręcanie - a może jedno i drugie?

Modernizacja, czy podkręcanie - a może jedno i drugie?
22.05.2007 13:30, aktualizacja: 22.05.2007 14:40

Postęp technologiczny to dziedzina, za którą już dawno przestałem nadążać. Szczególnie wyraźnie widać to na przykładzie komputerów osobistych. Galopujący postęp sprawia, iż często tracę orientację w gęstwinie najnowszych nowinek technicznych. Wiem oczywiście, że na rynku procesorów rządzi Conroe Intela, a na rynku kart graficznych ostatnie dziecko Nvidii, ale cóż z tego? Niestety, nie każdego stać na wszystkie nowości - dlatego też w poniższym tekście zgromadziliśmy garść porad, które powinny szczególnie zainteresować posiadaczy starszych "pecetów". Nie należy bowiem spisywać ich na straty - umiejętne połączenie podkręcania i modernizacji może sprawić, że leciwy komputer niejednego zaskoczy swoimi osiagami...

W branży wciąż wiele się dzieje. Wspomnieliśmy już o nowościach Intela czy Nvidii - ale to oczywiście nie wszystko. Zapowiadane są nowe procesory cztero i ośmiordzeniowe, ATI/AMD wkracza na rynek z rodziną procesorów graficznych Radeon HD 2000, która może sporo namieszać na rynku kart graficznych. Są zapaleńcy którzy już deklarują zakup tego sprzętu, jak tylko ukaże się w sklepach, a najchętniej wykradliby prototyp prosto z fabryki. Pytanie tylko, czy naprawdę jest nam potrzebny najnowszy i najsilniejszy sprzęt wyposażony w wiele gigabajtów RAM?

Najnowsze technologie mają jednak to do siebie, że kosztują - i to kosztują niemało. Co więcej, często pełnię ich możliwości zdołamy wykorzystać dopiero po paru miesiącach, gdy ukażą się odpowiednie, korzystające z nich, aplikacje. Pełne wykorzystanie mocy procesorów dwurdzeniowych to nadal często fikcja. Nie ma to jednak większego znaczenia, gdyż i tak najwydajniejszymi i relatywnie najtańszymi procesorami do gier są dwurdzeniowe Core2Duo ( nawet jeśli gry nie wykorzystują pełni mocy w nich drzemiących ). Można to porównać z boomem na 64-bitowe procesory, które, owszem, przyśpieszały nieco pracę, ale często do dziś pracują pod kontrolą 32-bitowego Windows XP.

Obraz
© Wizytówka czterordzeniowych procesorów Intela

Wielu użytkowników posiada jeszcze starszy sprzęt i wyraźnie czuje, że najlepszy czas ich komputerów dawno już przeminął. Głównym wyznacznikiem wydajności posiadanego sprzętu są najbardziej wymagające aplikacje, czyli mówiąc wprost gry. Jeśli nowe produkcje stają się niegrywalne, oznacza to, że nadeszła pora na wymianę sprzętu. Co mogą zrobić posiadacze takich maszyn, jeśli nie chcą być traktowani z góry przez posiadaczy platform opartych na Core2Duo, potężnych kartach graficznych na złączu PCI Express i ultraszybkich dysków SATA? Można rzecz jasna zacisnąć zęby oraz pasa i uzbierać na wymarzony sprzęt. Można też naszemu wysłużonemu "staruszkowi" przykręcić nieco śrubę, a zaręczam wam, że potrafi on jeszcze wyciąć niezłego hołubca. Ale uwaga: nawet jeśli zdecydujemy się na podkręcanie i tak w pewnych dziedzinach nie obejdzie się bez modernizacji, czyli po prostu kosztów. Należy
miarodajnie obliczyć, co jest bardziej opłacalne, aby nie okazało się, że koszty modyfikacji związanych z podkręcaniem przekroczyły wartość zakupu nowej części. Co jednak możemy podkręcić, a z czego zakupem nie powinniśmy zwlekać?Testy przeprowadzimy na...

Mógłbym opisać to zagadnienie ogólnie, ale wolę je opisać na konkretnym przykładzie. Aby nie być posądzonym o gołosłowność, wszystkie testy i zabiegi przeprowadziłem na mojej własnej, nieco już zakurzonej i przestarzałej platformie sprzętowej. A jest to:

Płyta główna: ASUS A8V-E SE ( socket 939, PCI-Express x16, DDR 3200, ATA i SATA ),
Procesor: AMD Athlon 64 3000+ ( 1,8 GHz ),
RAM: *1GB DDR 400 MHz 3200,
*
Karta graficzna:
ASUS X800 GTO ( 256MB RAM, 256 bit ).

Użytkownicy zwykle z największą niechęcią podchodzą do wymiany płyty głównej, bowiem wiąże się to z wybebeszaniem całej obudowy, często także wymianą procesora i zwykle bardziej opłacalne jest po prostu kupienie nowego komputera. Nowsza podstawka dla procesorów AMD oznaczona jest symbolem AM2, zaś socket 939 jest jej poprzedniczką. Mimo tego, dla tej podstawki mamy do wyboru szeroki wachlarz procesorów od jednordzeniowych Athlonów 64 przez modele 3000+ do 4000+, ekskluzywne jednordzeniowe Athlony FX, Opterony ( także dwu- i czterordzeniowe ) i sztandarowe dwurdzeniówki AMD, czyli X2. Jednak gdy porównałem ceny procesorów dwurdzeniowych dla obu podstawek, na mej twarzy zastygł sztuczny uśmiech. Okazało się bowiem, że dwurdzeniowe procesory dla 939 są niemal dwukrotnie droższe od ich odpowiedników na socket AM2. Ich cena jest porównywalna z ceną znacznie bardziej wydajnych układów Core2Duo. Na chwilę obecną o wiele bardziej opłacalne jest postawienie nowej platformy opartej na płycie z podstawką AM2, niż
inwestowanie w procesory dwurdzeniowe na 939. Wydatek wydał mi się niewspółmierny do korzyści i uznałem, że w moim sprzęcie drzemią jeszcze całkiem spore możliwości. Postanowiłem więc zobaczyć, co można wycisnąć ze swojego najsłabszego 64-bitowego Athlona...

Nieco teorii...

Temat overclockingu poruszany był nie raz, więc nie będę skupiał się na detalach, a jedynie dość pobieżnie opiszę to zagadnienie. Jak wiemy taktowanie procesora oblicza się za pomocą wzoru:

Mnożnik procesora * taktowanie szyny systemowej ( FSB ) = taktowanie procesora

Czyli w wypadku A64 3000+ będzie to:
9 * 200 = 1800 = 1,8 GHz

Najbezpieczniej procesor możemy podkręcać podwyższając jego mnożnik, gdyż w ten sposób oddziałujemy jedynie na niego, nie zmieniając parametrów reszty systemu. Nie ma jednak tak łatwo - w większości procesorów mnożnik jest zablokowany ( bądź też odblokowany jedynie w dół ).

Najpopularniejszym sposobem podkręcenia procesora jest podwyższenie taktowania FSB ( Front Side Bus ). W przypadku platformy K8 pojęcie to odeszło do lamusa, ustępując rozwiązaniu HT, ale by nie wprowadzać zbędnego zamieszania, trzymać się będę dawnej terminologii. Podwyższając taktowanie magistrali systemowej zwiększamy także taktowanie pamięci RAM i możemy też podwyższać taktowanie innych podzespołów komputera. Uwaga: w wypadku szczególnego pecha, bądź też braku umiejętności, może to nawet doprowadzić do ich zepsucia. W dzisiejszych platformach podkręcanie FSB odbywa się asynchronicznie w stosunku do innych komponentów ( chociaż niektóre płyty główne umożliwiają także podkręcanie "synchroniczne" - w cudzysłowiu, ponieważ w praktyce jest to po prostu zastosowanie innego dzielnika dla pamięci ).Podkręcanie procesora przez FSB jest związane z podkręcaniem pamięci RAM. Zależności pomiędzy taktowaniem magistrali systemowej, a pamięci określa nam dzielnik. Procesor Athlon 64 z szyną 200 MHz może współpracować z
pamięcią o częstotliwości 166 MHz. Między tymi komponentami ustawiony jest dzielnik 6:5, czyli na sześć cykli FSB, RAM wykonuje ich pięć. Zostawmy jednak manipulacje dzielnikiem w spokoju i zobaczmy jak to zrobić w najprostszy sposób. Przykładowo pamięci DDR 3200 standardowo pracują z wartością 400 MHz. Właściwe taktowanie pamięci wynosi 200 MHz ( tak jak FSB ), jednak jako, że jest to pamięć DDR ( Double Date Rate ), mnożymy tą wartość razy dwa ( w każdym cyklu procesora przesyłane są dwa pakiety danych ). Te same pamięci pracujące na szynie 222 MHz, zamieniają się w pamięci DDR 3600 pracujące z prędkością 444 MHz.

Procesor w takim układzie będzie pracował z prędkością 9 * 222 = 2000 = 2 GHz. Czy pamięci zechcą pracować z taką, czy wyższą częstotliwością - to zależy już od ich jakości. Aby wymóc na nich wyższe taktowanie możemy podnieść na nich napięcie za pomocą opcji w BIOS-ie. Warto zamontować na nich też radiatorki, gdyż podnoszenie napięcia zawsze wiąże się z większym wydzielaniem ciepła. Kosztują one grosze i zaopatrzone są w samoprzylepny klej termoprzewodzący, co czyni ich instalacje banalnie prostą.

... i praktyki

Co jednak, gdy pamięci odmawiają nam już współpracy, a procesor wciąż ma zapas mocy, której nie można wykorzystać? Przykładowo przy FSB ustawionym na wartości 300 MHz procesor pracowałby z prędkością 9 * 300 = 2700 = 2,7 GHz. Pamięci w takim układzie musiałyby podkręcić się ze standardowych 400 MHz do 600 MHz, co jest po prostu arcytrudne. Jednak jest na to sposób i to bez manipulacji dzielnikiem. Wystarczy za pomocą BIOS-u zmienić wartość memclock na niższą. Poprzednie pamięci DDR taktowane były 333 MHz i 266 MHz. Wystarczy więc za pomocą BIOS-u zmienić memclock pamięci z 200 ( 400 MHz ) na 166 ( 333 MHz ). Tak więc przy wartości 166 i FSB na poziomie 222 MHz, pamięć będzie działała z taktowaniem 180 MHz, więc nie osiągnie nawet nominalnej wartości 200 MHz. Dopiero zmiana FSB do wartości 250 sprawi, iż będą działały z fabryczną prędkością. Przy tym ustawieniu procesor będzie działał z prędkością 2,25 GHz, czyli uzyskalibyśmy 25% przyrost mocy. W moim przypadku udało się zmusić komputer do stabilnej pracy
przy szynie 291 MHz.

Obraz
© Niemal 50-procentowy przyrost mocy

Pole do eksperymentów mamy otwarte. Pamiętajmy jednak, aby po każdym podkręceniu rzetelnie przetestować stabilność całej platformy. Jeśli w pewnym momencie komputer odmówi nam współpracy oznacza to, że doszliśmy do granicy możliwości sprzętu. W takim wypadku należy spróbować podnieść napięcie na rdzeniu procesora i jeśli to możliwe na mostku północnym ( northbridge ). Jeśli i to nie pomoże, oznacza to, iż osiągnęliśmy maksymalne FSB dla naszej płyty. W przypadku platformy K8 należy też pamiętać o innej magistrali, czyli HT ( Hyper Transport ). Domyślnym taktowaniem dla procesorów na socket 939 jest 1000 MHz i należy tak manipulować mnożnikiem HT, aby trzymać się jak najbliżej tej wartości. W zależności od posiadanego sprzętu osiągniemy różne wyniki w overclockingu. Te same procesory z różnych serii podkręcają się z różnym skutkiem, to samo odnosi się do pamięci. To jak daleko możemy się posunąć, możemy sprawdzić jedynie empirycznie. Równie ważna jest płyta, na której pracuje system. Niektóre lepiej nadają
się do overclockingu ( np. firmy DFI ), inne gorzej. Ostrożnie z ogniem

W tym momencie wypada napomknąć o kolejnej ważkiej sprawie, czyli temperaturze. Podkręcone elementy grzeją się o wiele bardziej, niż przy standardowym taktowaniu. Zdarzały się przypadki, gdy podkręcony procesor jedynie minimalnie zwiększał swoją temperaturę i to pracując na standardowym "boxowym" ( dołączanym w pudełku razem z procesorem ) radiatorze. Nie radzę jednak zakładać, że znajdziecie się w tym gronie wybrańców. Monitorowanie temperatury jest istotną rzeczą podczas podkręcania i nie radzę tego lekceważyć. Istotna jest tu nie tyle temperatura procesora i mostka północnego płyty podczas spoczynku ( gdy procesor jest minimalnie wykorzystywany ), ale po intensywnej pracy, na przykład po dwóch godzinach grania w najnowsze produkcje, które wyciskają z niego siódme poty.

Podkręcanie procesora zwykle wiążę się z zainwestowaniem w nowy radiator. Tu wybór jest ogromny. Z mojego doświadczenia wynika, że najlepiej sprawdzają się radiatory z miedzianą podstawą, odchodzącymi od niej ciepłowodami ( heatpipes ) i dużą ilością aluminiowych żeberek. Wiąże się to z właściwościami tych materiałów. Miedź szybciej przewodzi ciepło, natomiast aluminium szybciej je oddaje. Mowa tu oczywiście o klasycznym chłodzeniu powietrzem. Dobry radiator wiąże się z dobrą pastą termoprzewodzącą. Ma ona za zadanie uzupełniać mikroszczeliny pomiędzy radiatorem i procesorem i poprawiać przewodzenie ciepła. Tu też nie warto korzystać z tanich past dołączanych do różnych radiatorów, ale zakupić markowe pasty. Gros dzisiejszych radiatorów posiada zestaw zapięć, umożliwiający montaż na dowolnej podstawce. Nie będzie więc to inwestycja jedynie w stary komputer, ale w sprzęt, który z powodzeniem może nam służyć lata na różnych platformach. Samo chłodzenie procesora to jednak nie wszystko - przy podkręcaniu FSB
mocniej grzeje się także mostek północny na płycie. Ogólnie należy zadbać, aby cała obudowa była właściwie wentylowana.

W kwestii pamięci

Do dzisiejszych aplikacji potrzebna jest spora ilość pamięci RAM. Doświadczenie pokazuje, że dzisiejszym minimum jest posiadanie 1 GB RAM, z coraz bardziej wyraźną oscylacją w kierunku 2 GB. Sama wielkość pamięci to nie wszystko. Ważne, aby pracowała ona jak najszybciej. Maksymalną wartość, z jaką pracują nasze pamięci, poznamy podczas podkręcania procesora. Moja płyta obsługuje tylko pamięci DDR, jednak dzięki zintegrowanemu w procesorze kontrolerowi pamięci, spisują się one nienajgorzej. Ważne jest, aby pamięci mogły pracować w trybie Dual Channel. Aby to było możliwe, musimy łączyć je parami, jak na przykład 2x1 GB RAM, lub 2x512 MB RAM. Czym jest ów osławiony Dual Channel? Rozwiązanie to przyszło w czasach, gdy pamięć przestała nadążać z dostarczaniem danych do procesora. Najprościej mówiąc, zamiast jednego strumienia danych, do kontrolera trafiają równocześnie dwa - z każdego układu pamięci oddzielnie.

Obraz
© Różnica pomiędzy Single Channel, a Dual Channel

Reasumując, dwa układy pamięci po 512MB w trybie Dual Channel, będą pracowały szybciej, niż jedna pamięć 1 GB w trybie Single Channel. Podkręcanie pamięci można uczynić dwojako - poprzez podniesienie częstotliwości taktowania ich pracy ( czyli poprzez podnoszenie częstotliwości FSB ) i poprzez timingi. Timingi pamięci to jednak sprawa dość skomplikowana i jest to temat na zupełnie inny artykuł. Poza tym podnoszenie częstotliwości taktowania pamięci przynosi nam największy przyrost prędkości w grach, a o to nam w tym momencie chodzi, więc temat timingów zostawmy.Karta graficzna

Przyszła pora na kartę graficzną. ASUS X800 GTO jest kartą w miarę szybką. 256-bitowa szyna danych i 256MB pamięci DDR3 zapewniają jej przyzwoite osiągi. Jej największą wadą jest brak obsługi Pixel Shadera w wersji 3.0. Czy jednak muszę już dziś być "DirectX 10 ready"? Potężna karta graficzna to w tej chwili niemały wydatek. Prawdę powiedziawszy, wystarczy mi, by gry klasy "Obliviona", "F.E.A.R", czy też "Dark Messiah od Might and Magic" działały płynnie w rozdzielczości mojego monitora LCD, czyli 1440 x 900, tak abym bez żadnych "przycięć" mógł cieszyć się zabawą nie zmniejszając ilości detali wyświetlanej grafiki.

Kartę graficzną możemy podkręcać za pomocą niektórych płyt głównych, ale są to wartości niewielkie. Najlepsze efekty dają nam znakomite programy do overclockingu jak Riva Tuner, Power Strip, Ati Tool, czy też Ati Tray Tools. Tu zasada podkręcania jest równie prosta. Monitorując temperaturę rdzenia GPU i pamięci na karcie graficznej, podkręcamy nieco ich taktowanie i sprawdzamy ( na przykład uruchamiając jakąś grę ), czy karta nie wyświetla nam na ekranie niepożądanych artefaktów. Jeśli wszystko jest w porządku, podwyższamy wartość i ponownie testujemy.

Obraz
© Ati Tool jest potężnym narzędziem do overclockingu

Okazało się jednak, że moja karta ma bardzo niewielkie możliwości podkręcania. Nie spuściłem jednak nosa na kwintę, tylko zapuściłem żurawia na najbliższe forum overclockerskie - co i wam radzę uczynić zanim zabierzecie się za podkręcanie jakiegokolwiek sprzętu. Okazało się, że moja karta występuje z dwoma rodzajami układu graficznego. Jeden z nich ( R480 ) bardzo dobrze się podkręcał, a drugi ( R430 ) bardzo słabo. Zanim przejdę do dalszej części, tu nastąpi mała dygresja. Otóż często producenci kart graficznych tworzą tańsze modele kart, poprzez zablokowanie niektórych funkcji w układzie GPU ( Graphic Processor Unit ) używanych w lepszych modelach tej samej karty. Jest to często praktykowany sposób, gdyż bardziej opłaca się wyprodukować jeden rodzaj układu, niż dwa. Właśnie w tym przypadku okazało się, że ów ( posiadany przeze mnie ), słabiej podkręcający się układ R430, ma możliwość odblokowania 4 dodatkowych potoków renderujących. Tym samym liczba potoków zwiększała się z 12 do 16, co znakomicie
poprawiało wydajność karty. Oczywiście i to niesie ze sobą wzrost temperatury, co dla kart graficznych ( pracujących w wysokich temperaturach i bez podkręcania ) jest szczególnie groźne. Podobnie jak w przypadku procesorów i tu wybór układów chłodzących jest olbrzymi, podobnie jak rozpiętość cenowa.Nie wszystko można podkręcić

Pewnych barier rzecz jasna przeskoczyć się nie da. O ile z procesora, czy karty graficznej niemal zawsze można wycisnąć więcej mocy, to dla przykładu z twardymi dyskami jest już inaczej. Ta ważna część systemu często jest traktowana po macoszemu, a to duży błąd. Dzisiejsze aplikacje operują na olbrzymich ilościach danych i stary dysk twardy potrafi poważnie spowolnić działanie systemu, który wedle innych wartości powinien działać znacznie szybciej. Jako przykładem posłużę się dwoma dyskami twardymi zamontowanymi w moim komputerze. Pierwszy z nich to stary Seagate ST340810A 40GB ATA, a drugi ( też nie taki nowy ) Seagate ST380817 80GB, ale już na interfejsie SATA. Kluczowe znaczenie ma tu rzecz jasna, nie tylko nowsza technologia wykonania dysku, ale też korzystanie z interfejsu szeregowego. Przyjrzyjmy im się bliżej i porównajmy osiągi. Testy jak to testy - właściwie nigdy nie są miarodajne, mogą jednak nam dać ogólne pojęcie o tym, co możemy się po danym sprzęcie spodziewać. Do testowania twardych dysków
wykorzystałem program PC Wizard 2007 w wersji 1.72. Tak oto przedstawiają się osiągi starego dysku opartego o kontroler IDE/ATA.

Obraz
© Żałosne osiągi staruszka

Każdy szanujący się użytkownik obeznany w hardware na widok tej tabelki powinien zawyć ze zgrozy i rozpaczy. Właściwie można sobie tylko wyobrazić, w jaki sposób dysk ten spowalnia działanie całego komputera. Pod koniec swojej kariery był on właściwie przez cały czas defragmentowany, aby działał jak najszybciej. Jednak niemal przy każdej grze, gdy tylko dochodziło do doczytywania danych i tak pojawiał się "efekt żabki". Już samo ładowanie systemu ciągnęło się w nieskończoność. Porównajmy jego osiągi z drugim, wcale nie najnowszym dyskiem, opartym na interfejsie SATA.

Obraz
© Osiągi nie są powalające, ale w porównaniu do poprzednika to demon prędkości

Z miejsca widać wyraźną poprawę. O ile odczyt i zapis sekwencyjny przyśpieszył zaledwie niecałe dwa i pół razy, to buforowany już o trzy i trzy dziesiąte. Losowy odczyt przyśpieszył aż o 3,7 razy. Nie chcesz, lub nie możesz pozbyć się starej płyty, która nie jest wyposażona w interfejs SATA? Rozwiązaniem jest dodatkowy kontroler SATA, w postaci karty na złącze PCI. Nie jest to wielka inwestycja, a może przynieść wiele korzyści. Zakupiony twardy dysk będziemy mogli wykorzystać później, gdy zdecydujemy się na pełną modernizację komputera.

Summa summarum...

Modernizacji nie zdołamy uniknąć, to oczywiste. Należy jednak robić to z głową, a nie rzucać się na najnowsze nowinki techniczne, których pełnię możliwości wykorzystamy może za pół roku. Dzięki ciągłej, ale nienachalnej modernizacji połączonej z podkręcaniem możliwości sprzętu, możemy przedłużyć żywot naszego komputera o spory kęs czasu. Jak widać i overclocking nie jest procesem całkowicie bezbolesnym dla naszego portfela. Zakupy muszą być jednak przemyślane i nie należy kupować najdroższych układów chłodzących, tylko dlatego, że fajnie wyglądają.

Gdy w końcu nadejdzie czas, by z bólem serca sięgnąć po ciężko zarobione pieniądze, okaże się, iż część wydatków mamy już za sobą ( np. twardy dysk ). Połączenie overclockingu wraz z umiarkowaną modernizacją, wydaję się być opcją najbardziej rozsądną i przyjazną dla naszego portfela. Przesiadka na sprzęt kolejnej generacji i mnie nie ominie. Gdy jednak przyjdzie na mnie czas, nie zamierzam rzucać się na najnowsze komponenty, ale przykładowo na Nvidia 8800GTS ( gdy tylko cena tej karty spadnie do rozsądnej granicy ). Być może doczekam się też obniżki cen procesorów dwurdzeniowych na socket 939. Jeśli nie, przesiądę się na AM2, lub Conroe... zobaczymy. Pośpiech jest wskazany jedynie przy łapaniu pcheł, a przy zakupie sprzętu kosztującego niemałe pieniądze nie warto się gorączkować, aby nie przepłacać.

Źródło artykułu:PC World Komputer
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (0)