Potęga x86 - 30 lat minęło...

Potęga x86 - 30 lat minęło...

Potęga x86 - 30 lat minęło...
Źródło zdjęć: © IDG
20.06.2008 14:00, aktualizacja: 20.06.2008 14:27

Pojawienie się w 1978 roku intelowskiego procesora 8086 było punktem zwrotnym w historii komputerów osobistych. Podstawy architektury tego procesora znajdziesz w każdym komputerze. Niezależnie od tego, czy do czytania naszego tekstu używasz systemu Windows, Mac OS X czy Linux. Wspomniany CPU spowodował, że Intel z jednej z wielu firm produkujących układy scalone, stał się największym na świecie przedsiębiorstwem tego typu. Najbardziej w historii 8086 zadziwia fakt, że nikt się nie spodziewał tak olbrzymiego sukcesu. Dzieje tego CPU to dobry przykład na to, jak wiele może osiągnąć niewielki zespół błyskotliwych inżynierów, którym dano swobodę działania.

Gdy w maju 197. roku rozpoczynały się prace nad 8086, szefowie Intela nie przypuszczali, że wywrą one tak olbrzymie wpływ na cały świat IT. Były one bowiem traktowane jako tymczasowy przejściowy projekt. Firma pokładała wówczas swoje nadzieje w zupełnie różnym od 8086 i znacznie bardziej zaawansowanym układzie 8800 ( później trafił na rynek jako iAPX 432 ). W czasach 8-bitowych procesorów 8800 był układem 32-bitowym. Wyposażony był w zaawansowane możliwości wykonywania wielu zadań jednocześnie, przewidywano także wbudowanie weń układu zarządzającego pamięcią.Jednak projekt 8800 napotkał na problemy. Procesor ciągle się opóźniał, gdyż ówczesna technologia nie pozwalała na wyprodukowanie tak zaawansowanego układu. Kłopoty Intela na tym się nie kończyły. Pozycja firmy została zagrożona przez przedsiębiorstwo Zilog, założone przez byłych inżynierów Intela. W lipcu 1976 roku Zilog wypuścił na rynek procesor Z80, który szybko zdobył rynek mikroprocesorów średniej klasy. Z80 był klonem udanego intelowskiego 8080 -
układu, który rozpoczął epokę komputerów osobistych.

Obraz
© Procesor Intel 8086 z 1978 (fot. Wikipedia)

Pojawia się Architekt

Kierownictwo Intela nadal wierzyło w 8800, ale wiedzieli, że muszą jakoś odpowiedzieć na Z80. Zwrócili się o pomoc do 36-letniego inżyniera Stephena Morse'a, który zrobił na nich duże wrażenie podczas krytycznej oceny błędów znalezionych w układzie 8800. Morse został jedynym projektantem układu 8086. "Gdyby szefostwo Intela chciało, by architektura ta przetrwała wiele generacji i przerodziła się w dzisiejsze procesory, to nigdy nie zleciliby tego zadania jednej osobie" - mówi obecnie Morse. Wybranie go było tym bardziej zaskakujące, iż Morse specjalizował się... w oprogramowaniu. Tymczasem poprzednie CPU Intela projektowali inżynierowie specjalizujący się w sprzęcie. "Po raz pierwszy na procesor miano spojrzeć z perspektywy oprogramowania" - opowiada Morse. "Pytanie nie brzmiało teraz 'Jakie mechanizmy jesteśmy w stanie zaimplementować', ale 'Czego potrzebujemy, by oprogramowanie działało bardziej efektywnie?'". Rewolucję, która wkrótce nastąpiła, zawdzięczamy właśnie takiemu podejściu.

Pomimo tego, że 8086 był projektem Morse'a, nie pracował on sam. Dołączyli do niego inni pracownicy Intela, a wśród nich Bill Pohlman, Jim McKevitt i Bruce Ravenel, dzięki którym latem 1978 roku procesor trafił na rynek. Szefowie Intela zrobili kilka podstawowych założeń. Procesor 8086 miał być kompatybilny z oprogramowaniem dla popularnego 8080 oraz miał adresować 128 kilobajtów pamięci. Poza tym w ogóle się nie wtrącali. "Nikt się nie spodziewał, że projekt ten przetrwa dłuższy czas, więc nie napotkałem na swojej drodze żadnych ograniczeń i mogłem robić to, co chciałem" - wspomina Morse.

Bezbarwny debiut

W chwili debiutu procesore Morse'a nie wziął świata szturmem. Rynek komputerów średniej klasy był nasycony maszynami z układem Z80 pracującymi pod kontrolą najpopularniejszego wówczas systemu operacyjnego CP/M. Procesor 8086 najpierw pojawił się w kilku niewartych wspomnienia modelach pecetów. Nieco popularności zdobył na rynku komputerów przenośnych, gdzie znana była jego wersja 80C86.

Szerzej został zaakceptowany w mikrokontrolerach i systemach wbudowanych, a najbardziej znanym jego użytkownikiem była NASA, która do dzisiaj wykorzystuje układy 8086 podczas testów diagnostycznych rakiet nośnych na paliwo stałe ( agencja nawet obecnie kupuje na eBayu stary sprzęt elektroniczny by wymontować zeń te procesory ).

W marcu 197. roku Morse opuścił Intela, a później nastąpiła seria pozornie nieważnych wydarzeń, w wyniku których 8086 stał się standardem.

Obraz
© IBM 5150

Wykastrowany procesor

Kilka tygodni po odejściu Morse'a Intel prezentuje układ 8088, który Morse nazywa "wykastrowanym 8086", gdyż użyto w nim pewnej sztuczki by naśladować 16-bitowe możliwości 8086. W tamtych czasach wiele systemów było 8-bitowych, a 8088 obsługiwał 16-bitowe dane w dwóch 8-bitowych cyklach, dzięki czemu był kompatybilny z 8-bitowymi procesorami.

Dwa lata później IBM rozpoczyna pracę nad komputerem 5150, pierwszym firmowym pecetem stworzonym z tanich, szeroko dostępnych podzespołów. To było nowe podejście w historii IBM-a, który dotychczas nie dopuszczał innych do swojej technologii. Oczywiście taki komputer wymagał też taniego, powszechnie dostępnego procesora. IBM zdecydował, że musi być to układ 16-bitowy. Tym samym wybór zawęził się do trzech modeli: Motoroli 68000 ( potężnego 16-bitowca, który stanowił mózg pierwszego komputera Macintosh ), Intela 8086 lub też jego "wykastrowanego" kuzyna 8088. Jak zdradził David J. Bradley, jeden z członków ówczesnego zespołu developerskiego w IBM-ie, firma wyeliminowała procesor Motoroli, ponieważ miała większe doświadczenie z układami Intela. Poza tym na korzyść Intela przemawiał fakt, iż Microsoft miał już gotowy interpreter języka Basic, który działał na układach 8086 i 8088. IBM musiał więc wybrać pomiędzy 8086 i 8088. Zadecydowała ekonomia. Wybrano procesor 8088. Jego zastosowanie pozwoliło budować tańsze
komputery, gdyż wymagało użycia mniejszej liczby kości ROM i RAM.

Jednak tak naprawdę nie miało znaczenia, który procesor IBM wybrał. Oba korzystały z architektury 8086 opracowanej przez Stephena Morse'a.

Droga do standardu

Jak więc 8086 stał się standardem? Odpowiedzi należy szukać w roli, jaką odegrał IBM 5150 ( komputer ten znalazł się na 6. miejscu przygotowanej przez PC Worlda listy 25 najwspanialszych pecetów wszech czasów ). Rynek pecetów we wczesnych latach 80. przypominał Związek Radziecki po rozpadzie - wiele byłych republik, z których każda podążała w innym kierunku. Na rynku istniały dziesiątki niekompatybilnych rozwiązań oferowanych przez dziesiątki producentów.

Z czasem jednak komputer 5150 zdobywał coraz więcej klientów. Przyciągało ich do niego m.in. logo IBM-a. Firma zdobyła więcej klientów wśród firm, niż konkurujące z nią Radio Shack czy Apple. "Pytaliśmy ich, czy chcą mieć komputer od International Business Machines czy od firmy, która swą nazwę wzięła od owocu" - mówi Bradley. A ponieważ IBM używał powszechnie dostępnych podzespołów, inni zaczęli kopiować jego komputer.

W miarę jak IBM PC zaczynał dominować na rynku, Intel zdobywał coraz więcej pieniędzy na rozwój procesora 8086. Pojawiła się wersja 80186, następnie 80286, 80386, 80486, Pentium i tak dalej, do dziś. Dzięki takiej numeracji cała linia zyskała nazwę x86, która przetrwała nawet, gdy Intel zaczął nazywać swoje procesory Pentium, Celeron i Centrino. Z czasem kolejne firmy - AMD, Cyrix, NEC - zaczęły produkować podobne do intelowskich układy. Nawet IBM wypuścił swój własny procesor x86 potwierdzając tylko rynkową dominację tej architektury.

Właściwy czas i właściwe miejsceWedług Morse'a i Bradley'a nasza obecna zależność od x86 to dzieło przypadku. "Miałem na tyle szczęścia, że znalazłem się o właściwym czasie we właściwym miejscu" - mówi Morse. "Każdy dobry inżynier mógł zaprojektować procesor. Zapewne wykorzystywałby zupełnie inny zestaw instrukcji, ale wszystkie dzisiejsze pecety działałyby na tej architekturze". Podobnie żartuje Bradley. "Gdyby IBM wybrał, tak jak niektórzy proponowali, procesor Motorola 68000 to dzisiaj mielibyśmy duopol WinOla zamiast Wintel".

Prawdziwa siła x86 nie leży w jakichś szczególnych operacjach, które on wykonuje, ale w tym, że umożliwił on powstanie wspólnego standardu. 8086 pozwolił na błyskawiczny wzrost wydajności, pojemności i szybki spadek cen komputerów. Wszystko dzięki temu, że setki firm konkurowały na tym samym rynku i ulepszały ten sam produkt. Opracowany przez Morse'a zestaw instrukcji wciąż stanowi podstawę niemal wszystkich nowoczesnych procesorów, od Opterona poprzez Athlona po Core 2 Quad.

O tym, jak potężny jest standard x86 niech świadczy fakt, że każdy asembler napisany w 1978 roku dla procesora 8086 można uruchomić na najnowszym intelowskim Core 2 Extreme. Będzie po prostu działał 180 000 razy szybciej...

Źródło artykułu:PC World Komputer
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (1)