Jeszcze kilka lat temu supremacja firmy 3dfx wydawała się być niepodważalna. A wszystko zaczęło się od zaprezentowanego w 1996 roku akceleratora graficznego o nazwie Voodoo Graphics. Z miejsca stał się on rynkowym przebojem, oferując niespotykaną dotąd jakość i płynność grafiki. Zaprezentowany dwa lata później akcelerator Voodoo2 już tylko ugruntował, zdobytą przez 3dfx, pozycję lidera. Dojście na szczyt w przypadku 3dfx okazało się jednak o wiele prostsze, niż utrzymanie się na nim. Firma ta bowiem, najwyraźniej uśpiona pasmem sukcesów, zlekceważyła rodzącą się w jej cieniu konkurencję w postaci firmy NVIDIA. Układy z rodziny TNT, a potem TNT2 coraz bardziej zbliżały się do wydajności prezentowanej przez akceleratory 3dfx'a. Co więcej, w odróżnieniu od Voodoo, oferowały one 32-bitowy kolor oraz obsługę tekstur o rozmiarze 2048×2048. Zamiast zaprezentować układ o podobnych możliwościach, 3dfx zaserwował nam kartę Voodoo3, która, bazując na starej i coraz bardziej ograniczonej architekturze Voodoo, potrafiła obsłużyć tylko 16-bitowy kolor i tekstury o rozmiarze zaledwie 256×256. Akcelerator ten, pomimo swoich ograniczeń, sprzedawał się jednak całkiem dobrze - magia Voodoo najwyraźniej ciągle działała. I pewnie działała by jeszcze długo, gdyby nie premiera GeForce 256. Nie był on bowiem zwykłą kontynuacją układów z serii TNT, ale całkowicie nowym i rewolucyjnym procesorem graficznym. Bez większej przesady można powiedzieć, że GeForce 256 był dla NVIDII tym, czym pierwszy Voodoo dla 3dfx'a.
Ogromny wzrost wydajności, szczególnie w trybie 32-bitowym oraz sprzętowa jednostka transformacji i oświetlenia (Transform and Lighting engine) sprawiły, że nowym technologicznym liderem stała się NVIDIA. Jak się później okazało, 3dfx już nigdy nie zdołał NVIDII tego tytułu odebrać. Gdy bowiem firma ta zaprezentowała karty z serii Voodoo4 i Voodoo5, oferujące w końcu 32-bitowy kolor i tekstury o rozmiarze 2048×2048, NVIDIA już sprzedawała GeForce z pamięciami DDR. Gdy zaś 3dfx na początku 2000 roku zaprezentował Voodoo5 5750, także z pamięciami DDR, NVIDIA miała już gotowy układ GeForce 2 GTS (Giga Texel Shader), który prezentował wydajność i możliwości znacznie większe, aniżeli jego poprzednik. Pokonać najnowszy układ NVIDII mógł już tylko Voodoo5 6000. Wyposażona aż w cztery układy VSA-100 (najsłabszy Voodoo4 4500 miał jeden taki układ, zaś Voodoo5 5000 oraz Voodoo5 5500/5750 po dwa) i 128 MB pamięci karta była prawdziwym gigantem, wymagającym zewnętrznego zasilania. Niestety, równie gigantyczne okazały się też jej koszty produkcji, przez co firmie 3dfx nigdy nie udało się wprowadzić Voodoo 5 6000 do masowej sprzedaży. Co ciekawe, ten „Titanic” akceleratorów z rodziny Voodoo oferował możliwości na tyle duże, że nawet dzisiaj można by na nim zagrać w Quake III Arena osiągając ponad 140 klatek na sekundę w rozdzielczości 1024×768 i 32-bitowym kolorze! Tyle samo oferował dopiero zaprezentowany przez NVIDIĘ na początku 2001 roku GeForce3!
Po skreśleniu Voodoo5 6000, ostatnią nadzieją 3dfx'a była technologia o kodowej nazwie Rampage. Układ Rampage miał posiadać całkowicie nową (w końcu!) architekturę, oferującą wszystko to, co miał GeForce i jeszcze więcej. Jednak zbyt ospałe projektowanie tego układu sprawiło, że Rampage w ogóle nie otrzymał szansy na zaprezentowanie swoich możliwości. Wcześniej bowiem firmę 3dfx przejęła... NVIDIA! Kto wie jednak, jak dzisiaj wyglądał by rynek kart graficznych, gdyby 3dfx o wiele wcześniej sfinalizował prace nad procesorem Rampage?...
ATI versus NVIDIA
Firma NVIDIA, nauczona doświadczeniem 3dfx'a, stara się nie popełniać błędów swojego poprzednika. To właśnie dzięki wprowadzaniu przynajmniej raz w roku praktycznie nowej architektury, a nie wielokrotnym odgrzewaniu starego produktu, NVIDII udało się utrzymać jak dotąd pozycję lidera, rujnując jednocześnie konkurencje i przy okazji nasze budżety... Co więcej, za wyjątkiem wpadki z kartą GeForce FX 5800 Ultra, która żywo przypominała historię Voodoo5 6000 (jednak w odróżnieniu od 3dfx'a, NVIDIA w miarę szybko zastąpiła swojego nieudacznika kolejną, lepszą wersją o nazwie GeForce FX 5900 Ultra), firmie tej udawało się unikać „papierowych premier”. Takiego lidera zdetronizować znacznie trudniej, aniżeli 3dfx'a. Wyzwanie to podjęła jednak ATI i co więcej, w walce z NVIDIĄ firma ta radzi sobie coraz lepiej...
Kolejne wcielenia układów z serii RADEON pokazują, że nie tylko NVIDIA potrafi robić wydajne i oferujące potężne możliwości procesory graficzne. Co więcej, pojawiają się one równie często, co kolejne Geforce'y. Tempo narzucone przez obie firmy jest istotnie szalone. Dopiero bowiem co na rynku pokazał się RADEON 9800 PRO (R350) oraz GeForce FX 5900 Ultra (NV35), a już obie firmy zapowiedziały rychłe wprowadzenie do sprzedaży ich następców. Nie będą to jednak nowe konstrukcje. Zarówno NV38 (NVIDIA) jak i R360 (ATI) są jedynie przyspieszonymi wersjami sprzedawanych obecnie kart graficznych. Dodatkowe megaherce przypadną zarówno procesorowi graficznemu jak i pamięciom.
Na rynek tańszych komputerów trafią zaś układy RV360 oraz NV36, które będą odpowiednio „obciętymi” wersjami procesorów R360 oraz NV35. W związku z pojawieniem się tylu wersji praktycznie tych samych układów, duży orzech do zgryzienia będą miały działy marketingu obu firm, a w szczególności ATI. Bo o ile dla R360 można jeszcze użyć nazwy RADEON 9800XT, tak dla układu RV360 znalezienie odpowiedniej nazwy będzie już nie lada wyczynem. Wszystkie liczby poniżej 9900 są już bowiem zajęte, a trudno wolniejszą kartę sprzedawać z oznaczeniem wyższym, aniżeli 9800... Wyższe oznaczenia najprawdopodobniej zgarnie bowiem całkowicie nowy układ ATI o nazwie R420, który jak jego bezpośredni konkurent - procesor NV40 firmy NVIDIA - zadebiutuje na początku 2004 roku. Zarówno NV40, jak i R420 wyposażone mają być w jednostki Pixel i Vertex Shader w wersji 3.0. Możliwe też, że posiadać one będą większą, aniżeli 8, liczbę potoków renderujących. Raczej nie będzie ich 16, ale stworzenie układu graficznego z 12 potokami jest już dzisiaj z technologicznego punktu widzenia jak najbardziej możliwe. Z racji ogromnej liczby tranzystorów trudno także szacować, z jakim zegarem pracować będą obydwa układy. Wątpliwe jednak, by ATI albo NVIDII udało się rozpędzić składający się z około 175 mln tranzystorów układ do zegara znacznie przekraczającego 500 MHz. Chłodzenie takiego układu musiałoby być bowiem tak duże, że rekord wielkości „chłodnicy” GeForce’a FX 5800 Ultra z pewnością zostałby pobity ;-). Zarówno NV40, jak i R420 oparte mają być na złączu PCI Express. Jednak do czasu upowszechnienia się tej technologii karty graficzne oparte na tych układach posiadać mają specjalne mostki PCI Express-AGP umożliwiające ich wykorzystanie na płytach głównych posiadających port AGP 8X.
Monstrualne chłodzenie GeForce FX 5800 Ultra
Szaleńczy wyścig o fotel lidera pomiędzy firmami ATI i NVIDIA trwać będzie więc nadal. Coraz wyraźniej widać jednak, że NVIDIA - z topniejącym w oczach udziałem w rynku (obecnie wynosi on już tylko 27 procent) - coraz bardziej potrzebuje kolejnego, rewolucyjnego na miarę pierwszego GeForce'a układu. A jeśli taką rewolucją okaże się R420?...
AMD versus Intel
Walka pomiędzy AMD a Intelem często porównywana jest do zmagań ATI i NVIDII. Rynek procesorów PC rządzi się jednak trochę odmiennymi prawami. Nie wystarczy bowiem stworzyć procesorowego Voodoo czy GeForce, by stać się liderem. Co więcej, nawet gdy taki rewolucyjny układ dostarczymy w terminie i w odpowiednio dużych ilościach, nie możemy być pewni sukcesu. Jeśli bowiem producenci poszczególnych podzespołów PC nie przygotują na czas odpowiednich chipsetów czy też płyt głównych, to nowy procesor ląduje po prostu w sprzętowej próżni i nijak nie będziemy mogli z jego możliwości skorzystać. Czy to już wszystko? Oczywiście, że nie! Trzeba jeszcze bowiem przekonać producentów oprogramowania oraz producentów układów graficznych do poczynienia odpowiednich optymalizacji. Potrzeba także dużej ilości pieniędzy, by odpowiednio wypromować nowy procesor i jeszcze więcej siły przebicia, by namówić wielkich tego rynku (Dell, IBM etc...) do wykorzystania naszego procesora przy budowie swoich komputerów. Ile z tych warunków spełnia obecnie AMD?...
Bez wątpienia Athlon 64 ma wszelkie cechy, by stać się takim procesorowym GeForcem. Usprawniona architektura starego Athlona, w połączeniu z wbudowanym w rdzeń procesora kontrolerem pamięci sprawiają, że Athlon 64 w 32-bitowym środowisku może stać się prawdziwym demonem prędkości (testy Opteronów zdają się to potwierdzać). Co więcej, dzięki wydłużeniu potoku wykonawczego z 10 do 12 etapów i wykorzystywaniu do produkcji tego procesora technologii SOI (Silicon on Insulator) możliwe będzie rozpędzenie Athlona 64 do zegarów znacznie przekraczających 2 GHz. Wiemy też, że nie powtórzy się sytuacja, jaka miała miejsce podczas prezentacji pierwszego Athlona. Odpowiednie chipsety i płyty główne obsługujące Athlona 64 od dłuższego czasu są już gotowe i czekają tylko na jego premierę.
Przykładowa płyta główna przeznaczona dla procesora Athlon 64
Ciągle nie wiemy natomiast, jak dalece zaawansowane są prace związane z optymalizacją oprogramowania i sterowników na potrzeby 64-bitowych możliwości nowego Athlona. Jeśli jednak twórcy software'u przyłożyli się do nich tak, jak w przypadku instrukcji 3DNow!, to nie wróży to raczej niczego dobrego. Miejmy jednak nadzieję, że kilkakrotnie przekładana premiera nowego Athlona dała twórcom oprogramowania wystarczająco dużo czasu na poczynienie odpowiednich optymalizacji, a samej AMD umożliwiła wypełnić po brzegi swoje magazyny Athlonami 64. Jak jest w rzeczywistości? O tym przekonamy się już za kilka dni, a dokładniej 23 września. Wtedy to bowiem, już na pewno, nastąpi premiera nowego Athlona! Żałować tylko można, że firmie AMD nie udało się wprowadzić do sprzedaży Athlona 64 znacznie wcześniej, a więc jakiś rok temu. Wtedy bowiem Intel miałby o wiele mniejsze niż obecnie możliwości obrony (Prescott i Tejas), przez co szansa na odwrócenie o 180 stopni rynkowych proporcji pomiędzy Intelem i AMD była by zdecydowanie większa.
Zapraszamy także do odwiedzenia naszego serwisu 23 września. Będziecie bardzo mile zaskoczeni ;-).