Albatron GeForce 4 Ti4200 P Turbo

Inledning
NV25 - GeForce 4
Specifikationer
I kartongen
Layout
Kylning och ljudnivå
Överklockning
Drivrutiner och mjukvara
Testsystem
Prestanda - 3DMark 2001 SE
Prestanda - Quake III
Prestanda - UT 2003 Demo
Prestanda - PCMark 2002
Slutsats


Tack till Albatron som gjorde denna recension möjlig.


27/09-02 | Daniel Rufelt | xx@64bits.se


Inledning

1984 grundades Chun Yun Electronics, ett företag som främst tillverkade TV-apparater, projektorer och dylikt. I slutet av 2001 valde dock företaget en ny inriktning, och valde att satsa på den växande marknaden för datorkomponenter. De började samla ihop ingenjör och tekniker och en del folk från konkurrenten Gigabyte blev rekryterade. I januari 2002 bytte företaget namn till Albatron, och satte igång att tillverka grafikkort och moderkort avsedda främst för slutkunder. Idag har tillverkaren ett ganska brett sortiment av dessa produkter.

Vi ska nu ta en titt på ett av deras senaste produkter, GeForce 4 Ti4200 P Turbo, och avgöra om det är värt att satsa sina pengar på.

NV25 - GeForce 4

Eftersom detta är den första recensionen av ett GeForce 4 Titanium-kort här på 64bits så tänkte jag snabbt gå igenom dess egenskaper och vilka modeller som finns.

NV25 var utvecklingsnamnet för GeForce 4. Trots att GPU:n givetvis är färdigutvecklad så används ibland NV25 när man pratar om själva GPU:n.
För närvarande finns det tre modeller av GeForce 4 Titanium: Ti4200, Ti4400 och Ti4600. Nedan ser ni specifikationerna, och skillnaderna mellan de olika modellerna.
 

  Ti4200 (64 MB) Ti4200 (128 MB) Ti4400 (128 MB) Ti4600 (128 MB)
Tillverkningsprocess 0,15 µ 0,15 µ 0,15 µ 0,15 µ
Antal transistorer 6,3*10^7 6,3*10^7 6,3*10^7 6,3*10^7
GPU-hastighet 250 MHz 250 MHz 275 MHz 300MHz
Minnesbuss 128-bits DDR 128-bits DDR 128-bits DDR 128-bits DDR
Minneshastighet 500 MHz 444 MHz 550MHz 650 MHz
Minnesbandbredd 8,0 GB/s 7,1 GB/s 8,8GB/s 10,4GB/s
Instruktioner / s 1,03* 10^12 1,03* 10^12 1,03* 10^12 1,03* 10^12

Specifikationerna är minst sagt imponerande, värstingmodellen Ti4600 klarar av att skyffla hela 10,4GB/s. Notera att klockfrekvenserna är de NVIDIA rekommenderar, i praktiken kan de vara något annorlunda och det är egentligen fritt upp till tillverkaren att (inom rimliga gränser) välja frekvens på både minne och GPU. Vi går vidare och tar en titt på hur NVIDIA åstadkommit denna bandbredd.

LMA II
Minnesbandbredden är en mycket avgörande faktor för ett grafikkorts prestanda. LMA II, som står för Light Memory Architecture II, är NVIDIAs samlingsnamn för den teknik och de optimeringar NVIDIA använt för att uppnå den relativt höga bandbredden hos NV25.

Den gamla tekniken för överföringen mellan minneskontrollern och själva minnet gick ut på att man hade en buss där man hade en kontroller som fick förfoga över minnena. Ponera att bussen är på 128-bit. Detta innebär alltså att varje "paket" data som överförs kommer att ta upp hela bandbredden eftersom det bara finns en minneskontroller. Så om 32 bit data ska överföras så kommer hela bandbredden att användas, och således kommer 75% av bandbredden indirekt att vara outnyttjad. Detta innebär givetvis att man går miste om en hel del bandbredd.

För att lösa detta så använder NV25 något som NVIDIA kallar "crossbar interface". Detta innebär att man istället har fyra stycken minneskontrollers. Var och en av dessa har, via en 32-bits buss, tillgång till de 4 olika undersystemen av minnen som NV25 har. Detta medför att det går att överföra paket ner till 32 bits storlek, vilket leder till att man går miste om mycket mindre bandbredd vid minnesöverföringar. Eftersom varje minneskontroller har tillgång till hela minnet så medför detta att den effektiva bredden på bussen blir på 128 bit. Eftersom så kallad DDR-teknik används så ökas den effektiva bredden på bussen från 128 bit till 256 bit.

Crossbar interface fanns även hos NV20, men med hjälp av optimeringar och höjd klockfrekvens har NVIDIA ytterliga ökat bandbredden mot minnet.

LMA II inkluderar även något som kallas Quad Cache. Quad Cache innebär att man har fyra stycken självständiga caches där GPU:n kan lagra mindre data innan den skrivs till minnet. Varje cache är optimerad för att lagra viss typ av data, t ex texturdata eller vertexdata. Detta medför att prestandan blir bättre jämfört med om man skulle haft en "all-around"-cache som hade hand om all mindre data innan den lagrades i minnet.

Z-buffern är den del av minnet där varje punkts y, x och z-värden ligger. I Z-buffern lagras även information om huruvida en pixel ska vara synlig eller ej. Eftersom dagens spel använder miljontals pixlar blir tar denna buffert givetvis upp relativt stor plats. För att råda bot på detta problem har NVIDIA infört något de kallar för "Lossless Z Compression", fritt översatt komprimering av Z-buffern utan dataförlust. NVIDIA påstår att de lyckats komprimera denna buffert med kompressionsförhållandet 4:1 utan att bildkvalitén på något sätt försämras. Komprimeringen leder självklart till att mindre data måste skyfflas till och från minnet vilket självklart leder till ökad prestanda då andra saker, som t ex texturer, istället kan skyfflas snabbare till och från minnet.

LMA II omfattar även en del andra optimeringar, t ex ett system som gör att pixlar som inte syns renderas. För den som är intresserad av att läsa mer om LMA II så finns det ett utmärkt dokument om detta för åskådning här.

nfiniteFX II
NfiniteFX II är samlingsnamnet för NV25s pixel- och vertex-shaders. Vertex-shadern är den enhet i GPU:n som har hand om de flesta beräkningar i GPU:n. Jämfört med NV20 (GeForce 3) så har NV25 två stycken pararella vertex-shaders, vilket leder till att NV25 kan hantera mycket fler polygoner än NV20. Pixel-shadern har hand om beräkningar för optimeringar nere på pixel-nivå istället för på polygon-nivå.  Även pixel-shadern har blivit optimerad, men man har dock fortfarande "bara" en pixel-shader.

En viktig egenskap hos både pixel- och vertex-shadern är att de är programmerbara. Detta innebär att spel och programtillverkare inte är låsta till de olika effekter som finns i GPU:n, utan kan anpassa pixel- och vertex-shaders så att de renderar den effekt som just tillverkaren vill. Detta gör givetvis användningsområdet för GPU:n mycket bredare, och tillverkarna kan i princip rendera vilka effekter som helst (så länge prestandan är accepterbar).

För den som vill läsa mer om nfiniteFX II så tillhandahåller NVIDIA ett utmärkt dokument om detta som finns för åskådning här.

Accuview AA
NVIDIA kallar sin teknik för kantutjäming, Antialising, för Accuview AntiAlising . NV20 erbjöd tre former av kantutjämning, 2X FSAA, Quincunx FSAA och 4X FSAA, där 4X FSAA erbjöd bäst kantutjämning men en ganska stor prestandaförlust.

I och med NV25 har NVIDIA även introducerat en ny typ av kantutjämning som de kallar 4XS FSAA. Skillnaden mellan 4XS och 4X är att 4XS erbjuder ytterliggare bättre kantujtämning, till en ganska liten prestandaförlust.

Accuview AA innefattar även något som kallas Anistropic Filtering. Anistropic Filtering är inte direkt någon nyhet, men ändå en intressant teknik att ta upp. Normalt så avtar bildkvaliten med avståndet i en 3D-scen, och t ex golv i ett spel kan se väldigt suddiga ut på långt avstånd. För att förhindra detta så har man infört Anistropic Filtering, som helt enkelt tvingar applikationen att använda en större textur för att undvika att bilden blir suddig.

För den som vill gräva sig djupare och öka sin förståelse för Accuview AA så finns det ett dokument om detta här.

nView
Sist men inte minst tänkte jag gå igenom det som NVIDIA kallar nView. nView är samlingsnamnet för de funktioner för stöd för flera bildskärmar och/eller TV-apparater som finns i NV25. Med hjälp av dubbla integrerade RAMDACs på 350 MHz vardera så går det utmärkt att använda två stycken skärmar samtidigt, utan att uppdateringsfrekvensen eller upplösningen tvingas vara lägre på någon av de anslutna skärmarna.

Den största styrkan hos nView är faktiskt drivrutinerna. I och med att Detonator 40 introducerades så inkluderades stöd för nView 2,0. nView 2,0 inkluderar mängder med funktioner för att göra användandet av flera bildskärmar enkelt, effektivt och användbart.

Givetvis finns det även ett dokument om nView hos NVIDIA, detta går att tanka ner här.

Vad sägs om att lämna den teoretiska världen och se vad Albatrons GeForce 4-kort har att erbjuda?

Specifikationer

Pris -
GPU GeForce 4 Ti4200
Tillverkningsprocess (GPU) 0,15 µ
GPU-klockfrekvens 250 MHz
AGP-standard 4X
Minnestyp DDR-SDRAM, BGA
Minneshastighet 250/500 MHz (3,3ns)
Utgångar 1x D-SUB, 1X DVI och 1x S-Video

Det enda som, om man ser till ovanstående specifikationer, skiljer detta kort från de flesta andra Ti4200-baserade med 128 MB minne är att tillverkaren valt att köra minnena i 500 MHz istället för 444 MHz som NVIDIA rekommenderar. Det är väldigt vanligt att tillverkare gör detta, då minnena ofta klarar av detta utmärkt och därför att det ger en hyffsad prestandaökning.

I kartongen

I kartongen fann vi detta:

Layout

De allra flesta Ti4200-baserade kort baseras på ett mycket enklare kretskort än de dyrare Ti4400 och Ti4600-modellerna. Detta kretskort innehåller mindre lager, har enklare strömförsörjning och är anpassade efter billigare minnen i det "gamla" formatet TSOP. Nackdelen med denna enkla design är att den till viss del försvårar överklockning, eftersom strömförsörjningen blir en flaskhals i högre frekvenser. Användandet av TSOP-minnen hindrar även till viss del överklockning, då dessa generellt går att överklocka mindre då de utvecklar mer värme än minnen förpackade i BGA-format. Fördelarna med denna billigare design är dock givetvis att produktionskostnaden blir lägre och därmed även kostnaden för oss konsumenter.
 

Albatron har valt att basera detta Ti4200 på exakt samma design som Ti4400/Ti4600-korten med allt vad det innebär. Det främsta syftet med detta är att erbjuda stora möjligheter till överklockning genom den mycket kraftfullare strömförsörjningen. Kombinerat med BGA-minnen på 3,3 ns så kan man nästan vänta sig att detta kort går att överklocka till samma frekvenser som Ti4600-korten körs i. Vi kommer givetvis att ta reda på om detta är möjligt senare i recensionen.
 

På kortet ser vi att det finns tre utgångar, en D-SUB, en S-Video och en DVI. Kablar för S-Video medföljer, men även en adapter och extrakablar för vanlig composite-standard medföljer om det är så att man har en gammal TV som inte har S-Video-ingång. Det är bra att kortet har en DVI-utgång, men tyvärr medföljer ingen adapter från DVI till D-SUB. Detta innebär att om man skulle vilja köra två stycken D-SUB-skärmar så skulle man behöva köpa en adapter separat.

Som TV-out-krets har Albatron valt Philips utmärkta SAA7104E-krets. Denna krets är bland de bästa på marknaden, och ger stöd för upplösningar upp till 1280x1024 pixlar. Visserligen finns det inte många TV-apparater som stöder denna höga upplösning, men det känns ändå tryggt att stöd för det finns i kortet.

Kylning och ljudnivå

Kylningen på grafikkortet är en mycket viktig faktor för hur bra kortet går att överklocka. Eftersom just detta kort är avsett för att överklockas så har tillverkaren satsat en hel del på kylningen.

Som kylning på själva kärnan hittar vi en relativt stor kopparkylare. Kopparkylare på grafikkort är ganska ovanligt, hittills har vi bara sett det på Abits senaste Ti4200-kort. Kylflänsen är ganska enkelt uppbyggd, med hjälp av kåpans konstruktion tvingas luften att åka genom de smala kopparbladen som finns på kanten av kylflänsen. Luften från fläkten är riktad så att den även kyler minneskylarna runt GPU-kylaren.

På minneskretsarna på framsidan sitter det ganska ordentligt tilltagna minneskylare i aluminium. Som sagt så kyls dessa av luften från fläkten på GPU-kylaren. Minnena på baksidan kyls av något mindre aluminum-kylflänsar, men dessa visade sig klara av sin uppgift alldeles utmärkt då de inte blev särskilt varma.

Ljudnivån på fläkten är inte särskilt hög, men jag skulle inte heller vilja kalla den tyst. Den ger ifrån sig ett något vinande ljud, ett problem som dock de flesta GeForce 4-kort har. Ljudet är troligen inte störande för den normale användaren, men för de känsliga kan det faktiskt uppfattas som något störande.

Överklockning

Då var det dags för kanske den mest intressanta del av denna recension för folk som gillar att klämma ur all prestanda ur sin hårdvara, nämligen överklockningen. Genom ordentlig kylning, Ti4400/Ti4600- kretsdesign och snabba minnen så borde kortet gå att klocka relativt högt.

Som vi nämnde tidigare sitter det 3,3 ns-minnen på kortet. Denna siffra är en märkning för hur högt minnena är godkända att köras i. För att få fram hur många MHz detta motsvarar tar man 1000 och delar i detta tal. 1000/3,3 = ca 303 MHz, men eftersom det är DDR-SDRAM-minnen så tar man denna siffra gånger 2. Då får vi ut att minnena bör klara av 606 MHz, alltså en bit över 100 MHz mer än vad kortet körs i från fabrik.

För att testa hur högt kortet gick att överklocka använda vi programmet NVMax 4,02. Vi höjde frekvensen med 5 MHz-steg på kärnan och minnet, och körde sedan 3DMark 2001 för att kontrollera att inga grafikfel uppstod.

Eftersom vi hade mycket höga förväntningar på kortet så började vi direkt med att överklocka det från 250/500 MHz till 300/650 MHz. Detta fungerade utmärkt, och inga som helst grafikfel eller stabilitestproblem uppstod. 300/650 MHz är som bekant standardfrekvensen för Ti4600, och det är mycket imponerande att detta kort utan problem gick att köra i så höga frekvenser. Givetvis nöjde vi oss inte med detta utan fortsatte att höja, denna gång med 5 MHz-steg.

Vid 315 MHz så blev GPU:n ostabil, och vi fick klocka ner den till 310 MHz. Vid 310 MHz var den helt stabil och inga som helst grafikfel uppstod. Detta är alltså 10 MHz mer än vad Ti4600 körs i, vilket är mycket imponerande för ett Ti4200-kort. Minnet fungerade felfritt upp till 720 MHz, i 725 MHz så började grafikfel att uppstå. Kortet var alltså helt stabilt i hela 310/720 MHz, vilket är mycket imponerande.

Drivrutiner och mjukvara

Vilka program och spel som följer med kanske inte är det viktigaste man tittar på när man väljer grafikkort, men det kan ändå vara kul att veta vad som följer med i mjukvaruväg om man planerar att köpa ett grafikkort.

Kortet kommer med fyra olika CD-skivor. På drivrutinsskivan finner vi bland annat refrensdrivrutiner från NVIDIA (version 30.30). Albatron har alltså inte utvecklat några egna drivrutiner eller gjort om de befintliga refrensdrivrutinerna. Detta är dock ingen som helst nackdel då drivrutinerna från NVIDIA är mycket beprövade, stabila och väl utvecklade. På CD:n hittar vi även en registerfil som aktiverar de så kallade CoolBits-funktionerna i drivrutinerna. Med hjälp av dessa kan man enkelt överklocka grafikkortet utan att använda några separata program. DirectX 8.1, WDM-drivrutiner och diverse produktreklam medföljer även.

På den andra program-CD:n finner vi en fullversion av den mycket populära DVD-spelaren WinDVD.

På de två sista skivorna hittar vi fullversioner av shoot-em-up-spelet Serious Sam och motorcykelspelet MotoCross Mania.

Sammanfattningsvis så kan vi säga att mjukvarupaketet som följer med detta kort inte är utmärkande stort, men det är inte för litet heller om man ser till vad för mjukvara konkurrenterna skickar med sina kort.

Testsystem

För att testa grafikkortet användes nedstående system:
CPU: AMD Athlon XP2200+@2,0 GHz
Moderkort: MSI KT3-Ultra (KT333)
Minne: 256 MB DDR-SDRAM PC2700, CL2-inställningar.
Hårddisk: Seagate Barracuda IV 60 GB
Nätaggregat: Chieftec 340W
Ljudkort: ALC650, ljudet var dock avaktiverat under alla tester.

För de ATI-baserade korten användes Catalyst 02.3 och för de NVIDIA-baserade användes Detonator 40.41. VIAs 4in1 4.43 användes till moderkortet. Alla tester kördes under Windows 2000 med SP3 installerat.

Genom att ändra frekvenserna på kortet kunde vi jämföra det med "simulerade" Ti4400- och Ti4600-kort. Vi jämförde även korten med ett Radeon 8500LE och ett Radeon 8500-baserat grafikkort från ATI.

Prestanda - 3DMark 2001 SE

3DMark är utan tvekan det absolut vanligaste testprogrammet för att mäta hur ett system presterar i Direct3D. Många av dagens spel baseras på Direct3D, därför är det lämpligt att jämföra hur korten presterar i de olika testerna.

Vi börjar med att använda 16-bits färgdjup:

Här syns tydligt hur den ökade frekvensen ger bättre prestanda. Vi ser även att GeForce 4-korten drar ifrån ganska rejält från 8500-korten. Visserligen har de bara 64 MB, men 128 MB-varianterna av dessa kort presterar inte särskilt mycket bättre.

Ökningen till 32-bitars färgdjup ändrade inte resultaten särskilt mycket, de flesta av korten klarade av detta galant.

Prestanda - Quake III

3DMark i all sin ära, men det är ändå prestandan i de spel där grafikkorten faktiskt ska användas som är viktig. Quake III kan knappast ha undgått någon, spelet hamnar inte särskilt långt ner i listan över världens mest sålda spel. Quake 3 är baserat på OpenGL, och ger en bra bild över hur kortet presterar i spel baserade på detta API. Vi börjar med 16-bits färgdjup för både texturer och rendering:

Här ser vi att skillnaden mellan Radeon 8500-korten och GeForce 4-korten inte är lika stor, men de 8500-baserade kortet kan inte hänga med när frekvenserna hos GeForce 4-korten ökas.

Ändringen till 32-bits texturer och rendering gör att resultatet för de 8500-baserade korten går ner ganska mycket. GeForce 4-korten verkar inte påverkas lika mycket av det ökade färgdjupet.

Prestanda - UT 2003 Demo

Unreal Tournament 2003 släpptes nyligen i en demo-version och blev på bara några dagar ett mycket populärt spel. Spelet baseras på Direct3D, och ger ett ypperligt tillfälle att kontrollera huruvida resultaten i 3DMark stämmer överens med resultaten i ett spel. Ändringen mellan 16 och 32-bitars färgdjup i detta spel gav ingen prestandaskillnad. Detta tolkar vi som att det helt enkelt är något fel på demot som gör att, när man kör i "benchmark"-läget, de inställningar för färgdjup som man valt inte används. Det så kallade flyby-testet kördes under alla testerna i detta spel.

Resultatet här stämmer ganska bra överens med resultaten i 3DMark om man ser till den procentuella skillnaden mellan korten. De Radeon 8500-baserade korten har ingen chans att hänga med GeForce 4-korten, speciellt inte i 1280x1024.

Prestanda - PCMark 2002

För att mäta prestanda i 2D använde vi oss av testprogrammet PCMark 2002. Som namnet antyder är programmet skapat av samma företag som skapade 3DMark, Madonion.

Även här presterar de GeForce 4-baserade korten överlag bättre än de 8500-baserade. Vi ser även att frekvenserna på korten verkar vara mycket viktiga för hur kortet presterar även i 2D.

Slutsats

GeForce 4 Ti4200-baserade är idag ett mycket prisvärt val för den som är ute efter ett grafikkort som presterar bra i spel och inte kostar över 2500 kr. De Ti4200-baserade korten presterar överlag bättre än Radeon 8500LE-baserade kort, som är den närmaste konkurrenten i denna prisklass. Radeon 8500LE-korten är visserligen lite billigare, men saknar det där lilla extra när det gäller prestandan i spel.

Ti4200-baserade kort finns det idag en hel uppsjö av, och att välja mellan dessa är verkligen inte lätt. Albatrons kort utmärker sig på flera sätt. För det första sitter det en ordentligt tilltagen kopparkylare på kortet. Tillsammans med krestskortdesignen från Ti4400/Ti4600 och 3,3 ns minnen leder detta till att kortet går att köra i mycket höga frekvenser. Vårt exemplar gick att överklocka till hela 310/720 MHz, vilket är mycket imponerande då värstingmodellen Ti4600 körs i 300/650 MHz. Ett Ti4600-baserat kort går oftast att köra i högre frekvenser än detta gick att köra i, men skillnaden är inte tillräckligt stor för att motivera det högre priset. Ti4400-baserade kort går oftast att köra i ungefär samma frekvenser som detta kort, därför finns det ingen direkt anledning att satsa på ett sådant kort då de oftast är ganska dyra. Dessutom säger de senaste ryktena att Ti4400 kommer att sluta tillverkas då det inte finns någon riktig marknad för det då priserna på Ti4600 är nere på ungefär samma nivå som Ti4400.

Sammanfattningsvis så är Albatron GeForce 4 Ti4200 P Turbo ett mycket bra val bland de Ti4200-baserade korten. Det enda problemet är att det faktiskt inte finns några återförsäljare av Albatrons grafikkort i Sverige. Därför kan vi bara spekulera kring priset, men en bra gissning är att det hamnar mellan 2200 och 2500 kr. Om kortet hamnar i denna prisklass så är det ett mycket bra och prisvärt alternativ. 

Fördelar Nackdelar
Hög prestanda Ingen DVI till VGA-adapter medföljer
Bra kylning Obefintlig tillgänglighet
Mycket hög överklockningspotential  
Prisvärt alternativ till Ti4600- korten  



27/09-02 | Daniel Rufelt | xx@64bits.se