Tack till Albatron som gjorde denna recension möjlig.
Vi ska nu ta en titt på ett av deras senaste produkter, GeForce 4 Ti4200 P Turbo, och avgöra om det är värt att satsa sina pengar på.
Eftersom detta är den första recensionen av ett GeForce 4 Titanium-kort här på 64bits så tänkte jag snabbt gå igenom dess egenskaper och vilka modeller som finns.
NV25 var utvecklingsnamnet för GeForce 4. Trots att GPU:n
givetvis är
färdigutvecklad så används ibland NV25 när man pratar om
själva GPU:n.
För närvarande finns det tre modeller av GeForce 4
Titanium: Ti4200, Ti4400 och
Ti4600. Nedan ser ni specifikationerna, och skillnaderna mellan de olika modellerna.
Ti4200 (64 MB) | Ti4200 (128 MB) | Ti4400 (128 MB) | Ti4600 (128 MB) | |
Tillverkningsprocess | 0,15 µ | 0,15 µ | 0,15 µ | 0,15 µ |
Antal transistorer | 6,3*10^7 | 6,3*10^7 | 6,3*10^7 | 6,3*10^7 |
GPU-hastighet | 250 MHz | 250 MHz | 275 MHz | 300MHz |
Minnesbuss | 128-bits DDR | 128-bits DDR | 128-bits DDR | 128-bits DDR |
Minneshastighet | 500 MHz | 444 MHz | 550MHz | 650 MHz |
Minnesbandbredd | 8,0 GB/s | 7,1 GB/s | 8,8GB/s | 10,4GB/s |
Instruktioner / s | 1,03* 10^12 | 1,03* 10^12 | 1,03* 10^12 | 1,03* 10^12 |
Specifikationerna är minst sagt imponerande, värstingmodellen Ti4600 klarar av att skyffla hela 10,4GB/s. Notera att klockfrekvenserna är de NVIDIA rekommenderar, i praktiken kan de vara något annorlunda och det är egentligen fritt upp till tillverkaren att (inom rimliga gränser) välja frekvens på både minne och GPU. Vi går vidare och tar en titt på hur NVIDIA åstadkommit denna bandbredd.
LMA II
Minnesbandbredden är en mycket avgörande faktor för ett
grafikkorts
prestanda. LMA II, som står för Light Memory Architecture
II, är NVIDIAs
samlingsnamn för den teknik och de optimeringar NVIDIA
använt för att uppnå den
relativt höga bandbredden hos NV25.
Den gamla tekniken för överföringen mellan minneskontrollern och själva minnet gick ut på att man hade en buss där man hade en kontroller som fick förfoga över minnena. Ponera att bussen är på 128-bit. Detta innebär alltså att varje "paket" data som överförs kommer att ta upp hela bandbredden eftersom det bara finns en minneskontroller. Så om 32 bit data ska överföras så kommer hela bandbredden att användas, och således kommer 75% av bandbredden indirekt att vara outnyttjad. Detta innebär givetvis att man går miste om en hel del bandbredd.
För att lösa detta så använder NV25 något som NVIDIA kallar "crossbar interface". Detta innebär att man istället har fyra stycken minneskontrollers. Var och en av dessa har, via en 32-bits buss, tillgång till de 4 olika undersystemen av minnen som NV25 har. Detta medför att det går att överföra paket ner till 32 bits storlek, vilket leder till att man går miste om mycket mindre bandbredd vid minnesöverföringar. Eftersom varje minneskontroller har tillgång till hela minnet så medför detta att den effektiva bredden på bussen blir på 128 bit. Eftersom så kallad DDR-teknik används så ökas den effektiva bredden på bussen från 128 bit till 256 bit.
Crossbar interface fanns även hos NV20, men med hjälp av optimeringar och höjd klockfrekvens har NVIDIA ytterliga ökat bandbredden mot minnet.
LMA II inkluderar även något som kallas Quad Cache. Quad Cache innebär att man har fyra stycken självständiga caches där GPU:n kan lagra mindre data innan den skrivs till minnet. Varje cache är optimerad för att lagra viss typ av data, t ex texturdata eller vertexdata. Detta medför att prestandan blir bättre jämfört med om man skulle haft en "all-around"-cache som hade hand om all mindre data innan den lagrades i minnet.
Z-buffern är den del av minnet där varje punkts y, x och z-värden ligger. I Z-buffern lagras även information om huruvida en pixel ska vara synlig eller ej. Eftersom dagens spel använder miljontals pixlar blir tar denna buffert givetvis upp relativt stor plats. För att råda bot på detta problem har NVIDIA infört något de kallar för "Lossless Z Compression", fritt översatt komprimering av Z-buffern utan dataförlust. NVIDIA påstår att de lyckats komprimera denna buffert med kompressionsförhållandet 4:1 utan att bildkvalitén på något sätt försämras. Komprimeringen leder självklart till att mindre data måste skyfflas till och från minnet vilket självklart leder till ökad prestanda då andra saker, som t ex texturer, istället kan skyfflas snabbare till och från minnet.
LMA II omfattar även en del andra optimeringar, t ex ett system som gör att pixlar som inte syns renderas. För den som är intresserad av att läsa mer om LMA II så finns det ett utmärkt dokument om detta för åskådning här.
nfiniteFX II
NfiniteFX II är samlingsnamnet för NV25s pixel- och
vertex-shaders.
Vertex-shadern är den enhet i GPU:n som har hand om de
flesta beräkningar i GPU:n.
Jämfört med NV20 (GeForce 3) så har NV25 två stycken
pararella vertex-shaders,
vilket leder till att NV25 kan hantera mycket fler
polygoner än NV20.
Pixel-shadern har hand om beräkningar för optimeringar nere
på pixel-nivå
istället för på polygon-nivå. Även pixel-shadern har
blivit optimerad, men
man har dock fortfarande "bara" en pixel-shader.
En viktig egenskap hos både pixel- och vertex-shadern är att de är programmerbara. Detta innebär att spel och programtillverkare inte är låsta till de olika effekter som finns i GPU:n, utan kan anpassa pixel- och vertex-shaders så att de renderar den effekt som just tillverkaren vill. Detta gör givetvis användningsområdet för GPU:n mycket bredare, och tillverkarna kan i princip rendera vilka effekter som helst (så länge prestandan är accepterbar).
För den som vill läsa mer om nfiniteFX II så tillhandahåller NVIDIA ett utmärkt dokument om detta som finns för åskådning här.
Accuview AA
NVIDIA kallar sin teknik för kantutjäming, Antialising, för Accuview AntiAlising .
NV20 erbjöd tre former av kantutjämning, 2X FSAA, Quincunx
FSAA och 4X FSAA, där
4X FSAA erbjöd bäst kantutjämning men en ganska stor
prestandaförlust.
I och med NV25 har NVIDIA även introducerat en ny typ av kantutjämning som de kallar 4XS FSAA. Skillnaden mellan 4XS och 4X är att 4XS erbjuder ytterliggare bättre kantujtämning, till en ganska liten prestandaförlust.
Accuview AA innefattar även något som kallas Anistropic Filtering. Anistropic Filtering är inte direkt någon nyhet, men ändå en intressant teknik att ta upp. Normalt så avtar bildkvaliten med avståndet i en 3D-scen, och t ex golv i ett spel kan se väldigt suddiga ut på långt avstånd. För att förhindra detta så har man infört Anistropic Filtering, som helt enkelt tvingar applikationen att använda en större textur för att undvika att bilden blir suddig.
För den som vill gräva sig djupare och öka sin förståelse för Accuview AA så finns det ett dokument om detta här.
nView
Sist men inte minst tänkte jag gå igenom det som NVIDIA
kallar nView. nView
är samlingsnamnet för de funktioner för stöd för flera
bildskärmar och/eller
TV-apparater som finns i NV25. Med hjälp av dubbla integrerade RAMDACs på 350 MHz
vardera så går det
utmärkt att använda två stycken skärmar samtidigt, utan att
uppdateringsfrekvensen eller upplösningen tvingas vara
lägre på någon av de anslutna skärmarna.
Den största styrkan hos nView är faktiskt drivrutinerna. I och med att Detonator 40 introducerades så inkluderades stöd för nView 2,0. nView 2,0 inkluderar mängder med funktioner för att göra användandet av flera bildskärmar enkelt, effektivt och användbart.
Givetvis finns det även ett dokument om nView hos NVIDIA, detta går att tanka ner här.
Vad sägs om att lämna den teoretiska världen och se vad Albatrons GeForce 4-kort har att erbjuda?
Pris | - |
GPU | GeForce 4 Ti4200 |
Tillverkningsprocess (GPU) | 0,15 µ |
GPU-klockfrekvens | 250 MHz |
AGP-standard | 4X |
Minnestyp | DDR-SDRAM, BGA |
Minneshastighet | 250/500 MHz (3,3ns) |
Utgångar | 1x D-SUB, 1X DVI och 1x S-Video |
Det enda som, om man ser till ovanstående specifikationer, skiljer detta kort från de flesta andra Ti4200-baserade med 128 MB minne är att tillverkaren valt att köra minnena i 500 MHz istället för 444 MHz som NVIDIA rekommenderar. Det är väldigt vanligt att tillverkare gör detta, då minnena ofta klarar av detta utmärkt och därför att det ger en hyffsad prestandaökning.
I kartongen fann vi detta:Grafikkortet.
4 stycken CD-skivor.
1 manual.
1 S-Video-kabel (1,5 m).
1 composite-kabel (1,8 m).
1 adapter för S-Video till composite.
På kortet ser vi att det finns tre utgångar, en D-SUB, en S-Video och en DVI. Kablar för S-Video medföljer, men även en adapter och extrakablar för vanlig composite-standard medföljer om det är så att man har en gammal TV som inte har S-Video-ingång. Det är bra att kortet har en DVI-utgång, men tyvärr medföljer ingen adapter från DVI till D-SUB. Detta innebär att om man skulle vilja köra två stycken D-SUB-skärmar så skulle man behöva köpa en adapter separat.
Som TV-out-krets har Albatron valt Philips utmärkta SAA7104E-krets. Denna krets är bland de bästa på marknaden, och ger stöd för upplösningar upp till 1280x1024 pixlar. Visserligen finns det inte många TV-apparater som stöder denna höga upplösning, men det känns ändå tryggt att stöd för det finns i kortet.
Kylningen på grafikkortet är en mycket viktig faktor för hur bra kortet går att överklocka. Eftersom just detta kort är avsett för att överklockas så har tillverkaren satsat en hel del på kylningen.Som kylning på själva kärnan hittar vi en relativt stor kopparkylare. Kopparkylare på grafikkort är ganska ovanligt, hittills har vi bara sett det på Abits senaste Ti4200-kort. Kylflänsen är ganska enkelt uppbyggd, med hjälp av kåpans konstruktion tvingas luften att åka genom de smala kopparbladen som finns på kanten av kylflänsen. Luften från fläkten är riktad så att den även kyler minneskylarna runt GPU-kylaren.
På minneskretsarna på framsidan sitter det ganska ordentligt tilltagna minneskylare i aluminium. Som sagt så kyls dessa av luften från fläkten på GPU-kylaren. Minnena på baksidan kyls av något mindre aluminum-kylflänsar, men dessa visade sig klara av sin uppgift alldeles utmärkt då de inte blev särskilt varma.
Ljudnivån på fläkten är inte särskilt hög, men jag skulle inte heller vilja kalla den tyst. Den ger ifrån sig ett något vinande ljud, ett problem som dock de flesta GeForce 4-kort har. Ljudet är troligen inte störande för den normale användaren, men för de känsliga kan det faktiskt uppfattas som något störande.
Då var det dags för kanske den mest intressanta del av denna recension för folk som gillar att klämma ur all prestanda ur sin hårdvara, nämligen överklockningen. Genom ordentlig kylning, Ti4400/Ti4600- kretsdesign och snabba minnen så borde kortet gå att klocka relativt högt.Som vi nämnde tidigare sitter det 3,3 ns-minnen på kortet. Denna siffra är en märkning för hur högt minnena är godkända att köras i. För att få fram hur många MHz detta motsvarar tar man 1000 och delar i detta tal. 1000/3,3 = ca 303 MHz, men eftersom det är DDR-SDRAM-minnen så tar man denna siffra gånger 2. Då får vi ut att minnena bör klara av 606 MHz, alltså en bit över 100 MHz mer än vad kortet körs i från fabrik.
För att testa hur högt kortet gick att överklocka använda vi programmet NVMax 4,02. Vi höjde frekvensen med 5 MHz-steg på kärnan och minnet, och körde sedan 3DMark 2001 för att kontrollera att inga grafikfel uppstod.
Eftersom vi hade mycket höga förväntningar på kortet så började vi direkt med att överklocka det från 250/500 MHz till 300/650 MHz. Detta fungerade utmärkt, och inga som helst grafikfel eller stabilitestproblem uppstod. 300/650 MHz är som bekant standardfrekvensen för Ti4600, och det är mycket imponerande att detta kort utan problem gick att köra i så höga frekvenser. Givetvis nöjde vi oss inte med detta utan fortsatte att höja, denna gång med 5 MHz-steg.
Vid 315 MHz så blev GPU:n ostabil, och vi fick klocka ner den till 310 MHz. Vid 310 MHz var den helt stabil och inga som helst grafikfel uppstod. Detta är alltså 10 MHz mer än vad Ti4600 körs i, vilket är mycket imponerande för ett Ti4200-kort. Minnet fungerade felfritt upp till 720 MHz, i 725 MHz så började grafikfel att uppstå. Kortet var alltså helt stabilt i hela 310/720 MHz, vilket är mycket imponerande.
Vilka program och spel som följer med kanske inte är det viktigaste man tittar på när man väljer grafikkort, men det kan ändå vara kul att veta vad som följer med i mjukvaruväg om man planerar att köpa ett grafikkort.Kortet kommer med fyra olika CD-skivor. På drivrutinsskivan finner vi bland annat refrensdrivrutiner från NVIDIA (version 30.30). Albatron har alltså inte utvecklat några egna drivrutiner eller gjort om de befintliga refrensdrivrutinerna. Detta är dock ingen som helst nackdel då drivrutinerna från NVIDIA är mycket beprövade, stabila och väl utvecklade. På CD:n hittar vi även en registerfil som aktiverar de så kallade CoolBits-funktionerna i drivrutinerna. Med hjälp av dessa kan man enkelt överklocka grafikkortet utan att använda några separata program. DirectX 8.1, WDM-drivrutiner och diverse produktreklam medföljer även.
På den andra program-CD:n finner vi en fullversion av den mycket populära DVD-spelaren WinDVD.
På de två sista skivorna hittar vi fullversioner av shoot-em-up-spelet Serious Sam och motorcykelspelet MotoCross Mania.
Sammanfattningsvis så kan vi säga att mjukvarupaketet som följer med detta kort inte är utmärkande stort, men det är inte för litet heller om man ser till vad för mjukvara konkurrenterna skickar med sina kort.
För att testa grafikkortet användes nedstående system:Genom att ändra frekvenserna på kortet kunde vi jämföra det med "simulerade" Ti4400- och Ti4600-kort. Vi jämförde även korten med ett Radeon 8500LE och ett Radeon 8500-baserat grafikkort från ATI.
3DMark är utan tvekan det absolut vanligaste testprogrammet för att mäta hur ett system presterar i Direct3D. Många av dagens spel baseras på Direct3D, därför är det lämpligt att jämföra hur korten presterar i de olika testerna.
Här syns tydligt hur den ökade frekvensen ger bättre prestanda. Vi ser även att GeForce 4-korten drar ifrån ganska rejält från 8500-korten. Visserligen har de bara 64 MB, men 128 MB-varianterna av dessa kort presterar inte särskilt mycket bättre.
Ökningen till 32-bitars färgdjup ändrade inte resultaten särskilt mycket, de flesta av korten klarade av detta galant.
3DMark i all sin ära, men det är ändå prestandan i de spel där grafikkorten faktiskt ska användas som är viktig. Quake III kan knappast ha undgått någon, spelet hamnar inte särskilt långt ner i listan över världens mest sålda spel. Quake 3 är baserat på OpenGL, och ger en bra bild över hur kortet presterar i spel baserade på detta API. Vi börjar med 16-bits färgdjup för både texturer och rendering:
Här ser vi att skillnaden mellan Radeon 8500-korten och GeForce 4-korten inte är lika stor, men de 8500-baserade kortet kan inte hänga med när frekvenserna hos GeForce 4-korten ökas.
Ändringen till 32-bits texturer och rendering gör att resultatet för de 8500-baserade korten går ner ganska mycket. GeForce 4-korten verkar inte påverkas lika mycket av det ökade färgdjupet.
Unreal Tournament 2003 släpptes nyligen i en demo-version och blev på bara några dagar ett mycket populärt spel. Spelet baseras på Direct3D, och ger ett ypperligt tillfälle att kontrollera huruvida resultaten i 3DMark stämmer överens med resultaten i ett spel. Ändringen mellan 16 och 32-bitars färgdjup i detta spel gav ingen prestandaskillnad. Detta tolkar vi som att det helt enkelt är något fel på demot som gör att, när man kör i "benchmark"-läget, de inställningar för färgdjup som man valt inte används. Det så kallade flyby-testet kördes under alla testerna i detta spel.
Resultatet här stämmer ganska bra överens med resultaten i 3DMark om man ser till den procentuella skillnaden mellan korten. De Radeon 8500-baserade korten har ingen chans att hänga med GeForce 4-korten, speciellt inte i 1280x1024.
För att mäta prestanda i 2D använde vi oss av testprogrammet PCMark 2002. Som namnet antyder är programmet skapat av samma företag som skapade 3DMark, Madonion.
Även här presterar de GeForce 4-baserade korten överlag bättre än de 8500-baserade. Vi ser även att frekvenserna på korten verkar vara mycket viktiga för hur kortet presterar även i 2D.
GeForce 4 Ti4200-baserade är idag ett mycket prisvärt val för den som är ute efter ett grafikkort som presterar bra i spel och inte kostar över 2500 kr. De Ti4200-baserade korten presterar överlag bättre än Radeon 8500LE-baserade kort, som är den närmaste konkurrenten i denna prisklass. Radeon 8500LE-korten är visserligen lite billigare, men saknar det där lilla extra när det gäller prestandan i spel.Ti4200-baserade kort finns det idag en hel uppsjö av, och att välja mellan dessa är verkligen inte lätt. Albatrons kort utmärker sig på flera sätt. För det första sitter det en ordentligt tilltagen kopparkylare på kortet. Tillsammans med krestskortdesignen från Ti4400/Ti4600 och 3,3 ns minnen leder detta till att kortet går att köra i mycket höga frekvenser. Vårt exemplar gick att överklocka till hela 310/720 MHz, vilket är mycket imponerande då värstingmodellen Ti4600 körs i 300/650 MHz. Ett Ti4600-baserat kort går oftast att köra i högre frekvenser än detta gick att köra i, men skillnaden är inte tillräckligt stor för att motivera det högre priset. Ti4400-baserade kort går oftast att köra i ungefär samma frekvenser som detta kort, därför finns det ingen direkt anledning att satsa på ett sådant kort då de oftast är ganska dyra. Dessutom säger de senaste ryktena att Ti4400 kommer att sluta tillverkas då det inte finns någon riktig marknad för det då priserna på Ti4600 är nere på ungefär samma nivå som Ti4400.
Sammanfattningsvis så är Albatron GeForce 4 Ti4200 P Turbo ett mycket bra val bland de Ti4200-baserade korten. Det enda problemet är att det faktiskt inte finns några återförsäljare av Albatrons grafikkort i Sverige. Därför kan vi bara spekulera kring priset, men en bra gissning är att det hamnar mellan 2200 och 2500 kr. Om kortet hamnar i denna prisklass så är det ett mycket bra och prisvärt alternativ.
Fördelar | Nackdelar |
Hög prestanda | Ingen DVI till VGA-adapter medföljer |
Bra kylning | Obefintlig tillgänglighet |
Mycket hög överklockningspotential | |
Prisvärt alternativ till Ti4600- korten |