Singel Core vs. Dual Core, igår, idag, imorgon

Inledning
En och en, eller tillsammans
Multitasking
Enkel kärna
Dubbla kärnor
Presler
Testsystem
Subjektiva tester
Prestandatester - Program
Prestandatester - Spel
Framtiden

Tack till Intel, som gjorde denna recension möjlig.


31/03-06 | Niclas Alfinson | niclas alfakrull 64bits punkt se


Inledning

Processorer med dubbla kärnor har länge varit efterlängtade inom datorvärlden. Många användare har insett fördelarna med parallell exekvering av trådar. Tidigare har detta fenomen enbart varit möjligt genom specialprodukter som moderkort med fler än en processorsockel och processorer som kan arbeta ihop. Sådana lösningar har varit dyra jämfört med de standarddatorer som de flesta konsumenter använder sig av, och därför har dessa system i princip enbart använts i speciallösningar så som servrar och/eller arbetsstationer där två till åtta processorer varit standard.

AMD och Intel har den senaste tiden börjat implementera två enskilda kärnor på en och samma processorförpackning. Detta har medfört att användaren numera kan dra fördel av att kunna exekvera flera parallella trådar, utan några speciallösningar. Jämfört med vanliga enkel-kärniga processorer skiljer priset bara nämnvärt och det är ingen tvekan om att många tror, och hoppas, att detta är framtiden.

Ytterligare något som har lett fram till denna lösning är att man har stött på en barriär, man kan helt enkelt inte öka råprestandan hos processorn i samma takt som tidigare genom att öka antalet MHz, och då var/är man tvungen att se sig om efter andra lösningar. En av de mest lovande lösningarna är just processorer med flera kärnor.

Vi har i följande artikel tänkt diskutera kring enkel-kärniga och dubbel-kärniga processorer. Vad är det som lett fram till denna utveckling och vad behövs för att det skall fungera samt hur ser framtiden ut? Utöver detta är en subjektiv analys inkluderad, hur känns det att arbeta på en dator med fler än en processor/kärna, och i så fall när samt hur märker man skillnad. Detta är alltså inte tänkt som någon utvärdering av de enskilda delarna, sådan finns det tillräckligt av på Internet, men några siffror och diagram kommer trots allt vara inkluderade. Trevlig läsning!

En och en, eller tillsammans

Det finns idag tre olika sätt att producera processorer med dubbla kärnor på. Det första är att helt enkelt sätta ihop två kärnor direkt på kiselplattan (materialet som processorkärnorna tillverkas av) vilket var vad Intel gjorde med sin första processor med två kärnor, Pentium D8XX (Smithfield). Det är också denna metod AMD för tillfället använder sig av. Det andra sättet är att ta två enskilda kärnor och helt enkelt binda ihop dem på själva processorförpackningen, kretskortet som gör det möjligt att ansluta kärnorna till moderkortet. Det är den senare metoden som Intel för tillfället använder sig av till Pentium D9XX-processorerna (Presler). Det tredje metoden är att ha två kärnor sammanbundna internt direkt via kislet, detta anser många vara framtiden och Intel kommer att gå över till denna metoden när nästa generations konsumentprocessorer lanseras senare i år (Conroe och Merom).

Nackdelen med metod ett, två enskilda kärnor sammankopplade direkt på kiselplattan, är uppenbara om man förstår hur processortillverkningen går till. Eftersom man bygger upp processorkärnan genom att belysa kiselplattan får man ett bestämt antal kärnor/processorer per kiselplatta. Eftersom tekniken är så pass avancerad kommer man aldrig att få hundra procent perfekta kärnor varje gång och en viss variation kommer då att förekomma, detta är anledningen till att alla processorer inte klarar samma hastighet. Om kärnorna då är sammansvetsade direkt på kiselplattan kan den ena vara icke fungerande medan dess broder fungerar perfekt. Då är det omöjligt att sälja denna kombination som en processor med dubbla kärnor eftersom den ena kärnan är icke fungerande, utan istället får man inaktivera den icke fungerande kärnan och sälja den som en vanlig enkel-kärnig produkt. Med hjälp av metod två kan man fritt välja ut valfria kärnor över hela kiselplattan (de behöver alltså inte sitta bredvid varandra) som fungerar som de skall och sedan koppla samma dessa för att få en dubbel-kärnig processor. På så sätt blir nyttjandegraden högre och det blir lättare att para ihop kärnor som klara samma hastighet vilket håller nere kostnaden. Valet mellan metod ett och två är alltså en kostnadsfråga. Det är till viss del lättare att använda sig av metod ett, men metod två där man parar ihop lösa kärnor, ger enorma kostnadsfördelar.

I metod tre, som troligen kommer att bli den mest använda inom kort, delar de båda kommunikation mellan sig själva utan hjälp av systembussen. AMDs processorer med dubbla kärnor kan till viss del redan idag kommunicera med varandra utan något som helst behov av systembuss, men kärnorna har fortfarande enskilda cacheminnen. I metod tre som troligen kommer att bli den mest använda inom kort delar de båda kärnorna en viss del av cacheminnet (vanligtvis nivå 2-cachen) internt vilket gör att de kan samarbeta på ett mer effektivt sätt, samt avlasta systembussen.

Multitasking

För att förstå den fundamentala skillnaden mellan en och två kärnor på processorn krävs en förståelse över hur mjukvaran använder dessa. Enklast är att börja längst upp i hierarkin, hur operativsystemet behandlar och prioriterar olika processer/trådar.

Om ni försöker att skala en banan och ett äpple på samma gång märker ni snabbt att det i praktiken är omöjligt, och man ställs då inför två val. Antingen skalar man först bananen och sedan äpplet, eller så byter man snabbt mellan dem i korta intervall. Man kan alltså först skala lite banan, sedan lite äpple och så vidare tills båda är skalade. Det är enligt den sista principen som de flesta moderna operativsystem idag fungerar. Med hjälp av en schemaläggare kan processer som är klara att köras ställas i kö för att prioriterad turordning exekveras.

Schemaläggaren är en del av operativsystemet kärna och dess uppgift är att se till så alla processer som behöver exekveras kommer så att göras på ett ordnat sätt. Den ser alltså till så att en process inte tar åt sig hela processortiden och att en annan process inte ”svälts” till döds, alltså aldrig får exekveras. Detta görs genom att dela upp den tillgängliga processortiden i ett antal mindre tidsluckor. När processen som blivit tilldelad tidslucka N är klar kommer tidslucka N+1 bli tilldelad till nästa väntande process. Detta gör det möjligt för en modern dator att arbeta med flera moment ”samtidigt”. Anledningen till att samtidigt är satt inom citationstecken är att två processer aldrig kan köras exakt samtidigt med enbart en processor, men ur användarens synvinkel sker flera saker på samma gång.

Antag att du startar en rendering av en 3D-modell. Utan någon form av schemaläggning i operativsystemet skulle denna process monopolisera hela processorn och inga andra processer skulle få tillgång till denna förrän flera timmar senare när renderingen är klar. Med hjälp av schemaläggaren kan du fortsätta arbeta med datorn eftersom andra processer blir tilldelade tidsluckor. Dock märker man rätt snabbt att systemet arbetar med annat eftersom responstiden ökar markant om en tung process ligger i bakgrunden och tar åt sig en massa resurser.

Naturligtvis finns det nackdelar med schemaläggning av processer med hjälp av tidsluckor. Tänk er själva ett fyrvägsstopp med trafikljus. Utan trafikljusen hade det troligen varit kaos, men med trafikljusen blir det en viss dötid mellan att de olika riktningarna skall få rött respektive grönt. Detsamma gäller för de olika processerna. Det tar tid för dem att hämta data när de startas upp i sin tidslucka och det tar tid för den att spara undan datan när operativsystemet beordrar att det är dags att sluta och ge nästa process tillgång till processorn. Om vi startar två olika renderingar samtidigt kommer det i de allra flesta fall ta längre tid att slutföra båda än om vi först startar en renderingen och sedan startar nummer två när den första är klar. Att så är fallet beror helt enkelt på den dötid som uppkommer när processerna skall hämta och spara data i början respektive i slutet på sin tidslucka. Tänk er tillbaka till bananen och äpplet, det tar tid för er att lägga ner äpplet och ta upp bananen och således försvinner det en del tid och det hade troligen gått snabbare att först skala hela bananen och sedan hela äpplet, än att varva mellan dem.

Lösningen på problemet med dötid är helt enkelt att ha en processor till varje process. Detta är som ni säkerligen förstår näst intill omöjligt med tanke på att det är upp till ett hundra olika processer igång samtidigt, men klart är, desto fler processorer desto bättre. För att förbättra upplevelsen för konsumenten har både Intel och AMD börjat satsa på processorer som innehåller två kärnor och därigenom kan exekvera två processer samtidigt.

Enkel kärna

Sedan persondatorns barndom har processorer med enbart en kärna varit standard. Till en början hade operativsystemen inte ens möjlighet till schemaläggning utan alla processer kördes helt linjärt. Det var helt enkelt inte nödvändigt för användaren att ha flera program igång samtidigt. Med tiden utvecklades persondatorerna och med det kraven och möjligheterna. Turligt nog har inte enbart mjukvarans möjligheter gått framåt, utan också hårdvarans hastighet. Genom snabbare processorer har man lyckats upprätthålla användarens uppfattning om att flera saker kan göras samtidigt helt enkelt eftersom det går så snabbt att växla mellan att göra uppgift A och uppgift B. Men i praktiken kan processorn fortfarande bara göra en sak åt gången vilket gör att allt måste ske i turordning och på mycket ordnade former.

I mer avancerade tillämpningar har man också använt sig av flera enskilda processorer för att kunna exekvera flera instruktioner samtidigt. Detta har varit vanligast hos tunga arbetsstationer och servrar där upp till åtta processorer inte har varit allt för ovanligt. Vanligtvis har dessa lösningar varit betydligt dyrare än datorer med enbart en processor vilket har gjort att dessa system aldrig har slagit sig in på konsumentmarknaden i någon högre grad.

För några år sedan blev det klart att utvecklingen av processorernas råprestanda inte skulle kunna ske i samma hastighet som tidigare och det blev tydligt att man behövde se saken från ett annat perspektiv. Eftersom datorerna och användandet av dem hade blivit så pass parallelliserade var det nästan ett självklart steg att börja tillverka konsumentprocessorer med flera kärnor och därigenom öka både den upplevda och faktiska hastigheten.

Dubbla kärnor

Första steget mot dubbla kärnor togs redan 2002 då Intel introducerade Hyper Threading (HT)-tekniken i sina enkelkärniga processorer för konsumentmarknaden. Med HT-tekniken ser det från mjukvaran ut som att man har två processorer/kärnor, men rent fysiskt har man fortfarande bara en. Fördelen med detta tillvägagångssätt är att man kan nyttja processorns fulla effekt på ett bättre sätt. Exempelvis kan olika processer hoppa in och arbeta när den process som just nu använder sig av processorn för att exekveras väntar på någon extern resurs. Detta kan exempelvis inträffa då den aktiva processen väntar på data från grafikkortet eller att data skall läsas in från minnet.

Att Intel (och AMD) skulle ta steget fullt ut och introducera dubbel-kärniga processorer för konsumentmarknaden blev klart kort efter Intels introduktion av HT-tekniken. Det hela blev dessutom ännu mer självklart för Intel när deras nuvarande teknik, NetBurst, som man använde sig av i sina enkelkärniga processorer (Prescott i Pentium 4) hamnade på efterkälken gentemot AMDs i många avseenden överlägsna processorer.

Men det räcker inte med att hårdvaran är kapabel till att exekvera två saker samtidigt, mjukvaran måste också vara uppbyggd så att den kan ge båda kärnorna uppgifter. Eftersom det tidigare har varit ovanligt med fler än en fysik kärna i konsumentdatorer har mjukvarutillverkarna heller inte lagt ner energi på att göra programmen flertrådiga. Med flertrådiga menas att uppgifter kan delas upp i flera parallella instruktionsföljder som kan köras på var sin processor/kärna. I proffsprogram så som tyngre video- och bildredigering har programmen länge varit flertrådiga. Så har varit fallet eftersom det här har varit mer regel än undantag att arbetsstationerna varit utrustade med fler än en processor.

Introduktionen av HT-teknik gjorde att mjukvarutillverkarna blev mer och mer intresserade av att anpassa även konsumentprogrammen för att köras på flera processorer parallellt. Därigenom finns det också en del program som redan var färdiga och kunde dra nytta av processorer med dubbla kärnor när dessa väl lanserades, men majoriteten av program, och framförallt spel, är fortfarande helt enkeltrådiga och kan knappt dra någon nytta alls av fler än en processor/kärna.

Anledningen till att mjukvaran måste följa med i utvecklingen är enkel. Till skillnad från vad många verkar tro presterar två kärnor på vardera 3 GHz inte automatiskt lika bra som en kärna på 6 GHz. Om mjukvara som är enkeltrådig används på processorn som har två kärnor kommer enbart den ena kärnan att användas och den andra kommer att sitta och vänta på arbete, medan om samma program körs på 6 GHz-processorn så kommer den att nyttjas till fullo. Mjukvaran har alltså aldrig varit så viktigt som nu, utan den kommer den nya hårdvaran inte på långa vägar utnyttjas till sin fullo.

Presler

Intels senaste tillskott av processorer med dubbla kärnor för konsumentmarknaden är Pentium D900-serien, eller Presler som deras interna namn är. Skillnaderna mot föregångaren D800-serien (Smithfield) är många. Skillnaden i hur de är uppbyggda, har vi redan nämnt, men faktum kvarstår att Presler enbart är ett par Cedar Mill-kärnor (Pentium 4 6X1-processorer) som har blivit placerade på samma processorförpackning.

Andra skillnader mellan D800- och D900-serien är att den senare har dubbla mängden nivå 2-cache. Istället för 1 MB per kärna har D900-serien hela 2 MB per kärna, vilket totalt ger 4 MB. Detta har man kunnat implementera tack vare att tillverkningstekniken har förbättras. D900 tillverkas med en linjebredd på 65nm, istället för 90nm som hos D800 (och alla dagens AMD-processorer). Fördelen med den sänkta linjebredden är att kärnorna rent fysiskt blir mindre, och det går åt mindre material för att tillverka dem vilket sänker kostnaden.

Ökningen av cache-minnet har varit möjlig på grund av den förbättrade tillverkningstekniken. Att tillverka en processor med två kärnor och 4 MB nivå 2-cache hade inte varit ekonomiskt försvarbart med 90 nm-tekniken, kostnaden hade varit alldeles för hög.

Tack vare att tillverkningstekniken har bytts till 65 nm har energiförbrukningen gått ner något och man har kunnat öka hastigheten från 3,2 GHz per kärna, som var max hos D800-serien, till 3,73 GHz som idag är max för D900-serien (via 965 Extreme Edition).

Dubbla kärnor till trots har Intel valt att för tillfället fortsätta marknadsföra HT-tekniken i vissa processorer som har dubbla kärnor, Extreme Edition-serien. Dessa kan alltså i teorin exekvera hela fyra trådar samtidigt! Dock kan HT aldrig mäta sig med en ”äkta” kärna och prestandavisten är numera minimal när man gått över till dubbla kärnor.

Testsystem

De testsystem vi använde oss av till vår artikel var följande:

Systemet som innehöll en enkel-kärning processor var exakt samma som ovanstående fast med en annan processor. Den som användes här var följande:

Mjukvaran som användes för att utvärdera skillnaden var nedanstående:

Alla testerna kördes tre gånger, sedan räknades ett medelvärde ut mellan de tre resultaten. Om något av de tre värdena avvek allt för mycket, körde vi testet en runda till, och strök sedan det avvikande resultatet.

För att se hur processorerna klarade av olika bakgrundsbelastningar utförde vi våra tester i tre olika fall.

Ytterligare en stor skillnad mot hur vi vanligen utför våra tester är att vi inte använde oss av ett optimerat system. Grafikinställningarna ändrades från standard till att V-Sync var avstängt, kantutjämningen sattes till 2X och ansitropisk filterring sattes till 4X, allt direkt i grafikkortets drivrutin. Utöver detta gjorde vi en normal Windows-installation där Microsoft Office, iTunes, WinAmp och flertalet andra program var installerade för att få ett så verkligt system som möjligt. I vanliga fall när vi utför våra prestandatester ligger ungefär 25 till 30 processer igång i bakgrunden, nu var det hela 55 stycken, vilket är normalt för en dator som används dagligen.

Om inget annat nämns var Hyper-Threading aktiverat på båda processorerna. Upplösningen i alla tester var 1280x1024 pixlar.

Subjektiva tester

Vi börjar med att bedöma de båda systemen helt subjektivt utan några som helst siffror, diagram eller vetenskapliga belägg.

Under normal lätt användning är det omöjligt att säga vilken dator det är man sitter vid. Om man har igång iTunes för att lyssna på musik, sitter och surfar och samtidigt har igång en del program nere i aktivitetsfältet så klarar dessa utmärkt att dela på resurserna hos den enkel-kärniga processorn, Intel Pentium 4 Extrem Edition 3,73 GHz. Om man stänger av Hyper-Threading (HT) märker man i detta läge heller ingen skillnad, utan systemet verkar flyta på utan några större problem. Eftersom den enklare processorn klarar av jobbet galant går det inte märkbart smidigare och snabbare när Intel Pentium D 955 (3,46 GHz) Extrem Edition användes.

När systemet belastades hårdare blev skillnaderna däremot markanta. Om vi har igång samma saker som tidigare fast också startar Microsoft Outlook (med en databas på ungefär 1 GB), Adobe Photoshop CS2 samt startar flere program så som Word, WordFinder med flera går det enkel-kärniga systemet ganska snabbt på knäna och man märker att det är många processer som vill dela på de få tillgängliga resurserna. Vid ett tillfälle skulle ett filter appliceras på en runt 50MB stor bild i Photoshop, samtidigt som vyn skulle bytas i Outlook. Detta resulterade att det tog en bra bit över tio sekunder att gå från mappen Inkorgen till mappen Intel i Outlook, detta med Hyper-Threading aktiverat. Vi replikerade detta så gott det gick efter att inaktiverat HT och det resulterat i att systemets respons blev ännu sämre! När vi senare utförde samma sak på det dubbel-kärniga systemet gick allt betydligt smidigare och det tog bara en bråkdel av en sekund att byta vy i Outlook.

Samma historia upprepar sig gång på gång. Så fort systemet blir något belastat och fler än två-tre aktiva processer vill använda processorns resurser, så ökar reaktionstiden på systemet i sin helhet när en vanlig enkel-kärnig processor används. Det är också vid de här tillfällena som man märker skillnad på om HT är aktiverat eller inte. En så enkel sak som att få upp startmenyn i Windows kan börja ta tid, helt enkelt för att processen som hanterar gränssnittet i Windows måste vänta på att få processortid tilldelad.

På det hela blir användandet av en dator mer mjukt och rappt när man går över till en processor som har möjlighet att exekvera mer än en tråd samtidigt. En av anledningarna är att det oftast är en specifik process som behöver majoriteten av processortiden, exempelvis ett spel, filterapplikation i Photoshop eller någon annan form av beräkning. Eftersom en sådan process lägger beslag på processorn under en längre tid blir resten av systemet och dess processer ignorerade och responsen på systemet i sin helhet blir lidande. På den processor med fler än en kärna kan den tunga processen få en kärna för sig själv och där exekveras fritt. Den andra kärnan kan då användas till att hantera gränssnittet i Windows eller andra grundläggande behov för operativsystemet. Det hela blir ännu mer självklart när man tar i hänsyn till att Windows XP ofta har flera hundra trådar aktiverade samtidigt, som alla skriker efter att få använda den enda processorn som finns i systemet!

I spel som ofta inte är anpassade att köras i fler än en tråd ger dubbla kärnor i sig ingen prestandaökning, utan här är det enbart råprestanda som räknas. När processorn är flaskhalsen i systemet kommer alltså en enkel-kärnig processor med en högre klockfrekvens vara snabbare än en dubbel-kärnig med en lägre klockfrekvens, allt annat lika. Men något man inte skall glömma är att det ofta finns bakgrundprocesser förutom spelet som behöver processortid. Därigenom kan en dubbel-kärnig processor med lägre klockfrekvens (till en viss nivå) i många fall faktiskt vara snabbare än en enkel-kärnig processor även i spel. Detta beror helt enkelt på att den enkel-kärniga processorn måste utföra fler uppgifter än enbart spelet.

För att summera det hela märker man i de flesta fall skillnad även vid Windows-arbete mellan en enkel-kärnig och dubbel-kärnig processor. Responsen på systemet blir betydligt bättre med en dubbel-kärnig processor och man blir av med de flesta små stopp som ofta annars dyker upp, och som är otroligt irriterande. Att sitta och vänta på att Utforskaren skall öppnas, eller att den där menyn skall komma upp i Word kan driva många till vansinne. Men med processorer som kan exekvera flera trådar samtidigt höjs tröskeln markant innan dessa stopp dyker upp i systemet. Så länge prisskillnaden och råprestanda (klockfrekvens) inte skiljer allt för mycket är en dubbel-kärnig processor det självklara valet.

Prestandatester - Program

I Photoshop belastas processorn, minnet och andra delar i stor omfattning när olika beräkningar utförs, bland annat vid applicering av diverse filter på bilder. Vi har därför valt att inkludera ett test med Photoshop i vår artikel och testmetoden kommer från DriverHeaven och heter ”Photoshop Bench V2”. I detta test utförs flera olika moment på en och samma bild och den tid dessa moment tar att exekvera beräknas.

Trots att den enkel-kärniga processorn har en högre klockfrekvens ser vi ingen större skillnad i testet där ingen specifik bakgrundsbelastning finns. Det intressanta är dock att processorn med lägre klockfrekvens (den dubbel-kärniga) presterar bäst! Troligen är orsaken till detta att systemets övriga processer som ligger och körs i bakgrunden kräver en del resurser och därigenom lämnar mindre tid över till Photoshop.

När bakgrundsbelastning med det första fallet läggs på ser vi en markant skillnad på den enkel-kärniga processorn, totaltiden stiger med nästan 60 procent! Skillnaden på den dubbel-kärniga processorn är betydligt lägre, enbart 20 procent. Här ser vi klart och tydligt fördelarna med att ha en processorkärna som kan sköta belastningen från övriga program som man inte arbetar i, och låta den andra ta hand om det man arbetar med för tillfället. När bakgrundsbelastningen förändras till fall 2 stiger tiden för den dubbel-kärniga processorn återigen, medan den enkel-kärniga ligger kvar på samma nivå.


Med hjälp av SuperPi kan man räkna ut upp till 32 miljoner decimaler i den mattematiska konstanten pi. Det finns ett flertal olika test man kan välj på och vi valde det vanligaste, 1 M, alltså räkna ut pi med en miljon decimaler. SuperPi kräver mycket av processorn och är därför ett bra test att jämföra vår processor med enkel kärna mot den som har dubbla.

Vi startade med att enbart köra ett exemplar av SuperPi och mätte tiden. Därefter startade vi två parallella exemplar av SuperPi och startade beräkningarna samtidigt.

I SuperPi-testet blir det ännu tydligare hur stor skillnaden kan vara med dubbla kärnor mot en enkel när två tunga applikationer körs samtidigt. När enbart en SuperPi-beräkning utförs är den enkel-kärniga processorn klart snabbast. Men när två instanser startas samtidigt stiger tiden det tar att slutföra beräkningarna med nästan 50 procent för den enkel-kärniga men enbart åtta för den dubbel-kärniga. Den dubbel-kärniga processorn påverkas nästan inte alls av denna förändring medan den enkel-kärniga går på knäna rejält.

Prestandatester - Spel

FarCry är ett FPS-spel som utspelar sig i exotiska miljöer. Även om spelet har några år på nacken så kräver det en hel del av grafikkortet om man väljer att köra med högre inställningar. Vi testade detta spel genom att använda oss av ett verktyg från Hardware OC, version 1.4.5 anpassad för Far Cry. I detta program valde vi oss att köra testet ”UbiSoft-Volcano" med inställningen "Maximum Details".

Far Cry är det enda spel vi testat som inte har något stöd alls för fler än en processor/kärna. Detta ser vi också ganska tydligt på att prestandasiffrorna inte förändras nämnvärt på den dubbel-kärniga processorn vid de olika belastningarna. Anledningen till detta är att övriga systemet kan köras tämligen ostört på den ena kärnan medan Far Cry håller sig till den andra. Den enkel-kärniga processorn påverkas på liknande sätt som i tidigare tester och sjunker nästan helt linjärt vid de olika belastningarna. Än en gång ligger dessutom prestandan på den dubbel-kärniga processorn med maximal belastning (fall 2) nära de siffror som den enkel-kärniga presterar utan någon belastning alls.


Doom 3 börjar bli ett relativt gammalt spel med dagens mått mätt. När spelet lanserades krävdes det en hel del för att kunna spela i höga upplösningar. Nu nästan ett och ett halvt år senare är det fortfarande mycket ansträngande för datorn. Det har dessutom dykt upp flera nya spel som använder sig av Doom 3-motorn eller en modifierad version av den, exempelvis Quake 4 som vi testar något längre ner.

Inställningarna i spelet var alla standard förutom att detaljnivån ändrades till "High". Testet utfördes med hjälp av det inbyggda tidsdemot som finns till handa i Doom 3.

Doom 3 har inget uttalat stöd för processorer med dubbla kärnor, eller dubbla processorer. Detta till trots kan vi se en tendens till att så faktiskt är fallet, alternativt att motorn är kodad på ett underligt sätt. Prestandan hos processorn med dubbla kärnor minskar linjärt vilket tyder på att den blir mer och mer belastad när bakgrundsbelastning läggs på. I Far Cry såg vi knappt någon ändring alls på prestandan i de olika fallen trots att belastningen på övriga systemet förändrades. Vårt test visar på att processorn med dubbla kärnor i testat utan bakgrundsbelastning i alla fall till viss del klarar av att nyttja de båda kärnorna. När sedan den ena kärnan blir belastad med andra program sjunker prestandan. Ett annat alternativ är helt enkelt att Doom 3-motorn har någon inbyggd bugg mot dubbel-kärniga processorer som gör att den ger övriga program och processer högra prioritet än sig själv vilket gör att dessa program helt enkelt tar åt sig mer processortid än nödvändigt. Något som ytterligare talar för någon form av stöd för dubbla kärnor är att denna processor ger betydligt bättre prestanda utan bakgrundsbelastning än den enkel-kärniga, trots att klockfrekvensen är lägre.

Den enkel-kärniga processorns prestanda minskar på ett liknande sätt som den dubbel-kärniga, och presterar överlag sämre i de tre olika fallen.


Quake 4 är det mest krävande OpenGL-spelet på marknaden för tillfället. Det bygger på en modifierad version av Doom3-motorn. Precis som Doom3 använder sig Quake 4 av högdetaljerade texturer och mycket dynamiskt ljus och skuggor.

Även Quake 4 testades med detalj nivån satt till ”High”. För att få fram verklighetsbaserade prestationssiffror i Quake 4 räcker det inte att köra ett vanligt demo som tidigare. Här rekommenderas det att man testar med hjälp av ett ”netdemo”. Skillnaden är att man via netdemo renderar och beräknar en inspelad nätverksström och därigenom får med exekvering av alla spelkod vilket annars inte är fallet. Den inspelade nätverksströmmen vi valde att använda oss av heter ”Longday.netdemo”. Under alla tester var det inbyggda stödet för processorer med dubbla kärnor/processorer aktiverat (r_useSMP 1).

Quake 4 har ett uttalat stöd för processorer med dubbla kärnor sedan ett tag tillbaka. Det intressanta är att Quake 4 bygger på samma motor som Doom 3 vilket gör att vår slutsats om i all fall ett visst stöd för processorer med dubbla kärnor i Doom 3 blir ännu mer troligt.

De båda processorerna beter sig också på ett liknande sätt i Quake 4-testet som i Doom 3-fallet.

Summering

Genomgående i våra tester ser vi att den dubbel-kärniga processorn presterar bättre än den enkel-kärniga dito. Detta trots att klockfrekvensen är högre på den dubbel-kärniga (3,73 GHz mot 3,46 GHz) och att ingen explicit bakgrundsbelastning körs. Den troliga orsaken är helt enkelt att den dubbel-kärniga processorn på ett bättre sätt kan hantera de krav som systemet i övrigt kräver från processorn i en normalinstallation av Windows. I många fall är det ett flertal program som ligger nere i aktivitetsfältet och kräver resurser, om än små sådana, vilket gör att den dubbel-kärniga processorn presterar bättre. Om spelen dessutom kan nyttja båda kärnorna i processorn blir prestandaökningen ännu mer påfallande. Med andra ord är det ett lätt val vid nyköp av dator, en dubbel-kärnig processor ger betydligt mycket mer, både i form av systemreaktion men också prestanda, om inte klockfrekvens och priset skiljer allt för mycket mellan de två valen.

Framtiden

Både Intel och AMD har officiellt gått ut och sagt att processorer med fler än en kärna är vad de kommer att satsa på i framtiden, och de kommer heller inte stanna vid två kärnor per processor. Redan i början på nästa år kommer Intel att lansera en processor med fyra stycken kärnor i en och samma processorförpackning. Även mjukvarutillverkarna har börjat inse faktum och anpassa sina program till att bli flertrådiga. Nästkommande Windows, Vista, och Office, 12, kommer att vara uppbyggda från grunden för att nyttja dessa nya processorer. Även spel ser ut att gå en ljus framtid till mötes, och vi ser redan idag genom Quake 4 vad som komma skall.

När mjukvaran kommer ifatt hårdvaran blir det ett självklart val att använda sig av fler-kärniga processorer. För det första blir användarupplevelsen mer mjuk och systemet blir inte lika segt och ryckigt när det blir belastat. Andra fördelar är att två kärnor med lägre klockfrekvens inte generera lika mycket energi och värme som en snabbare enkel-kärnig dito. Därigenom kan datorer göras smidigare och tystare genom av minimerad kylning, men samtidigt behålla den faktiska prestandan.

Eftersom den nya generationen konsoler från Microsoft och Sony alla använder sig av huvudprocessorer med fler än en kärna kommer spelindustrin ganska fort att anpassa sig efter den nya tekniken och det kommer att sprida sig även till PC-industrin.

Tekniken med fler än en kärna per processorförpackning är dock fortfarande tämligen outvecklad och de processorer som finns ute på marknaden har stora nackdelar i en eller annan form. Intel 900-serien genererar ofantliga mängder värme vilket gör dem svårkylda och AMDs X2-processorer har problem i sin grundläggande uppbyggnad och kostar betydligt mer än den enkel-kärniga modellen. När man skall hoppa på tåget med fler-kärniga processorer är upp till var och en. Många anser redan idag att fördelarna vara så stora att de går över, medan andra väntar. Anledningen till att många väntar beror bland annat på att tekniken är ny och att många helt enkelt inte känner till den. Ytterligare skäl är att de tycker att processorns pris är alldeles för högt, eller så väntar de helt enkelt på den nya generationens dubbel-kärniga processorer som är uppbyggda från grunden för sitt ändamål, vilket inte är fallet idag. Men faktum kvarstår, inom en snar framtid kommer en processor med fler än en kärna finnas nära dig!


31/03-06 | Niclas Alfinson | niclas alfakrull 64bits punkt se