Side
1 2 3 4 næste »
Gå til:
High-End Grafikkort Roundup Part 2
Af Thomas Christensen | 29-06-2005 | 16140 visninger | 0 kommentarer
Page 1 : High-End Grafikkort Roundup Part 2I
part 1 beskrev vi de 8 testede kort: ASUS AX800PRO/TD (Radeon X800 Pro), Gecube X800 XT PE, ASUS AX850XT PE/HTVD, MSI X850 XT, Gigabyte 3D1 – Dual Geforce 6600GT, Sparkle 6800GT og Gainward PowerPack! Ultra/2600PCX Golden Sample – Geforce 6800 Ultra i AGP samt PCI Express version.
Nu er det så blevet tid til at se nærmere på kortenes billedkvalitet, deres støjniveau, feature, overclocking potentiale og ikke mindst ydelsen samt den afsluttende konklusion. Vi starter ud med buzz word krigen, samt en oversigt over kortenes features.
Buzz word krigenSom den vågne læser sikkert har lagt mærke til, er der endnu ikke nævnt buzz words som shader model 3.0, 3Dc og HDR rendering. Dette vil vi rode bod på her, og vi starter ud med en kort beskrivelse af X800 serien kontra 6800 serien.
Med 6800 serien lancerede nVidia det første shader model 3.0 kort. I DirectX9.0 fik vi en opdatering af vores kære shader model til 2.0, og den byggede nVidia og Microsoft videre på med 6800 serien. I stedet for at kalde det for DirectX9.1, som de gjorde med skiftet fra DirectX8.0 til 8.1, satte Microsoft i stedet et ”c” efter navnet, så DirectX9.0c er blevet identisk med shader model 3.0. Det er dog to størrelser, som ikke er ensbetydende med hinanden, eftersom 6800 serien understøtter visse DirectX9.0c features og X800 serien nogle andre. 6800 serien understøtter FP blending i kraft af shader model 3.0, men må undvære 3Dc komprimeringsteknikken – i det mindste i ren hardware understøttelse, da der er software understøttelse for 3Dc i 6800 serien, og har været det sidste slutningen af 2004 (i det mindste i beta drivere). X800 serien må nøjes med shader model 2.0 (profil b), men understøtter derimod 3Dc, som er en del af DirectX9.0c. 3Dc og Shader Model 3.0 er to vidt forskellige størrelse, men de har mange af de samme karakteristika overfor slutbrugeren, så lad os se lidt nærmere på relevansen af disse buzz words når man står overfor en grafikkortopgradering.
Shader model 3.0 giver programmørerne nogle nye muligheder for dynamic branching og loops, samt ydelsesforbedringer af eksisterende funktioner. Det handler dog langt mere om at gøre arbejdet nemmere for udviklerne, samt give dem nye muligheder. Udviklerne kan dog lave samtlige shader model 3.0 effekter på shader model 2.0 hardware, men visse effekter vil dog kunne afvikles hurtigere på shader model 3.0 hardware eller er nemmere at kode for udviklerne i shader model 3.0. Det handler i langt højere grad om mere frihed til udviklerne, end pænere grafik for brugerne. Dette ses i alle spil der understøtter shader model 3.0, hvor ingen byder på nogen nævneværdig forbedring i grafikken, men i nogle tilfælde kan være hurtigere. Så se nærmere på ydelsen, og ikke at der står shader model 3.0 på kassen, når du skal købe grafikkort. Det er i ydelsen den eneste fordel for brugerne ligger.
Ironisk nok kan samme råd gives når det kommer til ATI’s 3Dc. Her handler det igen mere om at tweake den eksisterende teknologi og give udviklerne nye muligheder, end at give brugerne store ydelsesforbedringer eller store visuelle løft. 3Dc er en forbedring af den eksisterende DXT5 komprimering. Den giver ikke mulighed for at komprimere nye typer data, men i stedet at komprimere visse typer data bedre. Dette gælder ikke mindst for normal maps, som DXT5 har visse problemer med at komprimere samtidig med at holde kvaliteten er i top. Sammen med grafikkortenes RAM båndbredde, har dette begrænset brugen af normal maps. Indtil videre har understøttelsen for 3Dc mildest talt været manglende, og det er et fåtal der understøtter 3Dc. Selv ikke ATI’s top PR spil Half-Life 2 benytter 3Dc komprimering. Det var ellers planlagt, og kom ikke med i den endelig version, men skulle være på vej i game enginen. Det vil dog blive benyttet i langt de fleste kommende game engines og spil. Ligeledes er det et krav i WGF2.0 specifikationerne, og ikke mindst derfor har nVidia nu også hardware understøttelse for 3Dc i deres G70 serie. Det er altså ikke en revolution vi har at gøre med her, og har ikke været en stor nok forbedring til at udviklerne ville skrive det ind i deres eksisterende spil - med undtagelse af FarCry, som dog kun har implementeret det i beta form, og brugeren skal selv slå det til hvis man vil udnytte det.
Sidst men ikke mindst har vi HDR, som er det nyeste buzz word af dem alle. HDR står for High Dynamic Range, og er egentlig ikke en ny og smart grafikkort teknologi. Det bliver dog ofte kaldt HDR rendering, for at specificere det ikke har noget med de andre HDR teknologier at gøre, men kun handler om grafikkort. Det er en måde at gemme farver på, og ikke en smart DirectX feature eller noget ATI og nVidia har udviklet. Derfor har vi reelt ikke en fasttømret standard udviklerne kan bruge, eller et ordentligt grundlag til at sammenligne ATI og nVidia’s HDR rendering muligheder. ATI og nVidia er dog så småt begyndt at snakke om den kommende HDR æra, men før WGF2.0 kommer i slutningen af næste år, er HDR i høj grad et lidt diffust emne. Der er dog to måder at vise HDR farver på, men begge er på børnestadiet, og i højere grad en udnyttelse af den regne kraft og features de nuværende kort har, end en reel HDR understøttelse. Kort fortalt går det ud på at gøre farvenuancerne langt mere klare, og skabe langt mere virkelighedstro billeder. nVidia benytter deres shader model 3.0 understøttelse og 16/32-bit floating point blending til at skabe den eftertragtede effekt. Denne standard bliver ofte refereret til
OpenEXR, da det er dem der står bag denne HDR teknik. ATI understøtter ikke floating point blending i deres nuværende kort, og må nøjes med shader mode 2.0 metoden. Den giver ikke helt samme frihed og nuance muligheder, men er derimod lidt hurtigere. HDR rendering er som beskrevet en teknologi på børnestadiet, og det er ej heller særlig udbredt i spil. Det er derfor ikke overraskende en kæmpe mangel på HDR i spil, og FarCry og Splinter Cell - Chaos Theory er de eneste spil der pt. benytter HDR's muligheder. For FarCry's vedkommende er der også tale om en beta understøttelse, så man må selv lege med det i konsollen, hvis man vil se hvad det kan bidrage til grafikken. Half-Life 2 vil med ”The Lost Coast” udvidelsen tilføje understøttelse for HDR indenfor den nærmeste måned, og understøtte både X800 vha. shader model 2.0 kort samt 6x00 serien og de nye ATI og nVIdia kort. Ligeledes har det kommende Serious Sam 2 spil understøttelse for HDR, ligesom det også benytter 3Dc og shader model 3.0. Der er mange problemstillinger der skal tages høje for før HDR for alvor vil vinde udbredelse, og pt. er anti aliasing f.eks. ikke understøttet. Dette gælder for alle de eksisterende kort, herunder også nVidia's Geforce 7800 serie, men der er muligt ATI's kommende R520 vil give mulighed for dette. HDR er en svær størrelse at vurderer lige pt., da vi ikke har fået demonstreret forskellene imellem de to typer. Vi kender ikke ydelses og den billedmæssige forskel, men alle på nær FarCry har valgt understøttelse for den mere simple version, som ikke kræver floating point blending, og dermed ikke er nVidia eksklusiv indtil R520 kommer (Crytek arbejder dog på at få understøttelse for ATI's X800 serie).
Så kom vi forbi de mest udbredte buzz words, og for alle gælder, at man skal se på ydelsen i stedet for et falsk løfte om at kommende game engines vil ændrer situationen. Hvis man ikke helt er med på hvad de forskellige kort understøtter af disse buzz words, så er 3Dc udover nVidia’s G70 serie forbeholdt ATI’s x700 og X800 serier. Det er dog omvendt med shader model 3.0, som pt. kun er understøttet af nVidia’s 6x00 serier samt den nye 7800 serie. ATI’s kommende serie vil understøtte dette, men de nuværende gør ikke. Hvad angår HDR, så kan man ikke på samme måde tale om understøttelse, men alle de testede kort har mulighed for at benytte HDR rendering. ATI’s kort vil dog kun benytte den mere simple version, hvor nVidia er lidt bedre stillet. Hvor stor forskellen er billede og ydelsesmæssigt kan vi stadig ikke sige noget om, men vi venter spændt på HL2 ”The Lost Coast”. Forvent dog ikke noget der for alvor ændrer den nuværende situation. Hvis der endelig skulle være en grund for at gå op i et buzz word, så er det HDR i kraft af nVidia’s FP blending og ikke 3Dc eller shader model 3.0. Med disse ord er det selvsagt op til en selv, at gå efter kort med den ene eller anden feature, men det er vores klare opfordring, at se på ydelsen eller andre features i stedet.
Features
BilledkvalitetFor at skabe ens og sammenlignelige resultater er alle grafikkort testet af Thomas på en Sony 21" GDP500 i og reference punktet er et Matrox G550 grafikkort.
Når man snakker om billede kvalitet skal man gøre sig klart hvad det er man tester. For hvis man normalt kører sin skærm i opløsninger der ikke overstiger 1280*1024 så er sandsynligheden for at man kan se forskel mellem de forskellige grafikkort minimal. Ved disse opløsninger viser stort set alle grafikkort et perfekt og roligt billede de forskelle der er skal man være feinschmecker for at se. Forskellene bliver dog meget mere tydelige i høje opløsninger som 1600*1200 eller derover. Derfor har vi sammenlignet billedkvaliteten i 1600*1200 32 bit farver og 85 Hz. Vi fokuser på nogle faste områder
1. Farvestyrke af hvid baggrund. Billedet skal være skarpt og der må ikke forekomme flimrer
2. Skarpheden af tekst især i hjørner af skærmen.
3. Kastes der skygger
4. Generelt brug.
I dette roundup har vi som bekendt kigget på en hel række forskellige grafikkort og jeg er ret glad for at kunne sige at der ikke var nogen nævneværdig forskel på de 6 kort jeg havde glæden af at teste. Det var således ikke til at kende forskel på de forskellige producenter og ej heller på ATI eller Nvidia chipsets. De placerer sig alle på niveau med de andre kort der er på markedet i dag.
Betyder det så at alt er perfekt? Nej det gør det ikke for jeg mener stadig billedet er bedre på Matrox kort. Det betyder at der ikke er helt samme ensartethed af billedet f.eks. med store hvide flader. Men indrømmet forskellen er så minimal at man faktisk skal vide hvad man skal kigge efter for at se forskel.
Tidligere har jeg placeret kort på en top 5 liste men da de seneste kort jeg har testet også har levet op til mine krav til billedkvalitet har jeg i stedet opstillet 4 kategorier som jeg fremover vil placere kortene i.
1. Absolut highend.
2. Rigtig god kvalitet
3. Acceptabelt
4. kan ikke anbefales I 1600*1200
Hvor jeg placerer Matrox Parhelia og g550 i gruppe 1 så ryger alle de testede kort i gruppe 2. Forskellen er som beskrevet tidligere umærkelig uanset hvilken producent og chipset man har valgt. Skulle man have en mulighed for at se forskel ville det kræve at man kørte de forskellige kort ved siden af hinanden på ens skærme.
Støjniveau I dette roundup er der 2 meget forskellige typer af kort repræsenteret. Det skal forstås på den måde at måden ATI og nVidia kortene fungerer på er noget forskellig.
Som udgangspunkt virker det nemlig som om at ATI kortenes blæser stort set ikke kører rundt når man bruger det i Windows. Det er ikke helt ved siden af og ifølge det program jeg brugte til at styre blæseren var hastigheden oplyst til 4% af maks. Det betyder at kortene er meget stille når man feks surfer på nettet eller hvad man nu laver ved sin computer. Men til gengæld er alle kortene også ret støjende når der skrues op på 100%.
nVidia kortene på den anden side kører aldrig ned på så lave omdrejninger som ATI kortene og det betyder at støjniveauet er højere på nVidia kortene. Men til gengæld er der ikke så stor forskel på 2D og 3D da støjniveauet ikke øges nær så meget som på ATI kortene.
Hvad man bedst kan lide er naturligvis individuelt så lad os kigge på tallene. Jeg har valgt at stille alle kortene op med et minimum støjniveau og et maksimum støjniveau. Disse tal dækker over automatisk blæser styring på ATI kortene og 50% på nVidia kortene.
Grafikkort | Minimum | Maximum |
Gainward 6800U PCI-E | 40,3 | 45,5 |
Gainward 6800U AGP | 44,0 | 46,0 |
MSI X850XT PCI-E | 39,0 | 52,0 |
Sparkle 6800GT AGP | 43,3 | 47,0 |
ASUS X850XT PCI-E | 39,7 | 51,9 |
GeCube X800XT PE AGP* | - | - |
*det var desværre ikke muligt at teste støjniveau da mit test bundkort ikke understøtter alle grafikkort og dette var desværre et af dem. Det er ikke grafikkortet der er problemer med udelukkende et faktum at bundkort udstyret med en AGP til PCI-E bro ikke altid fungerer perfekt.
Efter testen af alle kort er der foretaget en kontrolmåling for at sikre at det ikke var andet end grafikkortet der udgjorde forskellen mellem de forskellige setups. Alle målinger lå inden for ½ db af hinanden.
Som det ses af ovenstående så er MSI kortet både det mest støjsvage og det mest larmende grafikkort i vores test. Personligt har jeg ikke noget imod at grafikkort larmer i spil så længe det er stille i almindeligt Windows brug. Det bedste kompromis er dog Gainward PCI-E kortet som lå meget tæt på MSI kortet og som samtidig er det mest støjsvage af nVidia kortene. . Underligt nok var det lave støjniveau højere på AGP udgaven men jeg formoder at der er tale om en fejl på den testede blæser.