#0 GB er video hukommelse, og er grafik ram, jo flere af dem jo højere skærmopløsning eller flere skærme kan du få.
Disse ting er den vigtigste form factor når det gælder grafikkort:
Clock Hastighed - Dette er hvor hurtigt dit grafikkort arbejder, det vil altså sige at din grafikkort laver udregningerne hurtigere jo højere Clock Frekvensen er.
Bit - Jo højere bit du har på dit grafikkort desto mere hukommelse kan flyttes mellem dit grafikkort og din skærm af gangen, derfor er det oftest as flere bit med lavere clock frekvens er bedre end lavere bits med højere clock frekvens.
Hukommelse, clock hastighed - Jo højere Memory clock speeden er jo hurtigere kan du levere båndbredden fra dit grafikkort og til din skærm.
--
i7-970 @ 3.8GHz, Custom Vand, MSI-L GTX 580 SLI, G1.Assassin, 12GB 1866MHz CL7, AX1200, Corsair 800D, Vertex3 120GB
#0
http://www.tomshardware.com[...] har en række lister og grafikkort og hvilke resultater de har opnået i test. FPS-scoren skal være så høj som muligt, men alt over 60 er reelt overkill.
Hukommelsen på grafikkortet bruges hovedsageligt til textures i spil, dvs. de overflader du ser. Lidt af pladsen bruges på de data der skal beregnes, såsom konturer og ting der bevæger sig. Jo større opløsning, desto mere RAM kræves der for at rumme alle data.
Der er lavet et First Person Shooter der afvikles på grafikkortet - alle textures beregnes fra bunden i real time af GPU'en på kortet.
I Compiz under Linux bruges pladsen til åbne vinduer. Compiz er en 3D-accelereret brugerflade der hovedsageligt kører direkte på grafikkortet.
--
Undskylder grammatikken og stavefejl, men tømmermændene tager sgu over :P
--
i7-970 @ 3.8GHz, Custom Vand, MSI-L GTX 580 SLI, G1.Assassin, 12GB 1866MHz CL7, AX1200, Corsair 800D, Vertex3 120GB
i teorien så ville 24 fps være lige nok til et spil, da det er den frekvens vores øjne arbejder med - Frames Per Second(Billeder i Sekundet) hvis vi har lavere FPS så kan vi registrer det meget tydeligt, dog ser vores øjne stadigt højere FPS mere flydende men vi når en grænse hvor vi ikke kan se forskel.
--
i7-970 @ 3.8GHz, Custom Vand, MSI-L GTX 580 SLI, G1.Assassin, 12GB 1866MHz CL7, AX1200, Corsair 800D, Vertex3 120GB
En anden vigtig faktor er argitekturen, ant. kerner o.l.
--
Gigabyte GA-X58A-UD3R, Core I7 930, Asus GTX460 1Gb DirectCu, Corsair TX850, Corsair 8Gb DDR3-1600mhz, C.M. Z600, Tt Armor+, Samsung F1 1Tb
#4
Grænsen sættes af skærmen. De fleste skærme idag opdaterer med 60Hz. Det er 6 helbilleder pr. sekund. Alt over 60 FPS er reelt spild af GPU-kraft.
Faktisk risikerer man aliasing på billederne ved at ligge højere end 60 FPS.
--
#5 Når du sætter 2 GPUer sammen arbejder de med samme Clock Hastighed, hvorimod bitne bliver fordoblet så i teorien nej, for at kunne få 2 GPUer til at arbejde sammen er de nød til at bruge samme bit teknologi, hvorimod MHz kan være 2 vidt forskellige, men den laveste MHz vil begge grafikkort gøre brug af. Edit: Selvfølgelig hvis du har 2 grafikkort f.eks gtx 580 & gtx 590 og de koster det samme, så er 590 the better pick da det jo er 2 GPUer der er samlet i en, men i teorien så hvis 580 havde 768-bit (som gtx 590 har) men 580 arbejder med 800mhz, ja så er gtx 580 hurtigere. Da 590 kun arbejder med 607MHz.
--
i7-970 @ 3.8GHz, Custom Vand, MSI-L GTX 580 SLI, G1.Assassin, 12GB 1866MHz CL7, AX1200, Corsair 800D, Vertex3 120GB
#7 ? Jeg snakker ikke om hvor stor båndbredde hukommelsen har.
--
Gigabyte GA-X58A-UD3R, Core I7 930, Asus GTX460 1Gb DirectCu, Corsair TX850, Corsair 8Gb DDR3-1600mhz, C.M. Z600, Tt Armor+, Samsung F1 1Tb