Nyheder
Komplette Geforce GTX 280 + 260 SpecifikationerSkrevet af Thomas Christensen | 28-05-2008 22:29 | 4513 visninger | 27 kommentarer, hop til seneste
Med lige under 3 uger til lanceringen af NVIIDIA's "GT200" chip og de to nye Geforce GTX 280 samt 260 flagskibs-grafikkort, er næsten alle detaljer offentlig kendte, og nu kan vi også sætte mere præcise frekvenser på.
De er ikke videre optimistiske, men ifølge GameZoom skulle GTX 280 modellen have en kerne frekvens på 600 MHz, 1.300 MHz shader enheder og 2.200 MHz hukommelse (effektiv frekvens). Den mindre GTX 260 model skulle ifølge deres oplysninger lande på 575 MHz for kernen, 1.000 MHz for shader enhederne og være udstyret med 1.800 MHz RAM kredse.
De tilføjer desuden, at varmeudledningen lander omkring 236 watt for topmodellen og 182 watt for GTX 260.
Frekvenserne stemmer overens med de seneste (og lettere skuffende) tal for chippens maksimale ALU output på lige under 1 teraflop. Sammen med tidligere oplysninger for GT200 chippen og de to Geforce GTX kort, kommer specifikationerne til at se således ud:
Kort |
Geforce GTX 280 |
Geforce GTX 260 |
Geforce 9800 GTX |
Geforce 9800 GX2 |
Chip |
GT200 @ 65nm |
GT200 @ 65nm |
G92 @ 65nm |
G92 @ 65nm |
Transistorer |
1.400 millioner? |
1.400 millioner? |
754 millioner |
2x754 millioner |
Shader enheder |
240 stk. |
192 stk. |
128 stk. |
2x128 stk. |
Texture samples |
96 stk? |
80 stk.? |
64 stk. |
2x64 stk. |
Kerne frekvens |
600 MHz |
575 MHz |
675 MHz |
600 MHz |
Shader frekvens |
1.300 MHz |
1.000 MHz |
1.690 MHz |
1.500 MHz |
Shader output |
936 GigaFLOPS |
576 GigaFLOPS |
648,9 GigaFLOPS |
2x576 GigaFLOPS |
Pixels/clock (ROP) |
32 stk |
28 stk. |
16 stk |
2x16 stk. |
RAM frekvens |
2.200 MHz |
1.800 MHz |
2.200+ MHz |
2.000+ MHz |
RAM bus |
512-bit |
448-bit |
256-bit |
2x256-bit |
RAM båndbrede |
140,8 GB/sec |
100,8 GB/sec |
70,4 GB/sec |
2x64 GB/sec |
RAM mængde |
1024 MB GDDR3 |
896 MB GDDR3 |
512 MB GDDR3 |
2x512 MB GDDR3 |
Varmeudledning |
236 watt |
182 watt |
156 watt |
? |
Pris |
~600+ USD |
~449 USD |
300-349 USD |
499-579 USD |
- Relaterede nyheder:
Kæft Nogle fede kort fede specifikationer ' og nice med ægte 512Bit lisom på mit hd2900xt.
meeeeen se lige under en teraflop' øvøv
Varme udvikling dem i 3way held og lykke når du enten skal overtale kone eller mor om at få lov til at proppe 2Kw psu i din computer Hehe=D
Og prisen av' 600Usd for GTX280 men ja den slår jo osse 98000gx2 med flere længder meen stadig alt for dyr lisom 9800gx2, bare min mening'
Over and Out -- xeon E3110/HD2900XT/Asus Commando/Corsair Twin xms2/Vand køling/Samsung t166 500gb/
årrh Hold da kæft SutMinFlaske & Sandkasse Det var da et uhyrligt højt watt forbrug de kort ligger for dagen!
Jesus kristus, der kan man da tale om at det virkelig går i den forkerte retning! -- Opteron 185|2x1GB PC4000 G.Skill|Asus A8N32X-SLI|XFX 8800GT|Auzentech X-FI Prelude 7.1|Logitech Z5450, G11 DK & G5|Samsung Syncmaster 205BW AL MAGT TIL RESSOURCE MISBRUG! :D
Lyder sku fedt med det kort, kommer aldrig i mit liv til at købe det med mindre jeg vinder i lotto! :D -- // h3mp Er der nogle der ved hvad idle forbruget ligger på?
Ati's kommende 4870 bruger ved hjælp af en ny teknologi kun 10 watt i idle mode, og mit kriterie for køb af nyt grafikkort afhænger af ultra lavt idle forbrug, så hvis nogen ved hvad det disse monstre bruger, så skriv lige en kommentarer... -- Gæstebruger, opret dit eget login og få din egen signatur. #1
Hvordan slår det 9800gx2 med flere længder synes da de er meget ens man skal jo gange det hele med 2 ved 9800gx2 og så gir det jo næsten det samme?!
Er bare nysgerig har ikke så meget forstand på det?! -- ||E8400||Dominator-XMS2-2X2GB||9800GX2||ASUS-P5N-T-Deluxe||Thermaltake ToughPower-W0131-850W||HD-2X300GB-RAID||Scythe-Ninja-Mini||Antec P182|| #5
med hensyn til rambussen er den jo stadig 256bit på 9800gx2, det er lidt af en tilsnigelse at skrive 2x256 :) -- gigabyte p35-ds3, e8400@4ghz, apack zerotherm btf95,
ocz pc8500, xfx 8800gtx, x-fi,
aerocool nitron, 120mm coolink, corsair hx620 sammenligner man lige med specifikationerne for 4870 vil jeg tro at når der kommer reelle tests op (Nvidia vs Ati), så tror jeg, at forskellen er meget lille mellem gtx 260 og 4870 og gtx280 og 4870X2. så er det da klart bedre at vælge ati frem for nvidia pga chippen er 55 nm og lavere pris samt strømforbrug. Og de vil yde næsten det samme i spil.. måske nvdia vinder med en lille margin. -- Ferskvandspirat - "argg gi mig alt dit guld" Skuffende prognose.
Hvad med bare at skippe kortene ? 8800/9600/9800 gør det jo fint. Jeg springer først med igen på DX11. -- Intel E8500|Inno3D GeForce 9800GX2|Gigabyte GA-P35C-DS3R|AC Freezer 7Pro|4GB Mushkin XP2-6400 CL4|SS SH-S203D|SS 205BW|Antec 900|Corsair TX650W Geforce GTX 280, WOW! 512bit på rambussen, det lyder ikke til at være dårligt, men taget prisen i betragtning så syntes jeg det er lidt FAIL at lave den så dyr.
Nej jeg har nu mere øje for 260'eren, bliver spændende at se nogle bench på de kort.
Jeg forstår bare ikke hvorfor clocks er så lave på dem, altså 600 på kernen og 1300 på shader, hvad sker der for det? -- Though You Die, La Resistance Lives On! 236W ??
Så ser mit X1800XT da pludselig økonomisk ud.
Rart at se de er kommet tilbage til 512bit RAM-bus.
Jeg synes dog der er lidt skuffende at det stadig "kun" er gddr3 der bliver benyttet. havde håbet på at se noget nyere. Men så er der noget at glæde sig til :) -- Nokia?! hvad er nu det for noget gejl?
Det tog [99,6875000000] sekunder at generere denne side Har også tänkte på hvad den lave clocking skyldes #10 mit bud er varmeudvikling, strömforbrug og endda give plads for OC
er der nogen oplysninger om designet tillader evt. gddr5 når GDDR5 kommer ned i pris? der vil den höje ram superhighway (512-bit rambussen) virklige komme til sin ret og ville bringe varmeudvikligen ned og ydelsen op (på en lidt billige baggrund og så kalde det 9900ulta eller 9950gtx) og få det til at ligne at nvidia er blivet lidt grönnere -- My first computer was a Vic 20 at that time computer was new Hvis jeg har råd til at brænde 4000 af på et grafikkort. Så har jeg sku også råd til at betale strøm regningen (den er i forvejen på 11k om året) :-) -- Asus P5E - Q6600 @ 3.6 ghz - 8 GB RAM - Inno3d 8800GT - Lian Li PC-A70B - Thermaltake Bigwater 745 - Dell UltraSharp 2707WFP gad vide om der følger en økomonisk disel generator med i prisen til det Geforce GTX 280 :D -- engang intel! altid amd :) WoW 3 Geforce GTX 280 i tripel SLI, så skal der fandeme games pacman....
Hvad siger du skat?......nej elmåleren er ikke i stykker, den skal dreje så hurtig........ -- Gæstebruger, opret dit eget login og få din egen signatur. #6 mikam – Der står 2x256-bit bred RAM bus pga. der er tale om dette. Hver chip har deres egen 256-bit brede RAM bus, de deler ikke en, så hvordan du får det til 256-bit for GX2 er lidt svært at se.
Du kan ikke direkte sammenligne det med 512-bit bred RAM bus, da der ikke er problemer med data i de forkerte RAM chips, men ikke desto mindre er der tale om 2x256-bit.
#7 marchello – Hvordan delen sammenligner du specifikationer for de to? Det er komplet umuligt, og derfor stiller vi dem aldrig overfor hinanden, samt benytter forskellige termer.
Den eneste konklusion du pt. kan lave, er ud fra G92 vs. RV670. Dvs. se på forøgelserne fra RV670 til RV770 samt G92 til GT200, og derefter sammenligne, men du kan ikke sammenligne shader enheder, frekvenser osv. for to forskellige arkitekturer.
#10 MartinKargo – Umiddelbart må man sige: TDP. De kan uden tvivl presse den mere, men dels rammer de ind i et ret højt strømforbrug, og mit bud er ligeså, at det bunder i yields for en chip, som ikke vil forblive super top chippen i særlig lang tid (mit personlige gæt). -- Mvh. Thomas Christensen GTX2 280..!
Hvem sagde 474watt....!
Det er næsten hele min PSU
Der skal phase skifte køling eller vandkøling til at holde støjen nede. -- ASUS A8N-E
AMD64-3500+ 2200Mhz @ 2530Mhz
GEiL 2x 512mb CL2,5
inno3D 8800GT 512mb Altså, det var bare et bud, hvis de nu fandt på at lave en dual version af den.
Hehe, hvad så med SLI på dual versionen?
948watt....
Tror bare at jeg holder fast i mit 8800GT og ser mig om efter en E8200 istedet for. -- ASUS A8N-E
AMD64-3500+ 2200Mhz @ 2530Mhz
GEiL 2x 512mb CL2,5
inno3D 8800GT 512mb #16
den forklaring forstod jeg intet af, men tak :)
Men jeg mente nok at 512bit er hurtigere end 2x256bit, ellers ville 9800gx2 jo have været et rasende hurtigt kort, hvilket det ikke er når det bliver presset (høje opløsninger, meget AA, mange detaljer). -- gigabyte p35-ds3, e8400@4ghz, apack zerotherm btf95,
ocz pc8500, xfx 8800gtx, x-fi,
aerocool nitron, 120mm coolink, corsair hx620 #16 Ja man skal nok lige huske det er to forskellige arkitekturer. Jeg læste at en shader enhed yder 50% bedre end den gamle, så man kan nok ikke bare sammenligne tallene med den forrige generation/arkitektur.
Benchmarks pleaseee -- #16 hmm skuffende.. troede jeg godt man kunne. hvorfor F... kan man så hele tiden snakke om intel vs amd og nvidia vs ati bla bla bla. et graffikkort er vel for faen et graffikkort ^^. jeg tænker da bare at hvad er det nyeste fra ati og hvad er det nyeste fra nvidia og sammenligner :P men okay hr. klogesen, det kan man så åbenbart ik alligevel.
det eneste måde er så vente på reelle tests i spil og 3dmark ik???????? -- Ferskvandspirat - "argg gi mig alt dit guld" #16 crucial-kid
Hvis du ser på et GX2 kort, og forsøger at sammenligne ydelse mellem et 256 bit og et 512 bit rambus kort. så vil gx2 være MEGET MEGET MEGET tæt på 256 bit kortet.
Fordi et 512 bit single chip kort. er der X antal shadere, ROP's etc til at tilgå en ram bus med 512 MB ram.
Et GX2 kort har 2 chips, med HVER sin ram. DVS ALLE oplysninger skal ligge 2 gange.
Det eneste man dobler op på er GPU ydeevne.
2 x 512 MB ram + 2 x256bit = SLI på 2 kort med 512 MB ram og 256 bit. Det vil IKKE være som 1 kort med 1 GB ram og 512 bit.. SLET ikke.
Alle textures skal jo ligge 2 gange. Alle Vertex / geometri data skal ligge 2 gange. ( REN KOPI ). altså får et GX2 kort INGEN hastighed ud af at have 2 gange ram. i forhold til at køre SLI.
Så renthastigheds messigt kan man sige at man IKKE skal gange 2 på ram bus'ens brede. og mængde. så vil man potientielt kunne ramme et single korts ydeevne med 2x shader, 2x rop ETC.
Det eneste som der er hastigheds boost i. er altså RÅ GPU speed fordi de kan Beregne lige (den ene gpu ) og ulige ( den anden gpu ). pixels/frames/lines. ( ved ikke hvordan nvidia har implementeret det )
Da de 2 gpu'er har samme oplysninger i ram og bruger båndbrede på samme ting så er der ingen ekstra hastighed i den extra ram contra single kortet.. DER FOR er SLI ikke = 2 gange hastighed. med mindre der er en "flaskehals" et andet sted.
men jo jo der er rent fysisk 2 gange ram og rambus. Men da det bliver belastet 2 gange er det kun ½ så godt som 512 bit... -- Gæstebruger, opret dit eget login og få din egen signatur. #22
TIMEOUT, læs lige hvad der står, og hvorfor det er skrevet, i stedet for at tromle af sted med en pointe, som intet har med udsagnet at gøre.
Der blev sat spørgsmålstegn ved en korrekt information, det bliver jeg naturligvis nød til at pointere. Som der også står i indlægget, kan man ikke sådan sammenligne RAM båndbredden på 256 og 2x256, så hvorfor gentage det i form af en rettelse?
Jeg har dog en lille rettelse, for det er direkte forkert, når du skriver, at alle textures og anden data skal opbevares to gange på dual kort. Dette passer simpelthen ikke. Der vil altid være redundant data på dual kort med hver sin RAM bus, og det er en ydelseshæmmer uden tvivl,. men det er ikke alt data, langtfra endda.
Hvis du ikke tror på det, så tænk lige eksemplet igennem for to separate kort. Hvordan vil du kopiere al den data fra GPU til GPU, når de har 90+ GB/sec RAM båndbredde? Skulle de dele al data, ville de selvsagt aldrig nærme sig de 70-80% producenterne stræber efter. Eller hvordan vil du render en scene i f.eks. Crysis med 128MB effektiv lagerplads for en dual GPU med 2x256MB lokal hukommelse?
Ikke at det betyder noget for sagen, men eftersom du spørger, så benytter NVIDIA AFR som default SLI mode (dvs. dit eksempel lige/ulige frames).
Anyway du misforstod fuldstændig indlægget, og jeg er for så vidt ikke uenig i din pointe, men det har bare intet med udsagnet at gøre. -- Mvh. Thomas Christensen "23
jeg indrømmer at mit indlæg var lidt polemisk, selvfølgelig er der to bussser på hver 256bit, men det der generer mig ved disse skemaer, er at de giver anledning til misforståelser, se bare på #5's bemærkning.
så det er ikke forkert information, men vildledende.
men tak for indlæggene, det var meget informativt (denne gang forstod jeg dig, crucial-kid :) -- gigabyte p35-ds3, e8400@4ghz, apack zerotherm btf95,
ocz pc8500, xfx 8800gtx, x-fi,
aerocool nitron, 120mm coolink, corsair hx620 #22 #23 Meget informativt! Der lærte jeg en del. -- //Ewowa #9 Gæst
Hov jeg glemte helt at kommentere dem. De scores er falske, og Nordic Hardware har ENDNU engang bare nakket nogle tal fra en asiatisk side, og påstået det er insider info. Det er bogus tal for ATI kortene, der stammer fra Chiphell eller PCInlife (kan ikke lige huske hvilken af de to) og NVIDIA scorene er ældre scores, og stammer fra CJ, som gav dem videre til VR-Zone.
Jeg ved ikke hvorfor Nordic Hardware laver sådan nogle latterlige news posts, men så længe de får hits er de vist ligeglade om de ripper tal fra andre, og ikke mindst lukker lort ud. De kunne i det mindste skrive, hvor de har dem fra, men de har altså en tendens til at glemme det, når kilden er tilpas ukendt.
Havde ATI scoren været korrekt, havde vi naturligvis posted dem, men de er altså fake – modsat NVIDIA scoren.
#20 ThomasS
Shader enhederne er ikke hurtigere, og ydelseforbedringen kommer i kraft af flere enheder. Sådan er det nu engang, og har været sådan for ATI siden R300 og for NVIDIA siden NV40. Det er nu engang grafikkorts lod at tilføje ydelse igennem flere enheder og funktionalitet igennem flere transistorer per enhed.
#24 mikam
Ja og det er problemet med feature oversigter, men det er ikke desto mindre den bedste måde at præsentere det på. Det er bl.a. derfor vi ALDRIG blander ATI og NVIDIA kort sammen i en feature oversigt, på trods af at det er efterspurgt. Det vil simpelthen give et misvissende billede.
Tag f.eks. sådan noget som texture enheder. Ligesom de andre enheder er de vildt forskellige, og et lige antal kan måske udføre forskellige antal texture samples ved de forskellige formater. Tager du f.eks. G80 kontra G92 på det punkt, vil det egentlige antal enheder være det samme, men antallet af texture samples vil være vidt forskellige, da G92 fik tilført opgraderingerne fra G84/86. Derfor ændrede vi det til samples i stedet for enheder. Selv dette er faktisk lidt misvissende, men korrekt nok til at give et ok billede. -- Mvh. Thomas Christensen Gigabyte bekræfter visse specs for ATI og NVIDIA's opdateringer ifølge HEXUS.
- http://www.hexus.net[...] -- Mvh. Thomas Christensen
Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.
Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.
Opret bruger | Login
|
Du skal være logget ind for at tilmelde dig nyhedsbrev.
Hvilken udbyder har du til internet? 426 personer har stemt - Mit energiselskab (Ewii f.eks) 12%
|