he he, de har opdaget at HD6990 faktisk var ret hurtigt..Nu skal de lige revidere deres referencemodeller og præsentationsmasterialet....og måske prisen..
--
Asus P8P67Deluxe,Sandy Baby 2600K,Corsair Dominator 8Gb 1600Mhz,HD5830,PSU Coolermaster 1000W Super Silent Pro Gold,Antec Performance One.
Enig med 1#, 2x gtx 580 er ikke nok til at slå 6990.
--
jeg tror helt sikkert at 2 gtx 580 slår 6990. men jeg tror nok de ligger nogen lunde lige godt begge to og man har nok inegn probs med spil nu til dags med dem
--
Apple er noget lort og du bliver skuffet når du har købt det. Dem som siger at de ikke er skuffet lyver.
Ingen tvivl om at 2*580 er hurtigere end 6990, men man sætter ikke 2*580 på hvad der ville blive et 600W kort (500 nvidia-watt)... Spørgsmålet er blot hvor meget de er clocked ned, og hvilket strømforbrug de så ender på.
I øvrigt er det nok ret begrænset hvad de kan skrue på hardwaren indenfor den lille forsinkelse (allerhøjest en bios update) - i hvert fald hvis det faktisk er til salg til den dato. Så de presser måske strømforbruget lidt højere for at komme ovenpå, eller retter på præsentationen.
--
Man skal tænke på at GTX580 altid har været hurtgiere end HD 6970, og at 6970 har været en konkurrent til GTX570. Så det at sætte to GTX580 sammen, burde jo være kraftigere.
--
Kører AMD style :b
AMD Phenom II X4 965 Black Edition 3.40 Ghz - 8 Gb ram DDR2 - 750 GB Harddisk - GT 220 1 GB - ATX 520 Watt - Win 7 64-bit.
Find lige noget data på at GTX580 SLi ikke er hurtigere end HD6990, for den tror jeg at I skal længere ud på landet med.
Hvor skulle AMD få de to chips fra da de jo ikke har lavet et single GPU kort der er hurtigere end et GTX580 og SLi scallerer næsten 100%?
--
Gigabyte GA-P67A-UD7
Intel Core i7-2600K @ 5,3GHz
4 Gb G.Skill RipjawX PC17000
2 x Gainward GTX580
#5: Sådan kan du ikke slutte, da 580 også bruger markant mere strøm end 6970, og der er grænser for hvor meget strøm et kort kan bruge, så derfor skal 580 skrues mere ned. Så hvad der er hurtigst på fx de 375w som billederne tyder på er ikke lige til at sige.
Men højere strømforbrug vil være til nvidias fordel pga chippens "naturlige" strømforbrug er højere. Så det er fx ret sandsynligt at amd ville vinde på 300W og nvidia på 500W.
--
#7 Okay, men det undrer mig lidt AMD ikke har lavet et kort imod GTX580.
--
Kører AMD style :b
AMD Phenom II X4 965 Black Edition 3.40 Ghz - 8 Gb ram DDR2 - 750 GB Harddisk - GT 220 1 GB - ATX 520 Watt - Win 7 64-bit.
går udfra at de lader sig vente...
--
Gigabyte p55m-ud2||i5-750||8gb Kingston 1333mhz||MSI GTX570||
Energon 650watt PSU||24" BenQ||Razer Megalodon||
Roccat Valo||Logitech G9X
#8 De ved de ikke kan slå det på forhånd, ej .. 580 er satme et ondt kort ingen tvivl om det, og efter AMD købte ATI er det gået lidt ned af bakke, 5870 var jo det bedste single gpu kort i lang tid.
#4 Et almindeligt GTX 580 bruger 244 watt for hele kortet, hvordan kan du så det til 600 hvis der tilføjes én GPU mere ? Det er jo ikke
kun GPU'en der udelukkende bruger de 244w, resten af kortet skal jo også fodres. Vil tro GTX 580 kommer til at bruge i omegnen af 350w
--
Mvh. gQrgh / Mads http://geekentertainment.org[...]
Diablo III og Battlefield 3 countdown!
Citat ToFFo : I mit hoved betyder rød STOP og grøn KØR. #10 gtx 580 har ingen problemer med at bruge mere end 300 watt
--
#11
Nej en femtedel langsommere er vel intet at prale med.... :S
#12
Hvis du lader kortet blive med deres TDP usage måler på så bruger det 244watt, fjerner du den, så slipper det gerne 300-310 watt.... Men hvad med hd6990? Så vidt som jeg ved ud fra instruktionerne på mit bord så er det opgivet til 450watt? Nogle der har glemt det? Ganske rigtigt ligger det omkring 300watt (sådan cirka med et STORT +) men aktivere du dual bios chippen (hvem vil takke nej til det?) Så hedder det altså 450watt.... Nvidia rammer nok også de 450watt, men de bliver nødt til at køre ned for frekvenser osv for at overholde PCI standarden (300watt)
Men hvad betyder det så for os forbrugere?
GTX bliver; Højst sandsynligt hurtigere end hd6990, højest sandsynligt med en bedre køleløsning (de har lært lektien efter gtx480) og højst sandsynligt får vi muligheden for at clocke dyret ind i helvede (selvfølgelig samtidigt med du smelter 24pin stikket på dit bundkort (nogle der sagde gtx 480 tri sli?) og man bliver nok også skrevet på listen over folk der modtager julekort samt en flaske rødvin grundet et indbringende år, fra din lokale el leverandør)
--
Vandmenneske i den helt store klasse
Atlanterhavet er misundelig....
Hvor har i de 2x 580 fra? ;-)
For det første bør i tjekke hvilke chips som hver model anvender, for det andet har nvidia ikke oplyst hvilke chips som produktet anvender....
Sidst men ikke mindst, er der nogen af jer som rent faktisk har set et GTX590, hørt, følt produktet?
Just saying...
--
Events; AOCM(x2),AMD-OC-DK,TweaKING,P55 Challenge,AOCM, Cebit(x4),GOOC.
Powered by; Gigabyte & Corsair
GRÆDER når jeg læser "Gamer bærbar"
Syntes lige der er noget folk glemmer at få med her.
Det er blevet nævnt en gang i denne tråd med at Nvidia brændte fingrende på GTX 480 og syntes AMD har gang i det samme med deres 6990. Altså det larmer jo som en flyvmaskine. Ja det er hurtigt men det var GTX 480 jo også og den fik sku ikke lov til at løbe væk fra den "lille" fejl.
Altså min mening er at bare GTX 590 bare bliver i nærheden af ydelsen af 6990 med en fornuftig køleløsning som de er blevet rigtig gode til at lave her for tiden er det kortet for mig. Forventer dog at det bliver hurtigere. Nvidia vil sku heller ikke tilade at de ikke har det kraftigste kort.
--
|Antec P190|Gigabyte GA-890FXA-UD7|Phenom II X4 965 4.1Ghz|3 x ATI HD4890|Mushkin REDLINE||G15|G35|Razer DA|Crucial C300 64 GB|3 rad watercooling|
#16
Så kan nvidia sagsøge mig hvis de har lyst.
Kortets exhaust er ikke brændende varm, og det larmer ikke vildt meget.
--
Events; AOCM(x2),AMD-OC-DK,TweaKING,P55 Challenge,AOCM, Cebit(x4),GOOC.
Powered by; Gigabyte & Corsair
GRÆDER når jeg læser "Gamer bærbar"
#15
Eller så tog jeg testen for relativ performance i alle opløsninger eller den opløsning storset alle spiller i ikk smarte?
Tænke kan du squ heller ikke, men lad være med at at prale med det.... cykel....
--
Vandmenneske i den helt store klasse
Atlanterhavet er misundelig....
Ro på drenge, vent til kortene og se hvordan de yder hver især.
--
Gigabyte GA-P67A-UD7
Intel Core i7-2600K @ 5,3GHz
4 Gb G.Skill RipjawX PC17000
2 x Gainward GTX580
Selvfølgelig får ATI klø! - Det har de fået de sidste 4 år, så hvorfor skule de ikke også få det igen!
--
Gæstebruger, opret dit eget login og få din egen signatur. #20> lol... Tak for grinet.
Er lidt spændt på at se hvad GTX590 byder ind med - NV skal udrette nogle mindre mirakler for at holde clocks oppe og strømforbruget nede. Men nu var GTX5xx-serien jo også et lille mirakel på det punkt...
--
#20
Nvidia fik klø sidste år men okay ;)
#21
Ja GTX 580 er helt sikkert et MEGET imponerende kort og tror sku nok også de skal få den til at køre monster hurtigt. Har også hørt lidt om at de sørger for at tage de allerbedste chips (altså dem der kræver mindst volt) og bruge dem til GTX 590.
--
|Antec P190|Gigabyte GA-890FXA-UD7|Phenom II X4 965 4.1Ghz|3 x ATI HD4890|Mushkin REDLINE||G15|G35|Razer DA|Crucial C300 64 GB|3 rad watercooling|
# 18 nu er den slags kort beregnet til høje opløsninger. At de bliver testet i lave opløsninger er sgu en gåde
--
#23
Hvad med; fordi over 50% af alle spillere i verden ligger på den opløsning?
Er squ ingen gåde over det her, det er bare ganske enkelt bruger oplysning?
Selv ved 1920x1080 med godt med øjenguf (AA, Tess, DOF osv.) så kan hd6990 let vægtes ned... Spillene bliver jo ikke lettere at afvikle...
http://www.guru3d.com[...]
Bare som et eksempel....
--
Vandmenneske i den helt store klasse
Atlanterhavet er misundelig.... "Simuleret" 590 (dvs 2*580 på de rygtede 600/1200/850 mhz) mod 6990:
http://plaza.fi[...]
Strømforbruget for 590 med screenede chips, lavere spændning og eet print vil dog helt sikkert være lavere end de 2 580 kort.
--
Kølerdesignet ser ud til at minde en del om gtx295-v2:
http://vr-zone.com[...] (og indvendigt sikkert også om 6990)
--