Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Forum \ Hardware \ Generel hardware
Denne tråd er over 6 måneder gammel

Er du sikker på, at du har noget relevant at tilføje?

r9 280x vs GTX770 hvilket skal vælges??

Af Gæst Gæst4321 | 16-10-2013 10:25 | 2591 visninger | 46 svar, hop til seneste
Skal skifte grafikkort og er lidt i tvivl her. Får det foræret, så det med pris skal ikke med i jeres vurdering. Valget står mellem r9 280x og GTX770 og kun de 2 kort. Det jeg tænker er overall performance og hvad man forventer fra de 2 kort i fremtiden? Hvilket er "bedst" og hvad ville i selv vælge? (hvorfor??) INFO: Forventer at skulle spille i 1920x1080 SLI/Crossfire er bestemt noget jeg kunne finde på senere (men her snakker vi om et halvt år) Er ikke den store battlefield nørd, men vil da komme til at spille det lidt. (Bare så det ikke er det eneste i tager udgangspunkt i)
--
Gæstebruger, opret dit eget login og få din egen signatur.
#1
Grada
Gæst
16-10-2013 10:29

Rapporter til Admin
Der er allerede lidt danske tests af kortet, R9 280X http://hwt.dk[...] http://www.tweak.dk[...] http://www.youtube.com[...] Jeg hopper selv på et R9280X
--
Gæstebruger, opret dit eget login og få din egen signatur.
#2
Gæst4321
Gæst
16-10-2013 10:39

Rapporter til Admin
Når de laver et sådan review tager de jo meget højde for ydelse / pris forhold og det er ikke relevant i mit tilfælde. Men mange tak for links, gjorde mig lidt klogere :)
--
Gæstebruger, opret dit eget login og få din egen signatur.
#3
the688
Guru
16-10-2013 10:44

Rapporter til Admin
280x ser ud til at være rigtigt god værdi for pengene.. men meget "on par" med 770. The AMD Radeon R9 280X has an MSRP of $299. The ASUS R9 280X DC2T has an MSRP of $309. NVIDIA has confirmed that the price of the GeForce GTX 770 is going to remain at $399 for now. Based on the real world gameplay experience, the ASUS R9 280X DC2T is a massive value. Et lidt mere "seriøst" review : http://www.hardocp.com[...]
--
"Nu med 20% mere Satan!"
#4
Grada
Gæst
16-10-2013 10:48

Rapporter til Admin
Hvorfor er det mere seriøst?
--
Gæstebruger, opret dit eget login og få din egen signatur.
#5
Activity
Giga Supporter
16-10-2013 10:48

Rapporter til Admin
Pris/ydelse så 280x. Ellers skal du vente og se hvad 290 non x kommer til at ligge i. ;)
--
Nu med Gigabyte R9 280X OC Version @ 1175 Mhz / 6500 Mhz.
#6
Gæst4321
Gæst
16-10-2013 10:51

Rapporter til Admin
Som jeg skriver er det KUN de 2 kort jeg har at vælge i mellem og ønsker ikke noget pris/ydelse bare rent performance :) men tak alligevel
--
Gæstebruger, opret dit eget login og få din egen signatur.
#7
LaBz
Super Supporter
16-10-2013 10:52

Rapporter til Admin
Jeg har selv for nyligt valgt 770 da jeg tidligere ikke har været glad for amd kort. Men stod jeg lige nu og skulle købe, havde jeg nok prøvet 280x. Okay måske ikke hvis det blev foræret, så havde jeg nok stadig valgt 770, men det bliver jo stadig billigere at køre dual gpu senere hvis du vælger at få foræret 280x nu :)
--
Gamer: i5 4670k / Asus z87-a / Kingston HyperX 1600mhz 16GB / Samsung EVO 250GB / Gigabyte GTX 770 2 GB OC / Corsair RM750W / WD Caviar Black 1TB
#8
the688
Guru
16-10-2013 12:18

Rapporter til Admin
#4 - fordi de tester i mine øjne mere seriøst end de fleste andre sites. Hvor mange bare opgiver en "FPS" uden at fortælle om hvilket map det er, hvilke settings, hvor mange spillere osv, gør HardOCP præcis det. De tester i real-world gameplay, og ikke "indbyggede benchmarks" som producenterne kan tilpasse drivers til. Desuden giver de både et max, minimum og average FPS. De tester strømforbrug, varme og meget andet. #6 - testen er *specifikt* R280 mod 770 - det kan ikke blive ret meget mere relevant for dig. Hvis de to kort er stort set lige "matched", og det ene er markant billigere, så skal man vist have et abstrakt forhold til sine sparepenge, hvis man er ligeglad :)
--
"Nu med 20% mere Satan!"
#9
Grada
Gæst
16-10-2013 12:24

Rapporter til Admin
Man bliver ikke mere seriøs fordi man fortæller hvilken map der er testet i :-) Men hver sin smag, og respekt for det. De danske tests, bliver der ikke brugt "indbyggede benchmarks", hvis du kiggere efter. Så kunne man jo sige det samme om HOL.dk. Læs på udenlandske sites, når I skal have hjælp til Jeres computer problemer, der er meget mere seriøse :-) (no offence) De danske tests, tester også temperaturen, støj osv. Det er jo umuligt at opgive max, minimum og average FPS, da ting som andre specs spiller ind her. Så nej, jeg synes ikke helt jeg kan følge dig, men enig behøver man heller ikke være:-) Jeg er også RET sikker på hardocp benytter sig af lønnet journalister, hvilket jeg ikke tror vi bruger i DK.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#10
Conan
Gæst
16-10-2013 12:35

Rapporter til Admin
#9 "Jeg er også RET sikker på hardocp benytter sig af lønnet journalister, hvilket jeg ikke tror vi bruger i DK. " Ja, for det er meget bedre at anvende en reklamemodel, hvor anmelderne belønnes med testeksemplarer, som de derefter kan sælge. Det gør dem meget mere troværdige, mm. Host, host.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#11
Grada
Gæst
16-10-2013 12:41

Rapporter til Admin
#10 Hvem taler om troværdighed? Nu kunne jeg ikke finde på at handle efter review tests. Jeg bruger dem du oplysende, og danner mig så selv en mening ud fra det jeg læser i reviews og på fora.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#12
the688
Guru
16-10-2013 12:42

Rapporter til Admin
#9 - jeg var sådan set ikke ude på at kritisere de sites der blev linket til, jeg pointerede bare at her var en seriøs test som var præcis mellem de to kort fyren leder efter. Jeg har ikke læst reviews på hverken HWT eller Tweak.dk - men nu kiggede jeg lige på Tweaks test, og der var så vidt jeg kan se ikke nogen beskrivelse af hvordan de tester i f.eks Battlefield. Der står bare at mellemøsten er i krig, og så nogle grafiksettings. Så er der nogle FPS. Hvad er de FPS udtryk for? Max? Average? Over hvor lang tid? Multiplayer? Singleplayer? Hvor mange på mappet? Hvad kan jeg bruge et average til, hvis jeg ikke kan se et minimum. Et spil der kører 150 fps det meste af tiden, men nogle gange når ned på 7 fps, er ikke "spilbart" i mine øjne - men den ville score et fint average. Den viden får jeg på ingen måde ud af Tweak's test. Og så er den komplet ubrugelig, ligesom langt størsteparten af tests fra langt størstedelen af både danske og udenlandske sites. At teste grafikkort på den måde er dybt uprofessionelt, og i mine øjne KOMPLET ubrugeligt - men der skal nok være masser af uerfarne brugere som æder tallene råt. Jeg ved ikke lige hvilken "dagsorden" du har, siden du så ivrigt poster her som gæst, men jeg kan gætte at du nok føler en eller anden tilknytning til et af de sites der blev linket til. Jeg læser normalt ikke danske tests - jeg har nogle udenlandske jeg har brugt i årtier - og efter lige at have skimmet Tweak.dk's test, så har jeg ingen planer om at begynde at læse deres heller. Det har ikke noget at gøre med, om det er Tweak, HWT, eller HOL.dk der laver dem - jeg gider bare ikke læse tests jeg absolut intet kan bruge til. Den her "bandekrig" mellem fanboys af danske sites, må du gerne holde mig helt udenfor. Det er uværdigt, barnligt, og pinligt. Jeg kunne sagtens forestille mig at HardOCP bruger lønnede journalister. Det gør de fleste aviser også. Dem læser jeg også, for at få nyheder. Jeg læser ikke Nationen på EB for at få nyheder. For mig er det ikke nogen "konkurrence" og jeg har fuld forståelse for at danske (og andre) sites ikke har mulighederne og økonomien til at teste alt, og teste specielt grundigt - men så springer jeg bare let og elegant over de tests. For jeg kan intet bruge dem til. Jeg har 4-5 sites jeg læser reviews på, når jeg kigger efter nyt grafikkort - og der er desværre ingen danske imellem. Det har ikke noget at gøre med hvem der er venner med hvem, eller hvorvidt jeg er bruger på HOL.dk - det har noget at gøre med, at jeg vælger at læse der, hvor jeg får den for mig mest relevante information. Og ja, HOL.dk er ikke verdens mest seriøse forum, eller det med størst og bredest viden om computere. Nu er det heldigvis sådan, at man godt kan være herinde, og samtidigt bruge andre fora. Hvorfor har du så travlt med at "kritisere" HOL.dk (no offence) fordi jeg ikke synes at en Tweak-test er brugbar? Det er et internet-forum, ikke min personlige identitet. Hvad andre sites laver, eller hvor jeg har en brugerprofil, ændrer da ikke en hat på, om jeg kan bruge et test fra HOL.dk, Tweak.dk eller et hvilket som helst andet site til noget som helst.
--
"Nu med 20% mere Satan!"
#13
the688
Guru
16-10-2013 12:47

Rapporter til Admin
(og før nogen trækker "men HardOCP er sponserede"-kortet, så ja - jeg er ofte uenig i deres konklusioner, og deres vurderinger af hvad der er pengene værd, og ja, jeg er meget opmærksom på, at bestemte brands får mere forsideomtale end andre. Men som kritisk forbruger kan jeg godt tage nogle data ud af en test, og selv danne mig et billede. For jeg er så heller ikke ude på at "forsvare" HardOCP - som jeg heller ikke har aktier i. Jeg kan bare langt bedre lide deres måde at teste på. Den er ikke 100% reproducerbar, fordi multiplayer er dynamisk - men i det mindste giver den da et billede af real-world gameplay, og nogle data jeg faktisk KAN bruge til noget. At de måske ikke helt matcher dem jeg selv ville få, er jeg godt klar over. Men i det mindste er det data som *kan* bruges. Modsat bare "149 fps!"
--
"Nu med 20% mere Satan!"
#14
EXIA
Monster Supporter
16-10-2013 13:22

Rapporter til Admin
Personlig kan jeg bedst lide techspot og guru3D da de har en bedre oversigt på percentile frame time og inkluderer det i alle GFX tests, så det ikke blot er en FPS oversigt. Det jeg ikke bryder mig om ved HardOCP er at de ikke benytter 100% ens indstillinger til grafikkortene men afstemmer med hvad der er acceptabelt spilbart for hvert kort. Men ellers synes jeg deres test også er gode hvis man bare tage ovenstående forbehold med.
--
*Asus P9X79 Pro|Core i7 3930K|MSI GTX 780 3GB 3-Way-SLI|16GB 1600MHz CL8|Intel 330 SSD OS drive|CM690 nV.Ed.|Tt 1500w|27" PB278Q 2560x1440*
#15
Grada
Gæst
16-10-2013 13:43

Rapporter til Admin
Sites, som det udenlandske du nævner har hardware til at se FPS med, hvor mange andre bruger software, stor forskel
--
Gæstebruger, opret dit eget login og få din egen signatur.
#16
EXIA
Monster Supporter
16-10-2013 13:48

Rapporter til Admin
#15 ? øhh... se MS tider på et ocilloskop og udregne dem til FPS ?
--
*Asus P9X79 Pro|Core i7 3930K|MSI GTX 780 3GB 3-Way-SLI|16GB 1600MHz CL8|Intel 330 SSD OS drive|CM690 nV.Ed.|Tt 1500w|27" PB278Q 2560x1440*
#17
Ilwaz
Nørd
16-10-2013 14:37

Rapporter til Admin
#0 Hvis du får dem foræret? Hvorfor ber du så ikke om et 780 eller 290x?
--
#18
Pelar23
Ny på siden
16-10-2013 14:53

Rapporter til Admin
Jeg ville tage gtx 770. Men det er også fordi jeg har haft problemer de 2 gange jeg har haft AMD, så det er jeg færdig med.
--
#19
the688
Guru
16-10-2013 15:02

Rapporter til Admin
#18 - det skifter lidt. Historisk set har både nVidia og AMD haft deres "rimeligt uheldige perioder" - og nVidia har for en del år tilbage været fanget med "fingrene i kagedåsen" mht. at optimere grafikkortsdrivers specifikt til en bestemt udgave af 3Dmark. Det er nu mange år siden idag, men dengang var mange ude og sværge at de aldrig ville stole på nVidia igen. AMD (ATi) havde selv en fantastisk driver-succes omkring da R9500 og R9700 kom ud, og dengang var det dem der var på forkant, med en betragtelig margin. Det skifter, og det lader til at AMD for tiden er ved at få styr på deres problemer med stuttering i Crossfire - noget der ellers har plaget mange CF-brugere. nVidia har været meget solide i lang tid, men AMD har nu også leveret solidt til gameren i en årrække, så længe man holdt sig fra Crossfire. Der burde ikke være nogen grund til at holde sig fra AMD rent drivermæssigt, og deres kommende "Mantle" projekt - som både kan ende med at blive fugl og fisk. Men interessant er det i hvert fald - og herligt for konkurrencen (og dermed os allesammen) at der sker noget på den front.
--
"Nu med 20% mere Satan!"
#20
JAG
Monster Nørd
16-10-2013 15:35

Rapporter til Admin
#19 Ja som de fleste nok har bemærket er der kun 2 producenter af gamer grafik-kort idag. Som forbruger må man bare læse en masse reviews og vælge det kort som matcher pris/performance bedst. Det ville svare til at der kun var 2 producenter af biler...du kunne vælge mellem VW eller Honda. Jeg holder hverken med nVidia eller AMD. Jeg glæder mig bare over at et enkelt firma ikke har monopol.
--
Konsol? Har ikke lyst til at betale en formue for et nyt aske-bæger :)
#21
Lygtemanden
Nørd Aspirant
16-10-2013 15:39

Rapporter til Admin
Jeg ville da helt klart nappe dette kort http://www.komplett.dk[...] ved 280x fr du også 1 gb mere grafikram.
--
#22
Cojab
Junior Supporter
16-10-2013 15:57

Rapporter til Admin
http://www.edbpriser.dk[...] ville nok vælge dette, jeg har haft et par vapor-x modeller, som jeg har været rigtig tilfreds med. et 9xxx serien og mit nuværende 5870, gammelt men det fungere ganske fint.
--
//Cojab I5 750 @ 3.7 ghz|Corsair H50|Corsair Vengence 8 Gb/1600mhz|Raedon HD 5870|ASUS P7P55D-E Pro|Fractal Design Define R4|SSD 120 GB|4TB
#23
Mower
Monsterbruger
16-10-2013 16:39

Rapporter til Admin
Hvis der er en grund for at købe Nvidia kort for mig, er det nok, fordi den kan køre PhyshX på kortet, og ikke kører på CPU.
--
Intel i7 4770K // Gigabyte Gtx 770 OC, Asus GTX 770 DC II// Fractal Design R2 XL// 16 GB RAM//
#24
gasolin
Ultra Nørd
16-10-2013 16:58

Rapporter til Admin
#23 Og? Bruger PhsyX via cpu så mange % af cpuen? Hvor mange spil understøtter lige PhysX????? Hvor mange spiller DU så af de spil der understøtter PhysX?? http://www.geforce.com[...] http://en.wikipedia.org[...] Upcoming GPU PhysX games http://physxinfo.com[...]
--
#25
JAG
Monster Nørd
16-10-2013 17:00

Rapporter til Admin
Jeg kører f.eks PhysX på cpu , men jeg spiller nu også mest bf3 online.
--
Konsol? Har ikke lyst til at betale en formue for et nyt aske-bæger :)
#26
Mower
Elitebruger
16-10-2013 17:31

Rapporter til Admin
#24 Rolig nu, jeg siger jo bare, at det er der udskiller mellem de 2 korte, jeg er helt enig med r9 280x er bedre for penge, men det er bare at hvis der skulle være en grund for at vælge Nvidia, så ingen grund til at spamme så mange ''?'' :)
--
Intel i7 4770K // Gigabyte Gtx 770 OC, Asus GTX 770 DC II// Fractal Design R2 XL// 16 GB RAM//
#27
gasolin
Ultra Nørd
16-10-2013 17:50

Rapporter til Admin
Enhver moderne cpu kan klare PhysX ;-)
--
#28
Mower
Elitebruger
16-10-2013 17:56

Rapporter til Admin
#27 Har ikke sagt noget, om at de ikke kan :) jeg er hverken Nvidia fans eller AMD fans, grunden til at jeg har 770, fordi jeg fik lavet pc længe før R9 udkom :)
--
Intel i7 4770K // Gigabyte Gtx 770 OC, Asus GTX 770 DC II// Fractal Design R2 XL// 16 GB RAM//
#29
Notional
Maxi Nørd
16-10-2013 18:09

Rapporter til Admin
Ingen tvivl: r9 280x. Grunden er simpel: 280x yder I same omfang som 770gtx, men har 50% mere ram, samt en markant højere bit bus på disse ram. Next gen spil vil bruge langt mere ram end tidligere. AC4 og Watch Dogs anbefaler over 2gb allerede nu. Jeg forstår ikke at NVidia stadig kører med så lidt ram og en så lav bit bus (256 mod 280x's 384), men det kommer klart til at være flaskehalsen I de nye spil. Derudover kommer mantle også sidst på året. Mantle er en stor joker, da vi ikke ved hvor stor forskel vi kan regne med. Vi ved dog at alle EA next gen spil vil være baseret på frostbite's nyeste version, der understøtter mantle (det inkluderer også biowares kommende spil), så der kan være meget at hente her også. Hvad crossfire angår kan 280x sættes sammen med 7970 (280x er bare et rebranded 7970ghz til lavere pris), så det bør køre. Hvad framepacing angår bliver driverne omskrevet fra bunden til at løse det problem og betaerne viser allerede nu betydelig forskel. For alle andre end dig, vil 280x være betydelig billigere også og bør inkludere 3 spil fra AMD.
--
Q9450; Asus P5E64 WS Evolution; 4gb DDR3 1600; RadeOn 4870; Wrapped In Cooler Master 210B Ax1; Dell 2007wfp; Logitech diNovo Laser; Windows 7 B64.
#30
pcspasser
Ultrabruger
16-10-2013 18:24

Rapporter til Admin
#29 som jeg har forstået det mht. game bundle, så er det ikke game bundles til r9 280x endnu. Det kan komme senere, men er ikke med pt. Ellers burde det vel har stået i denne oversigt samt de steder de bliver solgt, hvis det havde været med. http://sites.amd.com[...]
--
Weee...
#31
pcspasser
Ultrabruger
16-10-2013 18:25

Rapporter til Admin
#32
AppleSucks
Elitebruger
16-10-2013 18:26

Rapporter til Admin
#29 http://www.tomshardware.com[...] Ja sikke de 3GB og høj bit gør en forskel.. Hvornår fatter folk at ram mængde ikke er afgørende? Især ikke på et 2500 kroners kort som med 99.9% sandsynlighed skal bruges til 1080p. Derudover sammenligner du to forskellige arkitekturer, det giver ingen mening.. Nvidia har intet problem haft med at matche AMDs kort. Kepler arkitekturen har slet ikke brug for masser af båndbredde. Tror du ikke Nvidia har lidt styr på hvad de laver? Og Mantle bliver en fuser, vent og se :-)
--
i7-4930K @ 5 GHz. 32GB G.Skill TridentX @ 2400/CL9. EVGA GTX 780 Hydro Copper @ 1320/1800 3-way SLI.
#33
the688
Guru
16-10-2013 18:55

Rapporter til Admin
#32 - dagens fanboy-indlæg! Nice! Der er tilgengæld meget der tyder på at 8 GB system-RAM er ved at være i underkanten, til f.eks BF4. Initially we began testing with just 8GB of system memory in the review system. After a significant amount of gameplay, we were noticing that 8GB of memory may not provide enough space for the game. We were experiencing memory being swapped out to the hard drive in virtual memory, meaning we were exceeding 8GB of RAM and this was affecting our smoothness and performance. We upgraded our test platform to have 16GB of system memory, which is the level that we performed all of our graphed testing at here today. Subjectively, there did feel like there was a difference in the overall gameplay experience by utilizing a larger amount of memory.. http://www.hardocp.com[...] Men det er langt fra alle spil - hvis nogen overhovedet - i dag som "kræver" 3 GB VRAM. Det ændrer dog ikke ved at 770 og R280 performer stort set ens, og R280 er markant billigere - OG har ekstra RAM - og så er det svært at argumentere for at vælge kortet fra, uanset hvor meget nVidia måtte have "styr på det".
--
"Nu med 20% mere Satan!"
#34
Notional
Maxi Nørd
16-10-2013 19:06

Rapporter til Admin
#32 Hvornår fatter folk at tingene ændres drastisk når next gen spil udkommer? Det er rigtigt at indtil nu, havde man ikke brug for mere ved 1080p, da det stort set kun var opløsningen, der bestemte ram. Læg venligst mærke til ordet "var". Du tror da ikke at et spil som The Division med open world, lang udsigt, high res teksturer og stor variation og detaljegrad i alt på jorden ikke kræver mere ram? Skyrim kan allerede moddes til at bruge over 2gb og det er prev gen og kan stadig køre fornugtigt på et 280x. Tænk før og efter next gen, når du kigger på hardware. Før next gen er en i5 også det bedste. Efter next gen er det muligt en i5 kun vil kunne trække medium med sine 4 trade. Hvad dit link angår kan jeg jo citere: "Nvidia's dual-GPU board felt choppier, despite its high frame rate. This could be attributable to its 2 GB of memory per GK104 GPU." Hvad mantle angår kan ingen konstatere noget, andet end at det er udviklerne, der har efterlyst det og at mantle ser ud til at blive brugt på begge de nye konsoller.
--
Q9450; Asus P5E64 WS Evolution; 4gb DDR3 1600; RadeOn 4870; Wrapped In Cooler Master 210B Ax1; Dell 2007wfp; Logitech diNovo Laser; Windows 7 B64.
#35
LaBz
Super Supporter
16-10-2013 19:09

Rapporter til Admin
Stakkels trådopretter :) Han må da sidde og klø sig i nakken lige nu, over diverse inlæg :) #0 Hvis du hverken er OC'er som vil vide hvad overclocker bedst, eller vil undersøge hvilket et af de to kort, som kører bedst i netop de spil du gerne vil spille, så tror jeg ærlig talt du vil blive glad for ligemeget hvilket du vælger. Jeg er selv glad for mit 770, og er lidt nvidea "fanboy", men tøver ikke med at foreslå 280x som et godt kort i evt. nye builds. Så især hvis du tænker at du gerne vil kunne købe et ekstra til SLI/crossfire, så er der jo penge at spare til den tid, hvis du vælger 280x :)
--
Gamer: i5 4670k / Asus z87-a / Kingston HyperX 1600mhz 16GB / Samsung EVO 250GB / Gigabyte GTX 770 2 GB OC / Corsair RM750W / WD Caviar Black 1TB
#36
gasolin
Ultra Nørd
16-10-2013 19:49

Rapporter til Admin
#29 Du kan jo bare vælge et 3 eller 4 gb grafikkort fra nvidia, der er masser af muligheder http://www.edbpriser.dk[...] http://www.edbpriser.dk[...] http://www.edbpriser.dk[...] http://www.edbpriser.dk[...] http://www.edbpriser.dk[...]
--
#37
Notional
Maxi Nørd
16-10-2013 19:54

Rapporter til Admin
#36 Nu nytter det ikke at tælle hverken Titan eller 780 med, da de prismæssigt koster mere end det dobbelte af 280x. Hvad alle de andre angår, så er bus bit'en for lav til at udnytte den ekstra RAM. 770 kommer også i en 4gb udgave, men den er ikke officiel og kommer kun fra 3. parts producenter. 770 4gb er stadig kun 256 bit, så det giver ikke meget mening.
--
Q9450; Asus P5E64 WS Evolution; 4gb DDR3 1600; RadeOn 4870; Wrapped In Cooler Master 210B Ax1; Dell 2007wfp; Logitech diNovo Laser; Windows 7 B64.
#38
gasolin
Ultra Nørd
16-10-2013 20:07

Rapporter til Admin
Jeg ville også helst have haft en gtx 770 men jeg kunne ikke få et nyt gtx 770 til 2153 kr som mit Asus hd 7970 dcuii top kostede, der blev det et hd 7970 ellers skulle jeg nøjes med et gtx 760. Ikke at der er noget i vejen med et gtx 760 men et hd 7970,R9 280x yder altså bare som et hd 770 og har 3 gb vram
--
#39
MaxXX
Semi Supporter
16-10-2013 21:55

Rapporter til Admin
Tag et 770, sælg det, og køb et 280x
--
#40
las
Super Nørd
16-10-2013 22:15

Rapporter til Admin
280X er bedre set på pris/performance, de er ret lige hvad ydelse angår. De ekstra ram er jo også fint, men vil ikke gøre den store forskel hvis vi kun snakker et enkelt kort. Hverken 770 eller 280x er kraftige nok til at maxe krævende titler ud alligevel og GPUen mister pusten længe før vram bliver et problem ;) #37 Hvad mener du? 256 bit har intet med udnyttelse af rammene at gøre. Selvfølgelig kan man bruge de ekstra ram hvis man køber 4GB kortet.
--
#41
EXIA
Monster Supporter
17-10-2013 01:03

Rapporter til Admin
#40 jo det har det. Det kan godt være du har en stor memory buffer til teksturlagring men hvis vejen (ram bit) er for smal så tvinges der for store teksturer igennem og så opstår en flaskehals. En 4gb ram buffer vil derfor ikke blive udnyttet bedst muligt. Dog ved at køre SLi kan denne ram bit flaske minimeres da de to gpuer sammen giver hastghed nok til at udnytte de 4gb bedre.
--
*Asus P9X79 Pro|Core i7 3930K|MSI GTX 780 3GB 3-Way-SLI|16GB 1600MHz CL8|Intel 330 SSD OS drive|CM690 nV.Ed.|Tt 1500w|27" PB278Q 2560x1440*
#42
ProtonD1200
Supporter
17-10-2013 06:52

Rapporter til Admin
Dem der konstant skriver at de har haft AMD GPU før og skal aldrig have det mere, kan de så ikke lige skrive at det absolut kun kan være i Cross-fire der er problemer. Det er jo ikke alle der skal køre Crossfire. Men så får man jo den at man skal jo se frem i tiden og være forberedt. Alså man starter sku da ikke med at købe en bus fordi man måske ender op med at få 10-15 unger i løbet af årene. Selv bruger jeg et skrammel af en FX4130 & MSI 7870, dem jeg kender bruger Gigabyte 7870, Club3d 7970 og der er aldrig problemer, hvad der så vil komme når man bruger crossfire er noget andet, men mange kan jo idag sagtens klare sig med en ydelse på et enkelt 7970 som jo nu kan købes til 1900kr. Nvidia laver nogle seje kort men det gør amd også, jeg har brugt så mange amd kort tiden igennem og som single kort har jeg ikke oplevet noget. Det er rart at #32 kan sin lektie, han ved hvad det drejer sig om. Nu betyder 3Gb ram så lige pludselig ikke noget som han udtaler sig om i kort op til 2500kr. Hvorfor er det så at R9-280X render fra et GTX770 hver gang at vi kommer op i høje opløsninger, jeg troede selv det var pga Ram mængden, for det kan jo ikke være fordi at R9-280x er BEDRE en GTX770.
--
#43
Mcbutt
Nørd Aspirant
17-10-2013 08:27

Rapporter til Admin
#0 mit forslag ville indtil videre lyde på et sapphire 280x Toxic hvilket jeg også selv har øje for.. Desuden kommer de nye kort jo også til at yde mere efterhånden som driverne bliver optimeret. Her er lidt læsning: http://www.anandtech.com[...] http://www.tweaktown.com[...]
--
Phenom II X4 965 | ASUS M4A79T Deluxe | Kingston 8GB DDR3 |Sapphire HD5850 | Corsair H50 | Corsair HX750W | WD raptor & Greenpower
#44
las
Super Nørd
17-10-2013 10:43

Rapporter til Admin
#41 Hvordan skulle det blive bedre i SLI når der gemmes præcis det samme i rammene på alle kortene og de individuelt kører med 256 bit? #43 "Nye kort" - 280X er sådan set bare et 7970 GHz, ikke meget optimering at hente her
--
#45
Survey
Elitebruger
17-10-2013 11:15

Rapporter til Admin
http://www.hwcompare.com[...] umiddelbart ville jeg vælge et gtx 770 som single kort uden krav om flere skærme og heftig rendering - og tilsvarende 280x ved flere skærmssetup eller rendering. på nuværende tidspunkt er det jo utroligt svært at udtale sig om hvordan drivere og programmører vil udnytte sli/xfire i fremtidige spil
--
#46
EXIA
Monster Supporter
17-10-2013 12:04

Rapporter til Admin
#44: Fordi du øger GPU ydelsen via to kort der så godt nok stadig kører på to 256bit busser men som nu arbejder parallet om tilgangen til 4GB memory bufferen, derfor. Dog ændre det ikke fakta at 256bit bit bussen til 4GB ikke giver nogen væsentlig fordel over 256bit bus til 2GB. Samme problematik var oppe at vende da GTX 680 2GB/4GB SLi vs HD 7970 3GB CrossFire... ikke noget nyt faktisk.
--
*Asus P9X79 Pro|Core i7 3930K|MSI GTX 780 3GB 3-Way-SLI|16GB 1600MHz CL8|Intel 330 SSD OS drive|CM690 nV.Ed.|Tt 1500w|27" PB278Q 2560x1440*

Opret svar til indlægget: r9 280x vs GTX770 hvilket skal vælges??

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning