Denne tråd er over 6 måneder gammel
Er du sikker på, at du har noget relevant at tilføje?
4GB VRAM vs 8GB VRAMAf Ny på siden Spootnik | 27-09-2016 22:29 | 2617 visninger | 73 svar, hop til seneste
4GB VRAM vs 8GB VRAM, hvor stor er betydningen?
Jeg har et lidt ældre grafikkort, R7 370 2GB, og jeg kan sagtens mærke det halter i tungere spil, især Doom 2016 med textures..
Så oplagt ville jo være at opgradere, hvilket RX 480 Sapphire er målet.
Men 4GB VS 8GB VRAM? Skulle man spare 500kr, eller er 8GB VRAM et must nu?
Nogen erfaringer? --
RadeonWorks
Hvorvidt du har "brug for" 8 GB VRAM kommer selvfølgelig an på hvilken opløsning du spiller i, hvilke krav du har til at "kunne skrue alting op på ultra OMG!!1!!", og hvilke spil du spiller.
Er du en af dem som slet ikke kan spille et spil hvis ikke alle detaljer er skruet helt op, fordi så ser det "uspilleligt" ud, så er 8 GB nok en god investering. Specielt på en 1440p skærm eller derover.
Kan du fint leve med at du skal skrue lidt ned på en setting her og der i løbet af de næste par år, og har du "kun" en 1080p skærm, så er 4 GB næppe et problem.
Der er tonsvis af reviews af kortet, som burde give dig et billede af hvordan kortet præsterer i de forskellige udgaver - dem kan du kigge på. Ellers kan du jo prøve at skrive lidt om resten af din PC, (og din skærm) og hvad du normalt spiller, og hvilke behov du har. -- "ORK SATME!" . -- Too Many Nvidiots --
Sidst redigeret 27-09-2016 22:41 Well, jeg "REGNER" med at investere i denne skærm, en eller anden dag: https://www.proshop.dk[...]
For tiden spiller jeg ikke så meget andet end League of Legends, og det bliver i 1080p, spiller også en masse BF1 - BF4, GTA V.
Jeg har kigget på YouTuberen AdoredTV, men syntes ikke rigtig han besvare spørgsmålet om 8GB VRAM er nødvendigt. Ved godt at ved højere res = højre texture = mere VRAM.
Har en Intel Core Xeon 1231v3. -- RadeonWorks #3 - overvej at læse nogle rigtige anmeldelser, på nogle af de respekterede websites - der er masser af dem. Jeg er lidt skeptisk overfor "youtubere" - det er nok bare mig der er gammel.
Så vidt jeg lynhurtigt kan læse er der også forskel i clockspeeds på 4 og 8 GB versionerne. Men jeg har ikke sat mig ind i det.
Der er nok at tage af :
http://www.legitreviews.com[...]
http://www.eurogamer.net[...]
http://www.hardocp.com[...]
Det tog mig... 10 sekunder.. at taste "AMD 480 4gb vs 8gb" ind i en søgemaskine :)
-- "ORK SATME!" Læser dagligt Guru3D, Digital Foundry.
AdoredTV er nok den mest reliable youtuber derude. Han er ikke sponsoreret af nogen, og hans synspunkter er rigtig gode.
Det kunne godt være, der var nogen der havde erfaringer herinde :D -- RadeonWorks #0 Ingen betydning, med undtagelse af visse high ress texture packs (som ALTID er slamkodet pis, der bare æder løs).
Rx 480 er for svagt i sig selv til at de 8gb bliver udnyttet ordentligt.
How do i know this?
390 og 390X led under samme problem.
-- Hvorfor skulle Polaris 480 have samme problem? -- RadeonWorks #7 Uden at vide det, så ville jeg gætte at det er pga kortets generelle ydelse, der ligger ca på niveau med GTX 970, et 2 år gammelt kort. -- tjoo, men det koster det samme samt er gearet til ny og kommende software, hvilket alt andet end lige vil betyde at det i længden vil rende fra 970. -- #9 Måske! Det er også mit håb at det gør, men jeg kender ikke til lignende episoder i tidligere grafikkort. Men som det er lige nu, så synes jeg bare ikke at RX 480 er super attraktiv alligevel, taget dens pris og ydelse i betragtning ift. Nvidias kamphest. -- et nyere kort, til samme pris. ja, jeg ville ikke være i tvivl om hvad jeg ville vælge. # 6 respondere konsekvent negativt på alt hvad der har med amd at gøre, så det ville jeg ikke lægge meget i. som andre skriver; læs nogle reviews, tests og sammenligninger. De jeg har læst efterlader mig med et meget positivt indtryk af kortet. er dog støt på,et par tests der peger i retning af at asus har lavet et ikke så godt kort, hvad varme og støj angår. msi, hvad enten det er 470 4 eller 8 gb samt 480 msi både 4 og 8gb får meget positive anmeldelser. om det skal være med 4 eller 8 gb. det er nævnt i mange reviews, og de to kort yder stort set ens, alligevel anbefales det, hvis man vil de par hundreder mere det koster, at købe 8gb modellen. Det ville jeg også selv vælge. -- #5 - well, min erfaring er at mit 970 med "3,5 GB" er mere end nok til GTA V i 1440p. Givetvis, ikke på "alt på Ultra", men på ganske høje settings - det kører fint, både i singleplayer og multiplayer, og det samme gælder f.eks ArmA III, Dying Light osv.
Jeg er så ikke en af dem der absolut skal skrue alting op på højeste setting :) Det virker som om der er en hel generation af folk som ikke aner noget om grafikken i spil, og ikke interesserer sig for hvad de forskellige indstillinger faktisk gør for deres billedkvalitet - men som bare ikke *kan* spille et spil hvis ikke alle settings er skruet helt op.
Nogle spil har nogle helt arbitrære settings for billedkvalitet, hvor du faktisk får *bedre* billede ved at bruge custom settings og f.eks andre settings for FSAA og Aniso end dem spillet selv automatisk foreslår i "Ultra".
That said, selvfølgelig ville jeg da gerne have et 1080 eller noget andet voldsomt. Men jeg føler ikke jeg har behovet. Selv hvis jeg havde pengene. Jeg er bare lykkelig over at mine blæsere slukker når jeg ikke gamer, men bare ser videoer, spiller ikke grafik-intensive spil, osv. Det har været min største glæde ved at få mit 970.
Pointen? 4 GB burde være nok, også til 1440p, i rigtigt mange spil. Men selvfølgelig, har du de ekstra penge, så gå da efter det større kort. -- "ORK SATME!" Du virker som en person der skifter grafikkort her år, så hvis du alligevel skifter næste år igen så kan du ligeså godt købe den med 4 GB. Tænker det først en stykke ude i fremtiden vi kommer til og skulle bruge 8 GB Vram.
God dag ;-) -- I5 2500K 3.3 GH--P8P67 PRO--GTX 670--Samsung 830 128 GB--Western Digital Black 500GB--Cool master 700 Watt--8gb 1600 Kingston Hyperx Det jo først når grafikkortet eller grafikkortene har kræfter til at man kan bruge mere end 4 gb vram med fornuftige fps, at det gir mening med 8gb vram istedet for 4gb
Hvad nytter det at have 8gb vram hvis man for max 30 fps med instillinger hvor man bruger mere end 4gb vram og hvis grafikken i spillet sænkes så man for f.eks 60 fps så bruger kortet f.eks max 4gb vram
Skal man bruge mere end 4gb vram skal gpuen da også have kræfterne så man har fornuftige fps, hvor mange spil kan man spille i 1080/1440 med et RX 480 hvor man bruger mere end 4gb vram og samtidig har 60fps -- Christian88 RX 480 er LANGT hurtigere end GTX 970.
I alle DX12 og Vulkan games, er RX 480 superior i forhold til det 3.5GB VRAM fail kort.
Så nej, det halvandet år gamle kort er ikke ligeså hurtigt som RX 480.
RX 480 har også Async hardware support, hvilket intet fra Nvidia hidtil har.
-- RadeonWorks Weide virker JEG som en person der skifter grafikkort hvert år?? -- RadeonWorks TwinX enig, har også selv set nogle reviews på Asus modellen, der virker til ikke at være så imponerende igen.. Desværre. De fuckede også kølingen op på 300-series.
Jeg køber kun MSI eller Sapphire, når jeg vælger AMD. -- RadeonWorks #15 Desværre er virkeligheden jo ikke så lige til. DX11 er stadig meget anvendt, og selvfølgelig er DX12 og Vulkan fremtiden, men der er stadig ikke nok benchmarks til at man kan sige noget definitivt om hvor meget et RX 480 yder bedre end GTX 970 med fremtidige APIs. Jeg håber personligt på, at RX 480 kan tæve både 970 og 1060, men de benchmarks vi ser giver altså meget forskellige indtryk, og netop hyppigheden af anvendelsen af asynchronous compute er stadig ikke noget som vi ved bliver meget udbredt. Det kan da endda også være, at Vulkan bare bliver noget forbeholdt tablet og telefon platformer, og kommer til at lide samme, obskure skæbne som OpenGL.
Jeg vil så gerne have at AMD kan nå Nvidia til sokkeholderne, og at de kan nå en større andendel af grafikkort markedet, for konkurrence er jo noget som vi forbrugere har allermest gavn af - men jeg er ikke solgt på RX 480 endnu, og nogle af disse benchmarks i denne video afslører altså ting, som ikke imponere mig mht. RX 480ens påståede evner: https://www.youtube.com[...] -- #14 - det kommer stadig an på hvad du spiller. Ikke alle spiller Battlefield.
Det er ikke utænkeligt at der er spil som kan have gigantiske textures, og bruge vanvittige niveauer af efterbehandling, uden at det automatisk er spil hvor det giver mening at have vanvittigt mange FPS. Selvfølgelig er der en sammenhæng, men der er altså forskel på hvor meget texturedata der høvles igennem på en gåtur i ArmA3, og så i Call of Duty. -- "ORK SATME!" Christian88
Ingen titler i 2017-2018 er DX11.
Benchmarker du stadig DX10 og bruger det som argurment for at vælge et kort der performer bedre i det? :)
DX11 er out-dated, og ingen upcomming AAA-titler i fremtiden bruger det, så hvorfor vælge et kort, der kun performer godt i forrige last-gen API? Kun en snæversynet person ville lave sådan en investering.
Desuden performer RX 480 også betydeligt bedre i DX11 i MANGE titler, kig evt. Guru3D inden du poster mere Gamernexus :)
Doom 2016 er fx, ikke DX11.
Forza Horizon 3 er ikke DX11.
Og listen vil kun forsætte. -- RadeonWorks the688
Jeg tænker også mest fremtidige spil.
I Doom, struggler mit lille R7 370 med 2GB helt vildt, selv på medium. Den kan slet ikke handle textures, der går ca 20 sekunder til textures på våben er loadet.
Men ved ikke, kunne være man bare skulle smide de 500kr mere i, men jeg må indrømme at jeg lige nu, ikke kan se nogen grund til 8GB VRAM -- RadeonWorks DX11 går ingen steder foreløbig. -- Make it idiot proof and someone will make a better idiot RaGe_22
Hvorfor er der så flere titler der går væk fra DX11?
For eksempel Doom? -- RadeonWorks DOOM kører både med OpenGL og Vulkan API'en og tidligere var Id tech engine kun baseret på OpenGL, så det har intet med DX11 at gøre.
DX11 vil være bagudkompatibel i lang tid endnu. DX12 er i hastig udvikling fordi Microsoft styrer dagsordenenen med Windows 10, pt. giver DX12 mere hovedpine end gavn for flere udvikler.
Når DX12 endelig er fuldt modnet, så er RX 480 slet ikke aktuel mere. -- Make it idiot proof and someone will make a better idiot Men Doom køre ikke DX11, hvilket er det vi snakker om ;)
Og DX12 er færdigudviklet, nu skal devs bare implementere det, hvilket de er i fuld gang med.
Igen, ingen upcomming AAA-titler i 2017-2018 bruger DX11, det er outdated.
Folk bruger heller ikke DX10 mere.
Der er absolut ingen grund til at bruge en dårligere og ældre API, og det tror jeg sagtens at devs er klar over, uden at vi skal sige for meget. -- RadeonWorks #20 Du taler igen om fremtiden. Jeg kender ikke fremtiden, selvom der er mange indikatorer for, hvordan det vil udvikle sig. Jeg vil dog også pointere at der netop nu er rigtig mange DX11 spil, som man kan have glæde af. Jeg er enig i, at det måske giver bedst mening at købe grafikkort efter den bedste præstation i DX12, men igen, vi har ikke ikke nok DX12 titler lige nu til at vurdere, om f.eks. RX 480 yder væsentligt bedre end GTX 970 i forskellige scenarier.
Min personlige problemstilling lige nu er, om et brugt GTX 970 til ca samme pris som et nyt RX 470 vil yde bedre om 2 år. Jeg ved intet med sikkerhed, og selvom der er nogen resultater lige nu, der indikere at RX 470 er et bedre, fremtidssikret køb, så er der bare ikke nok data tilgængeligt til at drage konklusioner.
Men din påstand om, at der er ingen fremtidige DX11 titler, det har jeg svært ved at tro på. Vi ser jo endda stadig spil baseret på DX9. Hvorfor det er, det ved jeg ikke, men jeg kunne forstille mig at nogle har mere erfaring med DX11 end DX12, og derfor vælger at bruge en API, der principelt set er uddateret, men så alligevel ikke.
Jo, i en perfekt verden er AMDs nuværende kort klart at fortrække over endda 1060, men virkeligheden er jo altid mere naunceret end hvad vi kan aflæse i benchmarks og forvente af nye APIs. -- http://www.guru3d.com[...]
Christian88 prøv at gå herind og tjek RX 480 DX11 performance mod GTX 970.
Og jeg kender INGEN AAA-titel der bruger DX9, i 2016, så det må du lige linke til.
Det giver kun mening, at fremtiden ikke bruger DX11, da vi har Vulkan og DX12.
Vulkan er successor til OpenGL, og det giver endda folk muligheden for ikke at følge Microsofts Windows 10 force opgradering, og det giver også Linux brugere mulighed for at komme mere ind i gaming. DX11 har INTET at tilbyde bedre i forhold til next-gen DX12 og Vulkan.
Kan du nævne mig 1 grund til at bruge DX11? Og nu hvor majority også bruger Win10?
Og ikke for at nævne Xbone, der også er DX12 capable med AMD hardware, er optimering ez pz. -- RadeonWorks #20 DX11 vil være her mange år endnu, bare vent og se. Stort set alle de store nye og kommende AAA titler er bygget op omkring det. Hvis de overhovedet har en DX12 del, så er det ikke noget der bidrager det store og bare en "fordi vi kan" ting. Dem der presser mest på med DX12 er nærmest Microsoft, så de kan få folk til at installere Windows 10.
Intet spil har endnu udnyttet bare en brøkdel af hvad DX12 (eller Vulkan for den sags skyld) har at tilbyde. Udviklerne bruger spilmotore som slet ikke er bygget/optimeret til disse API's. Det tager årevis før det vil være tilfældet og til den tid er ingen af de nuværende grafik relevante, medmindre man vil gå gevaldigt på kompromis med detaljer alligevel og low/mid-end kort til den tid vil være markant bedre end RX480/GTX970/GTX1060.
Udviklerne blev holdt meget mere i hånden når de kodede i DX11. Derfor svinger DX12 ydelsen så heftigt fra titel til titel, afhængig af om udviklerne aner hvad de laver. Så det kan både være godt og skidt.
#23 Doom har aldrig været DirectX. ID Tech Engine kører OpenGL, præcis som den altid har gjort, og Vulkan erstatter OpenGL fremadrettet. Det var den eneste grund til at Doom fik Vulkan support. -- Gæstebruger, opret dit eget login og få din egen signatur. Hvor er DX10 så? ;) -- RadeonWorks Jeg vil vædde med, at ingen AAA-titel i 2018 er DX11.
-- RadeonWorks DX11 er 7 år + gammelt. Og i tror at devs stadig vil holde fast i det?
Der er INGEN advantage over at bruge DX11 i stedet for DX12. Det er snæversynet at tro, at devs stadig vil bruge en så outdated API.
DX11 har så dårlig multi-core support, derfor Intel stadig laver quad-core CPU'er den dag i dag. Det holder markedet meget tilbage, at bruge den outdated API, og det gode er at Microsoft i det mindste tvinger folk til Windows 10, så vi kan komme videre i stedet for at sidde fast i 2009 med 2016 hardware.
De eneste folk der ikke kan lide DX12, er heavy Nvidia fanboys. Kan tydeligt huske da Ashes of Syn kom ud, hvor R9 290x slog GTX 980ti i DX12 benchmarks og folk flejnede over det. Og det samme sker i dag, hvor FuryX slår GTX 1080 i Deus Ex DX12 bench.
Hvorfor skulle vi sidde fast i gammel API?
Next-gen = next-gen. Og det går kun fremad. -- RadeonWorks #29 Det tog årevis før DX11 blev standarden. DX10 kørte sideløbende imens.
Det samme vil ske med DX11 og DX12.
De fleste ikke-Microsoft spil vil tilbyde både DX11 og DX12. Så længe de gør det, så er spillene ikke optimeret til DX12 alligevel. Grunden til udviklerne stadig udgiver i DX11, er fordi at mange sidder på andet end Windows 10 og de ikke vil afskrive sig 50% salg på PC platformen.
Grunden til Forza Horizon 3 kører DX12 er kun for at gøre det til en Windows 10 exclusive via Store. Samme spil med præcist samme grafik kunne være kodet i DX11. Alle Microsoft spil til PC efter Windows 10 udkom er DX12 OGSÅ selvom grafikken ligner noget fra DX9 (*Host* Gears of War Remastered). Det er kun for at få folk til at installere Windows 10.
Jeg har personligt ikke noget imod Windows 10, men enhver kan se hvor Microsoft vil hen med det der. Gamere skal da nok også skifte på sigt, især hvis det viser sig at DX12 faktisk giver BEDRE YDELSE, som det ser ud lige nu, er det utroligt blandet om DX12 trækker op eller ned ydelsesmæssigt. -- Gæstebruger, opret dit eget login og få din egen signatur. "Grunden til udviklerne stadig udgiver i DX11, er fordi at mange sidder på andet end Windows 10 og de ikke vil afskrive sig 50% salg på PC platformen."
Derfor Vulkan blev opfundet btw.
Og størstedelen bruger Windows 10. -- RadeonWorks #33 Vulkan kommer ikke til at erstatte DX12.
Meget få spil vil gøre brug af Vulkan, præcis som det var tilfældet med OpenGL.
99.99% af PC gamere bruger Windows, hvor DirectX er standarden for spil og vil fortsætte med at være det. Desuden så bruger Xbox One også DX12.
Nej, størstedelen bruger ikke Windows 10.
Kun 47.4% bruger Windows 10 ifølge Steam Survey. Ergo mister udviklerne omkring 50% af salget hvis de udelukkende udgiver spil i DX12 og penge styrer alt, så det sker ikke.
Så længe DX12 er ekslusivt for Windows 10 og folk ikke vil skifte, så vil spillene ikke bliver optimeret til DX12. Simpelt. -- Gæstebruger, opret dit eget login og få din egen signatur. AMd har også dårligere ydelse i Dx12 :-)
http://gamegpu.com[...]
Endda i en amd sponsoreret spil hvor amd har arbejdet tæt sammen med dem for at give amd en fordel..
Spillet er noget bras, bare se hvad brugerne skriver om det på Meta critic eller spil forummer. -- Gæstebruger, opret dit eget login og få din egen signatur. RunB det noget ævl haha.
FuryX får bedre performance end GTX 1080 i Deus Ex, og det er DX12.
AMD får stort set bedre performance overall med DX12, end noget andet Nvidia kort gainer, på grund af hardware Async support og bedre drivers. -- RadeonWorks Lasse jeg har ikke sagt Vulkan skulle erstatte DX12.
Du nævnte at folk der ikke har Win10, ikke kan bruge DX12, derfor siger jeg at det er grunden til at Vulkan blev opfundet.
-- RadeonWorks Selvfølgelig kommer DX11 til at være standard i mange år endnu. Der kan sikkert godt komme et par titler som er DX12-only fordi nogen tager en stak dollars for at tækkes Microsoft.
Både fordi man ikke vil afskære alle der ikke bruger Win10, men også fordi man ikke vil afskære alle der ikke har de nyeste grafikkort.
Sådan har det altid været med DirectX, siden Win 95, mere eller mindre.
Selvfølgelig er Win 12 "Fremtiden" - men nu har det i 20 år været sådan at "fremtiden" ikke bliver et krav før det ikke længere kan svare sig økonomisk at lave skiftet og droppe supporten for de gamle systemer. Det her er en snak der kørte dengang Quake udkom.
Software rendering vs OpenGL vs Direct3D osv. -- "ORK SATME!" Der er gået 7 år allerede.
Du mener at vi ,med 2016 hardware skal have 2009 performance?
Hahaa. -- RadeonWorks --
Sidst redigeret 28-09-2016 14:44 #7 Simpelt, fordi de ligger i samme performence klasse.
#9 Hvilket er hammer ligegyldigt, når Nvidia bare smider en ny serie ud.
#11 Gjorde du virkelig lige det? Hentydet du virkelig til at jeg skulle være fanboy?
MIG, som brokker sig over 1070 og 1080 konstant?
MIG, som kørte på fjerde år med sit 7970, indtil det gav op?
hahahaha!
Keep on digging your own grave..
#32 Rart at se du har taget min argumentation til dig.
Bare en skam du sikkert skifter standpunkt i næste uge, haha. -- #40 performance klassen har jo intet at gøre med hvordan arkitekturen udnytter VRAM.
Som jeg kan se, udnytter den uden problemer de VRAM den har tilgængelig. For eksempel Doom 2016 med ultra textures. -- RadeonWorks #39 Du famler i blinde. -- #42 ikke rigtig.
Kig benchmarks. -- RadeonWorks #43 Ja, jeg har lige kigget på dem i #35.
Både AMD og Nvidia's ydelse falder når der bliver skiftet til DX12.
Hverken SLI eller CF virker i DX12.
Sikke en forbedring.. -- #44 tror du skal pudse brillerne makker -- RadeonWorks #45 Kan du finde ud af at læse et søjlediagram? -- Spootnik Nu jeg ikke lige så meget ind i AMD kort, men går da ud fra at R7 370 er et år ældre end 470? Så og skifte hvert år synes jeg da er lidt tideligt, jeg sidder stadig med et 670 eksempel. :-) -- I5 2500K 3.3 GH--P8P67 PRO--GTX 670--Samsung 830 128 GB--Western Digital Black 500GB--Cool master 700 Watt--8gb 1600 Kingston Hyperx #46 du vurdere hele DX12 performance på 1 spil der lige er udkommet? hmmm...
#47 skifte grafikkort hvert år? What? -- RadeonWorks AMD gør det rigtigt godt i Forza Horizon 3 som kører DX12 :-)
https://www.youtube.com[...]
Looool..
970 smadrer 390..
1060 tæver RX 480.. -- Gæstebruger, opret dit eget login og få din egen signatur. Forza Horizon 3.....
AHAHAHHAHA det ligeså dumt som at bruge Tomb Raider som benchmark.
Tydeligt allerede dér, at du ikke har heelt styr på det, når du poster Forza haha.
Men så prøv evt at gå ind og kig på Deus Ex, der smadre FuryX, GTX 1080 i DX12 :) -- RadeonWorks #48 Næ, jeg har set utallige benchmarks af diverse spil under DX12.
Nogle vinder Nvidia, andre vinder AMD. Det kommer helt an på spillet. -- Nu handler det jo sådan set mindst om GPU'en, da DX12 fjerner overhead på CPU multi-core threading.
Det er mest impressive på 8-core AMD processor, og de helt gamle CPU'er der gainer store performance increase. -- RadeonWorks #50 Så man må kun bruge benchmarks hvor AMD vinder? Giver god mening. Svært at gennemskue hvilken side du hælder til.
Deux Ex kører dårligt på de fleste GPU'er og er tilmed sponsoreret af AMD. Spillet får ret dårlige anmeldelser, især af fans af serien. Så nok ikke det største tab.
Desuden så smadrer Fury X ikke 1080 overhovedet i det spil.
http://techreport.com[...]
http://www.guru3d.com[...] -- #53 sponsoreret af AMD? Men bruger Nvidia PhysX? Giver god mening at bruge det argurment :D
FuryX får 10FPS mere i 1080p :) og 1 FPS mindre.
Men så kig lige prisen og alderen.
Og 390x der pwner 980ti i det hele.
-- RadeonWorks 1: Check din opløsning
2: Check hvor meget AA du kan/vil køre
3: Check hvilke spil du vil spille
????
4: Vælg 4GB eller 8GB baseret på dine fund
Profit.
Brug google eller youtube. 10sec på google: http://www.tweaktown.com[...]
Hvis dit spil ikke er i benchmarks så søg med spilnavnet som keyword på google. -- #54 Du tror at folk med 4000-6000 kroners grafikkort kører 1080p..?
1080 vinder i 1440p og 2160p.
Spillet har både PhysX og TressFX.
Ja AMD er sponsor; http://www.amd.com[...]
Derfor det bundles med AMD CPU/GPU flere steder. Ligesom Hitman før det.
Spillet kører på Glacier 2 Engine, som også bruges i Hitman. Den er kendt for at køre bedre på AMD kort. Det er ikke en særlig udbredt motor og ingen af spillene er specielt gode. Bare kig på user reviews på MC, Steam etc.
1080 tæver Fury X i 99% af spil i dag, og du fremhæver et af dem hvor Fury X er bare nogenlunde med. Giver god mening. Selv 980 Ti rykker fra Fury X i langt de fleste spil, især når det er 980 Ti custom kort.
Lad os kigge på gennemsnittet i en masse populære spil, udelukkende på reference kort;
https://www.techpowerup.com[...]
... -- Sidst redigeret 28-09-2016 17:26 Spootnik På en måde var det faktisk et spørgsmål om der kun er 1 års forskel på de 2 modeller?
Jeg går jo bare ud fra at hvis det ene hedder 300 og det andet hedder 400 så må dér være 1 års forskel, ligesom nvidia der har et 670 og et 770 der er der også kun 1 års forskel på de 2 grafikkorts.
Så prøver man og hjælpe og så får man bare sådan et svinsk svar tilbage som om man er dum. -- I5 2500K 3.3 GH--P8P67 PRO--GTX 670--Samsung 830 128 GB--Western Digital Black 500GB--Cool master 700 Watt--8gb 1600 Kingston Hyperx #57 Havde du regnet med andet fra en nyoprettet bruger, som åbenlyst ikke aner hvad han ævler om?
370 udkom August 2015. Så ja omkring et år. -- #56 vinder med 1 FPS mod et 2 år gammlt arkitektur, sikke performance!
Og fortæl mig, hvad gør spillet AMD flavored? Hvilken feature hælder mere til AMD's performance?
Fordi et spil køre bedre på AMD, gør det ikke engine til AMD flavored, så du må gerne lige fortælle HVILKE features det har ;)
FuryX var ikke lavet til at "tæve" GTX 1080. Jeg fremhæver det, fordi det er utrolig impressive. At GTX 1080 slår FuryX overall, er ikke impressive, det ved alle.
Techpowerup bruger "combined performance summary" det kan vi jo ikke bruge til en hat, når vi alle ved at AMD har mindre gode DX11 drivere i forhold til Nvidia? HER kan man tydeligt se hvilken side DU hælder til.
Men som du selv siger: "Nogle vinder Nvidia, andre vinder AMD. Det kommer helt an på spillet."
Jeg er meget mere interesseret i mid-range performance end high-end performance, eftersom AMD ikke har udgivet noget high-range performance kort i år.
Som AMD selv fremhæver det, er 80% prox. af PC gamere mid-range users, derfor de kom med RX 480. -- RadeonWorks #57 Svinsk svar? Jeg satte spørgsmålstegn ved min kommentar fordi jeg ikke vidste hvad du mente? Hvordan i alveden er det svinsk? Tror du misforstår hvad jeg mener.
#58 så fordi man er ny user på HWO, så er man mindre vidende? Haha. -- RadeonWorks #59 Spillet kører ikke særligt godt på nogle af kortene, så hvad skal man bruge det til. Spillet er ikke engang godt. Lidt ligesom Ashes of Singularity, skod spil men AMD fanboys fik det til lyde som verdens bedste spil fordi de havde bedre ydelse i det (indtil retail udkom og Nvidia smed optimerede drivere ud, heh).
Jeg køber grafikkort efter hvordan ydelsen er nu og ikke efter hvordan den måske er om 1-2 år, derfor giver TechPowerUp god mening for mig.
Ja jeg er virkelig Nvidia fanboy. Har kun haft 20+ ATi/AMD grafikkort. :)
Faktum er at AMD skal smide Vega ud, før det sker, kan de ikke konkurrere. Tror du alle folk køber grafikkort efter hvordan ydelsen er i Deux Ex? Nej de kigger nok på den gennemsnitlige ydelse skal du se.
#60 Ikke nødvendigvis, men du er. Det er nemt at gennemskue på dine indlæg og du lyder ikke til at være mere end 15 år. De fleste voksne mennesker bliver ikke pigesure og skriver "AHAHhaAHHAHAa".
Havde du vist en del om hardware, havde du nok heller ikke været i tvivl om du skulle købe 4 eller 8 GB VRAM. -- #61 Så nu er det ikke aktuelt at kigge performance, fordi spillet er dårligt? damn.
Jeg må hellere skrive som alle på 15 år: " HAHAHAHAHaahahA!!11" fordi det der er sgu da det dårligste argurment, for at sige AMD's performance ikke gælder når den er bedre end Nvidia's.
Du køber virkelig kun kort, hvis de performer godt nu men ikke om 2 år? Wauw du må da virkelig vide noget om investeringer, hvilken bil skal jeg købe der holder i lang tid? Man plejer normalt at lave en INVESTERING i et kort, man ved performer godt NU og om FLERE år. Ligesom R9 290x gør for eksempel.
Den gennemsnittelige ydelse kan du sgu da ikke bruge til en skid, hvis du ikke engang skal spille 90% af de spil der bliver testet. Kun fanboys kigger på sådan noget for at hovere over deres yndlings brand ser bedre ud i grafen.
Og sjovt som du ikke ville kommentere på mit spørgsmål omkring Glacier engine's AMD favor :)
Nvidia har ikke rørt DX12 drivere på Ashes lige siden det udkom. De har ikke engang implementeret Async hardware support i deres fail Pascal ripoff af Maxwell på speed. Men du ved jo meget om investeringer, så du har vel købt et kort med Async hardware support? Nej? Hmm..
Jeg er ikke i tvivl om hvad jeg skal købe, jeg spurgte efter andres erfaringer. Det har intet at gøre med hvor meget jeg ved om hardware, det har noget at gøre med, at jeg gerne vil købe et kort, jeg ikke har personlig erfaring med.
Men i stedet for at sidde og nedgøre folk, uden selv at være bedre overhovedet, kunne du jo komme med fornuftige inputs til hvad jeg skulle vælge ;) -- RadeonWorks #0
Jeg springer lige uden om diskutionen, som ser ud til at være løbet ud på noget af et sidespor :-D.
Jeg spiller selv Doom på 1080P Med mit gtx 1070, og jeg er glad for de 8 GB VRam, da spillet kræver op til 5 GB ved 1080P, hvis du vil spille med Nightmare grafik instillinger.
Det skal dog lige siges at hvis du vælger at køre ultra i stedet på de to instillinger der nu har nightmare niveau, er der ikke en kæmpe forskel, det ser stadig skide godt ud og der bruges der omkring 3 GB Vram.
mvh
Nicolai -- Sidst redigeret 28-09-2016 21:33 #63 tak for et fornuftigt svar jeg kunne bruge til noget :)
Yeah, bare ved normal-low settings struggler mit 2GB VRAM R7 370...
Så det kunne vlre 8GB VRAM på 480 var løsningen. -- RadeonWorks #64 Værd at bemærke ved de 8GB,er at hastigheden er højere,2000mhz vs 1750 på 4GB,og gir ca 30GB/s mer båndbredde.Det,og muligheden for crossfire senere,så havde jeg nok valgt et 8GB kort.
BTW,forskellen er 400.-;) -- Gud bor i himlen,med julemanden,og deres hund Marianne. #64
Jeg gik selv fra 2GB til 8GB og det er vildt fedt! VRAM skal bare ikke være en begrænsning, så hellere have lidt for meget end for lidt :-). Jeg kunne godt forestille mig at mange nye spil vil udnytte det i fremtiden, nu hvor vi har masser af gpu'er på markedet med mere end 4GB. -- fulgte du med helt til konklusionen ?
-- #62 den eneste grund til at 290 serien har holdt så godt, er fordi at amd rebrandede chippen på 390 serien. der er ingen forskel på chippen overhovedet.
ydelsen per watt er dog helt i hegnet på disse kort.
amd er generelt helt tabt bag en vogn når vi snakker ydelse per watt.
hvilket er grunden til at de har tabt stort set hele mobile markedet til intel og nvidia.
nvidia gennempryler amd når det kommer til ydelse per watt.
jeg håber at amd's vega arkitektur yder bedre per watt, ellers er amd nok degraderet til low-end (max mid-end) inden 2020, med primært fokus på apu'er (til consoller mm). -- Gæstebruger, opret dit eget login og få din egen signatur. #66 Var det samme model? Hvis ikke, så kan den forøgede ydelse ikke nødvendigvis tilskrives mere vRAM. -- #70 Det kan jeg sige med sikkerhed at det var det ikke. -- Tror det vil være et dumt sted at spare. Der er jo intet der tyder på der bliver brug for mindre VRAM i fremtiden. -- Hmm.. bare en bett` lørdagstanke :)
Jeg gad godt at være en flue på væggen (med meget store ører) når div, producenter og spiludviklere har deres små luskede "bagnørdsmøder" hvor de lufter fremtidens overordnede strategiske metoder til, at holde alle til fadet (stor pengemenu) Ja jeg tror faktisk, at tingenes samlede "spil", er langt større end vi umiddelbart tror :)
Enhver dygtig sælger ved jo, at det bedste man kan gøre for sig selv er, konstant at holde forbrugerne i uvished samt altid sørge for, at intet produkt alene opretholder samtlige ønsker vedr. pris/kvalitet/udseende/performance indenfor (i dette tilfælde) alle spils individuelle indhold/behov for specielt software/softwareindstillinger..
Al den umiddelbare debat/konkurrence mellem div. producenter får netop folk til, at spytte flere kroner i HW kassen både pga. tvivl men selvf. også ønsket om ikke at ryge for langt tilbage ift. tèten..
For hvem vil f.eks. sidde med 10-20 fps mindre end kammeraterne, eller ikke kunne spille flydende på max. osv. - nææ avs fy da føj da da :)
Måske man skulle investere i HW aktier, for med alle de manipulationsmuligheder der findes indenfor området, er vi HW forbrugere er da noget af det nemmeste at tage fusen på (hvor dèn så lige sidder) :)
Konspirationsteori eller eftertanke - your thoice :) --
Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.
Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.
Opret bruger | Login
|
Du skal være logget ind for at tilmelde dig nyhedsbrev.
Hvilken udbyder har du til internet? 424 personer har stemt - Mit energiselskab (Ewii f.eks) 11%
|