Så ca 20% hurtigere end 3090ti og 20% langsommere end 4090 i rasterization.
Det ser ud til at ligge spot on mellem 3090ti og 4090
Der ud til alle testere frigiver test af det.
www.guru3d.com[...] har lidt forskellige kort til test.
--
5800x+H115i+P500 DRGB+AX860i
6800XT Alphacool H2O 420mm+MSI B550 UNIFY-X
2x16Gb DR 3800cl14+Mi 34" Curved
--
Sidst redigeret 15-11-2022 16:49
Er det korrekt forstået den trækker 300 watt, hvor 4090 trækker 430 watt?
--
Den er sikkert noget mere langsommere end 20% ift 4090, guru3d er cpu-bound med den 5950X de bruger, selv i 4K, andre test med bedre cpu viser cirka omkring 30% +-
Men selv hvis det kun var 20% så er det et tåbeligt kort, man kan jo ligeså godt ta den større model.
--
Der var en som testede i 27 forskellige aktuelle spil (1440p) og kom frem til at et 4080 er gennemsnitligt 42% hurtigere end et 3080.
Regner man med et 3080 til 6.900 kroner, mod et 4080 til 11.300 kroner.
Så vil det vil sige man får 42% extra performance for en prisstigning på 64%.
Det bliver et pænt nej tak.
--
i7-8700k @ 5Ghz, H115i | ASUS 1080ti Strix | Corsair 32GB 3200MHz | Samsung 960 Pro + 2 x 850 Pro | Asus 27" G-Sync PG278Q
#2 Hvis du presser kortet til max fps performance, så ja.
Har selv en 4090 og en 2160p skærm og hvis jeg for eksempel bare sidder og hygger mig med farming simulator 22, alt på max bortset fra fps som er låst til 60, så bruger kortet imellem 100-150w. Så det er afhængig af hvordan du bruger grafik kortet.
--
https://imgur.com[...]
https://imgur.com[...]
15,51% average over 30 spiltests ved 4K i RTX 4080's favør over RTX 3090 Ti..........for 13-15.000 kr. Wooow, Nvidia har godr nok tabt sutten med den prissætning vs. performance.
--
Terrible Coil Whine on the new RTX 4080 Strix
https://www.youtube.com[...]
--
MSI MAG Z490 TOMAHAWK i5-10600K @ 5GHZ 4x8 VIPER 4400MHZ B_die
1000W Sinlet Pro ROG STRIX-GTX1070-O8G-GAMING
#5 Jeps - jeg skulle bare forstå det helt korrekt. Det tyder på et mere økonomisk kort ift. 4090 - hvis man da ikke undervolter 4090 og mister 5% (Synes jeg at have læst).
--
Ind til videre er jeg glad nok for valget faldt på 4090 over 4080. Prisen på 4080 er simpelthen for astronomisk høj sammen lignet med 4090. Ikke sagt at 4090 er god pris sat. 4080 skulle i min optik have lagt i 800 til 900 usd msrp før skat og ikke 1200 usd. Der er for grotesk høj. Var det det så 4080 ti var det nemmere at sluge. Men det er ikke et ti. Så nej tak nvidia.
Enten ville mit valg være 4090 eller også hade jeg nok kigget over mod AMD's kort. Deres pris er væsentlig lavere.
--
5600X/5950X - ASUS B550-I/DARK HERO X570 - G.SKILl 32 GB 3600 MHz CL14 - RTX A2000/RTX 4090 - SAMSUNG 980 PRO 1 TB/2 TB - WD RED/GOLD 16 TB/14 TB
lol værsgo 4080 d.o.a.
men hey der er helt sikkert en gruppe selv det kort appellerer til. den kaldes klovne.
--
Gæstebruger, opret dit eget login og få din egen signatur. Prisen er for høj men ydelsen er som den skal være. Yder mellem 3090 Ti og 4090 men tættest på 4090.
Priserne skal nok falde på sigt, når AMD kommer med deres modsvar i form af 7900 serien og Nvidia selv har fået solgt ud af 3090 og 3090 Ti af, som de stadig ligger inde med. Det er en stor del af forklaringen på prissætningen af 4000 serien. De konkurrerer med sig selv lige nu.
Ydelse per watt er meget god og der ser også ud til at være rimelig god headroom på overclocking.
Langt bedre end Ampere som næsten var maxet helt ud fra start.
https://www.techpowerup.com[...]
4080 og 4090 har den bedste ydelse per watt og det er sådan et generational leap ser ud.
At prisen så er for høj lige nu, det ændrer ikke på at ydelsen og wattforbrug spiller 100%
Faktisk så trækker 4080 endnu færre watt end de 320 watt som bliver nævnt. Det ligger på 300 watt i gaming på techpowerup (altså founders editon) og det er det samme som Radeon 7900XT bliver.
Radeon 7900XTX står til 355 watt og 4090 er på hele 450 watt men bruger sjovt nok færre watt end 3090 Ti som også står til 450 watt.
4090 bruger over 100 watt mindre end 3090 Ti i gaming.
Bare se mit link under power consumption.
3090 Ti ligger på 537 watt i gaming hvor 4090 ligger på 411 watt og 4080 på 304 watt.
Så 4080 bruger næsten halvt så mange watt som 3090 Ti, vildt...
--
Gæstebruger, opret dit eget login og få din egen signatur. der er noget du har misforstået i alt det her. definitionen af generational leaps er ikke bare at skrue pris op i takt med performance. folk forventer bedre ydelse i samme prissegment år for år. ellers kunne man jo have købt et 3080 med det samme istedet for sit 3060 for eksempel fremfor at gå og vente en helt generation og betale tilsvarende eller som tilfældet er med 4000 serien voldsomt meget mere. og pak sammen med din snak om at det nok skal blive billigere i 2045. hvad kan det bruges til? der skal nok også komme et 5080 som æder et 4080 uden at blinke. og et 6080 som æder det 5080. osv. osv. men hvad kan det bruges til lige nu? absolut ikke en meter. 4080 er med sin nuværende performance ratio versus pris en kæmpe skandale. alle ved det. undtaget dig åbenbart.
--
Gæstebruger, opret dit eget login og få din egen signatur. #13 Du har stadig ikke fattet at Nvidia og AMD er brændt inde med ekstremt mange GPUer efter GPU mining crash kan jeg se.
Prisen falder på 4000 serien tidligt i 2023, når de har fået skudt de gamle kort af.
Det er jo ren logik at de prissætter dem højt, så de kan sælge ud af de gamle kort. Størstedelen af disse kort ryger til og omkring black friday, kort efter så udkommer 7900XT og 7900XTX, man skal ikke være videnskabsmand for at regne ud at prisen falder i 2023.
Prisen falder nok mindre på 4090, da Nvidia ikke har nogen trussel her. AMD slår det ikke.
4070 Ti lander i januar til 700-800 dollars så mon ikke 4080 hurtigt ryger ned på 1000 dollars som direkte konkurrent til 7900XTX.
Du har vist heller ikke forstået at 4080 bruger halvt så meget power som 3090 Ti og stadig slår det meget nemt, bor du stadig hos mor og far eller ved du hvad el koster nu om dage? Kan du godt lide at træde ind i et rum med 32-35 grader om sommeren for at game? Hvis nej, så er det nok ikke en 500 watts GPU du skal have. 3090 Ti er elendig ydelse per watt og det kan kun løses ved at undervolte og clocke kortet ned, hvorefter det så taber 40-50% til 4080 som stadig bruger mindre watt.
Jeg tænker heller ikke du er i målgruppen for et topkort alligevel, så hvorfor holde øje med topkort og pris :D
--
Gæstebruger, opret dit eget login og få din egen signatur. Er der nogen der har erfaring med PCVR ? Jeg tænker hvilket mærke der har den bedste encoding/decoding performance til et oculus quest 2.
--
Gæstebruger, opret dit eget login og få din egen signatur. #17
umiddelbart vil jeg mene at det er Nvidia.
sådan som jeg husker det så er det noget med at AMD ikke understytter et eller andet codec..
kan sq ikke helt huske det, men prøv at google omkring det.
det er vidst en mindre ting... noget med at det codec som Nvidia kan bruge giver bedre billede i forhold til det codes AMD kan bruge. Men om man kan se forskel i virkeligheden... hmm ja.
har selv Nvidia til mit PCVR og Quest 2 som køre over virtual desktop.
HL Alyx er suuuper fedt og kan nemt gennemspilles flere gange ! :-)
--
Gæstebruger, opret dit eget login og få din egen signatur. #17 tænker du amd eller nvidia? Jamen jo mere kraftfuld gfxkort du har jo bedre er din vr oplevelse.
Jeg har selv et 3080 og et quest 2 headset.
Det eneste vr spil der er presset er DCS.
Alle andre jeg har prøvet kører perfekt.
--
Med de priser der er på 4080 vs 3080, så tænker jeg ikke, 3080 vil falde vanvittig meget i pris, selvom udbudet er større på kort sigt.
Falder prisen på 4080 pga. større udbud, så ser det kort da interessant ud, men lige nu, så er 4090 mere interessant, hvis man har pengene til det. Så ved jeg godt, der også skal puttes penge i CPU, som sikkert stadig bottleknecker.
--