Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Forum \ Hardware \ Grafikkort
Denne tråd er over 6 måneder gammel

Er du sikker på, at du har noget relevant at tilføje?

RTX 4090 reviews/performance

Af Semibruger Emil1985 | 11-10-2022 15:25 | 7030 visninger | 68 svar, hop til seneste
Så er der reele og pålidelige tal på RTX 4090 som lanceres imorgen. Vildt vildt vildt 4K monstrum...men spild af penge ift. 1440p (well det vidste vi godt). Er imponeret over deres løft i 4K dog - 59% opløft ift. RTX 3090 Ti, og 72% hurtigere end RTX 3090, i ren rasterization - imponerende gain gen vs. gen. Ved 1440P (delvist bottlenecked af cpu performance i nogle titler dog): https://imgur.com[...] - 44% hurtigere end Radeon 6950 XT - 45% hurtigere end RTX 3090 Ti - 56% hurtigere end Radeon 6900 XT - 56% hurtigere end RTX 3090 - 59% hurtigere end RTX 3080 Ti - 68% hurtigere end Radeon 6800 XT - 75% hurtigere end RTX 3080 - 88% hurtigere end Radeon 6800 - 108% hurtigere end RTX 3070 Ti - 123% hurtigere end RTX 3070 Ved 4K: - 59% hurtigere end RTX 3090 Ti - 70% hurtigere end Radeon 6950 XT - 72% hurtigere end RTX 3090 - 79% hurtigere end RTX 3080 Ti - 88% hurtigere end Radeon 6900 XT - 98% hurtigere end RTX 3080 - 104% hurtigere end Radeon 6800 XT - 130% hurtigere end Radeon 6800 - 145% hurtigere end RTX 3070 Ti - 163% hurtigere end RTX 3070 Kilde: https://www.youtube.com[...]
--
Sidst redigeret 11-10-2022 15:30
#1
TheJusticeHobbit
Ultrabruger
11-10-2022 15:28

Rapporter til Admin
Har bestemt solideret min lyst til at upgradere!
--
Specs: AMD R9 3900x (OC: 4,1 Ghz)| Asus Crosshair x570 hero 32GB 3200mhz DDR4 ram | Msi RTX 2080 msi gaming x trio
#2
FlyingHippo
Ultra Supporter
11-10-2022 15:31

Rapporter til Admin
Sweet baby jesus! Får helt lyst til at opgradere mit 3070, problemet er bare at jeg næsten udelukkende spiller 7-kabale :-p (And i am not shitting you)
--
var d = new Date(); if(d.getMonth()!=11 || d.getDate()!=24){ $('.t47-svar-top').find('b:contains("Comicsdk")').parent().parent().parent().hide()}
#3
Emil1985
Semibruger
11-10-2022 15:43

Rapporter til Admin
Fodnote: *giver ikke mening i 1440p = med mindre at man sidder på en 1440p skærm der kører over 165 Hz, som jeg tænker de fleste nok ikke gør.
--
Sidst redigeret 11-10-2022 15:43
#4
TBC
Juniorbruger
11-10-2022 15:52

Rapporter til Admin
Wow det ser sku godt ud, særligt når man tager i betragtning at den hen over f.eks. Tomshardware's 6 forskellige testede Raytracing titler i gennemsnit der til er lidt over 2x hurtigere end RTX 3090 og næsten 4x hurtigere end RX 6950 XT - Der til kan man så i nogle titler kunne smide yderligere end faktor 2x på ved aktivering af DLSS 3. Det er sku vildt. Hvad angår energieffektiviteten er den blevet næsten fordoblet sammenlignet med RTX 3090 / 3090 Ti, og er 50 % bedre end AMD Radeon RX 6950 XT Jeg er imponeret. Det er bedre end man næsten havde turde af håbe :-) Men jeg tænker virkeligt at der er tale om et 4K kort mere end noget andet, mange af reviewerne peger på at det, selv til gamle rasterization-only titler, er så sindsygt hurtigt at det bliver svært at finde CPU og hardware det kan skallere med til 1080p og selv til fuld udnyttelse af kortet til 1440p ...Så det er mere end noget andet for alvor til 4K at det gør de største forskelle. Jeg bliver helt sikkert også selv nødt til at gå ud op opgradere min CPU, selv om det er til 4K, men tænker jeg lige venter til f.eks. en Core I5 13400 eller sådan noget sammen med et eller andet billigt bundkort, da 13 generationen vist er sidste gang med samme slot og ram? ...Så må den stå på mere GPU bound titler ind til da. https://youtu.be[...] https://www.techpowerup.com[...] https://www.tomshardware.com[...]
--
PC:I7 7700K,RTX3080 MSI Gaming X Trio, LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra Sovevær.:KD-65AF8
#5
Hest
Gæst
11-10-2022 16:11

Rapporter til Admin
Det eneste virkelig imponerende er at det er så effektivt, som #4 er inde på. At ydelsen hænger nogenlunde sammen med prisen (i hvert fald i 4k...) er da det mindste man kan forlange.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#6
F4x
Elitebruger
11-10-2022 16:15

Rapporter til Admin
Ser ud til at jeg vil sidde på en undervolt + 300W-ish power limit, hvilket var planlagt alligevel. Fantastiske numre. https://youtu.be[...]
--
Sidst redigeret 11-10-2022 16:19
#7
Cykle35
Giga Supporter
11-10-2022 16:43

Rapporter til Admin
Lidt af et kort Nvidia lavet, specielt i 4K rykker det da godt fra resten af feltet! Gad vide om AMD kan svare tilbage på det monster.
--
5800x+H115i+P500 DRGB+AX860i 6800XT Alphacool H2O 420mm+MSI B550 UNIFY-X 2x16Gb DR 3800cl14+Mi 34" Curved
#8
TBC
Juniorbruger
11-10-2022 17:01

Rapporter til Admin
#7 Der er nogle udmærkede interaktive charts her, hvor man kan se på både FPS og procenter og man kan køre musen hen over de forskellige kort for forskellige udgangspunkter/sammenligningsgrundlag: https://www.eurogamer.net[...] I Raytracede titler som Cyberpunk og Control rykker det ikke alene fra andre kort, der svæver det slet og ret i en kategori helt for sig selv - og det er før både DLSS 2 & 3 - Jævnfør charts
--
PC:I7 7700K,RTX3080 MSI Gaming X Trio, LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra Sovevær.:KD-65AF8
--
Sidst redigeret 11-10-2022 17:06
#9
Jesper
Gæst
11-10-2022 17:51

Rapporter til Admin
Det har godt nok nogle lækre ting. Ca 35 db under load, dejlig stille, uden at blive varmt. Ca 26 watt under videoafspilning, det er mindre end 3080 10 GB. Ca 346 watt i snit under gaming, det er mindre end 3080 TI. Og så den ydelse... Hvor selv en 12900K i snit er lige lidt nok til at føde det i 1440p. Her kan man for første gang nogensinde tale om et kort der i 1440p er fremtidssikret... For selv en kommende cpu-upgrade fra 12900K/13900K til 14900k/15900K, vil bare gøre kortet yder endnu bedre, uden kortet bliver flaskehals, så meget overskud har det i 1440p. (Ja det er sgu et ægte 4K kort) Relativt dyrt, men man får sørmer også noget ydelse for pengene. (Og så er raytracing samt DLSS ikke nævnt, hvor det yder endnu mere fantastisk) AMD skal godt nok op på dupperne hvis de skal matche 4090.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#10
Cykle35
Giga Supporter
11-10-2022 18:06

Rapporter til Admin
Jeg er sku lidt nervøs mht de næste generationer der kommer. Hvis de bliver ved at hæve forbruget som de gør nu går der jo kun 6år før de lander på 1000W AMD ligger vist omkring 420W med deres 7950XT efter hvad rygterne siger Måske man sku smide en kraft gruppe ind på kontoret til fremtidige builds ;op
--
5800x+H115i+P500 DRGB+AX860i 6800XT Alphacool H2O 420mm+MSI B550 UNIFY-X 2x16Gb DR 3800cl14+Mi 34" Curved
--
Sidst redigeret 11-10-2022 18:09
#11
Gunkeeper
Monsterbruger
11-10-2022 18:16

Rapporter til Admin
Det bliver spændende at se, hvor vi lander i performance med 4070 og 4080 12/16gb. Vi ser muligvis et 4070 / 4080 12gb med samme (eller bedre) ydelse end et 3090 ti i ren rasterization - og endnu mere ved rt/dlss ved 4K. Selv med de nuværende forventede priser på 4080 12gb, så er der udsigt til et pænt dyk i pris for den nuværende generation. Særligt 3090/3090ti, hvor du betaler kassen for ekstra vram, der til gaming ikke giver noget nævneværdigt. Det bliver nogle spændende måneder!
--
Sidst redigeret 11-10-2022 18:21
#12
Jesper
Gæst
11-10-2022 18:21

Rapporter til Admin
#10 Prøv at lægge mærke til 4090 faktisk under gaming bruger mindre strøm end 3080 TI/3090/3090TI, og forskellen til RX 6950 kun er ubetydelige 5 watt. https://www.techpowerup.com[...] Ja slår du raytracing men IKKE DLSS (DLSS sænker watt), bruger det lige så meget som 3090, men selv som max er det under 3090 TI. Så jeg tror ikke du behøver være SÅ bekymret. Vi har her fået meget ekstra ydelse, uden at bruge flere watt.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#13
ToFFo
Guru
11-10-2022 18:31

Rapporter til Admin
# - Shit det er lækkert sat op, tusind tak for det! Det er sgu for sjældent en bruger faktisk laver noget forarbejde og koger det hele godt ned. Ofte er der bare en overskrift og et link, og så må man ellers bare selv i gang. Det her er meget, meget mere brugbart! Kudos, thumbs up og god nørdekarma din vej! 4000 serien bliver fucking beast og jeg tager nok et af de store 4080 alt efter hvad benchmark siger. Da jeg er gået til 4K@144hz får jeg brug for den ekstra power, men jeg kommer satme ikke til at betale for et 4090...
--
Handels stats: Samme bruger i 18 år. B/W liste score: +37/-0. Stats sidst opdateret d. 27/08-2022
--
Sidst redigeret 11-10-2022 18:32
#14
TBC
Juniorbruger
11-10-2022 18:32

Rapporter til Admin
#10 Det er jeg ikke så bange for. Kortene skal jo også køles og passe ind i folks kabinetter. Allerede 4090 450W AIB kortene gør at mange skal ud og have nye kabinetter hvis de skal have et. Det største AIB jeg har set er 358.5 x 162.8 x 75.1 mm (Gigabyte Master), det mindste 329.4 x 137.5 x 71.5 mm (Pallit gamerock). Man kan heller ikke bare smide 1000 W i et kabinet ude at man får brug for MASSIV køling af både kort OG kabinet. 4000 serien kan snildt æde 600W, nogle rygter vil vide op til 800W (4090 har vist fået 500W loft), men Nvidia har alligevel valgt 450W som en mere gylden mellemvej imellem chippens potentiale og det praktisk fornuftige mht, luftkøling når kortet en sjælden gang skal op og bruge 450W eller lidt mere. Da kortene også skal kunne bruges i praksis og kunne sælges til andet end top-nørder (særligt når vi kommer ned i serien), så frygter jeg ikke scenariet med ekstreme W. som et generelt problem.
--
PC:I7 7700K,RTX3080 MSI Gaming X Trio, LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra Sovevær.:KD-65AF8
#15
php
Semi Supporter
11-10-2022 18:37

Rapporter til Admin
tak for info #6 :)
--
#16
Martin Lohse
Supporter Aspirant
11-10-2022 18:51

Rapporter til Admin
Vanvittigt - bestemt mere end jeg troede på. Det virker til, at rygterne har været sande.
--
#17
Jesper
Gæst
11-10-2022 18:52

Rapporter til Admin
#14 Helt enig, og det bliver da i hvert fald ikke 4000 serien der skaber grund til bekymring over øget strømforbrug... Når selv 4090 under gaming bruger mindre strøm end 3080 TI, så siger alt i sol, måne og stjernerne jo at 4080 vil bruge endnu mindre. Så denne gang får vi: Mere ydelse SAMTIDIG med mindre forbrug af watt. Win-Win. :-)
--
Gæstebruger, opret dit eget login og få din egen signatur.
#18
Qax
Ultra Nørd
11-10-2022 19:15

Rapporter til Admin
Når vi snakker watt, så er det ikke kun kabinettet der skal ventileres og køles ned. 500-600 watt PC varmer jo et rum op, hvis det ikke er vinter.
--
ASUS B550M TUF - 5800X - NZXT Kraken X62 G.Skill 2x8gb 3200Mhz CL14 3080 TUF OC - Acer XB271HU Adata XPG SX8200 Pro 1TB
#19
William
Gæst
11-10-2022 19:17

Rapporter til Admin
Nogen idé om man kan få FE her i Danmark?
--
Gæstebruger, opret dit eget login og få din egen signatur.
#20
WakeyWakey
Super Supporter
11-10-2022 19:44

Rapporter til Admin
#19 det kan du på nvidias side :)
--
Main: Zen 5900x - RTX40xx soon - Strix x570i - trident z 16gb cl 16 3200mhz - Jonsbo A4 - H100i Capellix//4xfractal AL12 33db 3k rpm - 1tb 970 m2.
#21
Emil1985
Semibruger
11-10-2022 20:09

Rapporter til Admin
#13 Selvtak da, glad for at det faldt i god jord :-).
--
#22
Cykle35
Giga Supporter
11-10-2022 20:13

Rapporter til Admin
Må give jer ret i strøm forbrug. Det stikker ik så meget ud som jeg egentlig troede da jeg læste 412W ved spil når man sammenligner med 6950XT og 3090Ti. Læser lige RDNA3 specs kommer i morgen (rygter) blir sku spændende om der er noget konkurrence denne gang igen eller om Nvidia render med toppen af poppen. Hvem blir den første hol'ler med 4090? ;)
--
5800x+H115i+P500 DRGB+AX860i 6800XT Alphacool H2O 420mm+MSI B550 UNIFY-X 2x16Gb DR 3800cl14+Mi 34" Curved
--
Sidst redigeret 11-10-2022 20:14
#23
TBC
Semibruger
15-10-2022 18:05

Rapporter til Admin
Angående al snakken om CPU skalering: Jeg fik min d 13/10 ved 9 tiden om morgenen, men har ikke været hjemme til at kunne udnytte det siden. Jeg havde dog lige 2-3 timer hjemme i dag før det gik afsted igen Men jeg installerede lige hurtigt mit 4090. Sagen er at jeg IND TIL VIDERE har en Intel 7700K CPU som >9/10 gange har sikret mig GPU bottleneck sammen med mit RTX 3080 til min 4K 120FPS skærm, men at folk har forsøgt at jage mig en skræk i livet om hvor ubrugeligt et RTX 4090 ville være før jeg fik opgraderet min CPU - Hvilket jeg da også har planer om, når den nye generation frigives her senere på måneden, grundet den nye generation af spil på vej med større CPU krav. Men jeg testede efter installation lige hurtigt et par spil ifht. min aktuelle I7700K CPU og fandt at jeg uden problemer kunne udnytte skærmens 120 fps imens jeg kører 1,78 eller 2,25 x supersampling med de testede spils grafiske settings sat til det maximale. Jeg nåede bl.a. at installere og teste 2 af de spil jeg faktisk har ventet med at spille til jeg fik en større GPU og ville kunne ramme 120 fps med maksimale settings, mens jeg sigtede efter fuld udnyttelse den nye 4090 GPU til den maksimale visuelle kvalitet jeg ville kunne trække og skabe på 4K120 fps skærmen, men fuld udnyttelse af 4090 GPU'en via brug af maksimale grafiske settings + supersampling som beskrevet ovenfor. - Kena bridge of spirits brugte 25-33% af CPU'en (I7700K) - Horizon Zero Dawn Complete Edition bruge 35-45% af CPU'en (I7700K) Disse CPU procenter var mens GPU'en kunne makses ud (alternativt ramme framecap på 120 fps) med brugen af max settings + ovenstående supersampling + 120 fps target Så der er med andre ord ind til videre mindst 2 af de spil jeg havde gemt til senere grundet ønske om større GPU, som nu er blevet fuld ud spilbare (ihht mine idiosynkratiske og måske lidt ekstreme kvalitetskriterier) alene bare grundet GPU opskaleringen og uden truende CPU bottlenecks på en gammel I7700K. Det besynderlige er at et væsentligt ældre spil som Borderlands 2 (som jeg tilfældigvis havde installeret i forvejen) bruger lige så meget CPU som Horizon Zero Dawn, imens GPU så dog kun udnyttes 33% i det (ved mit 120 fps cap) Shadow of the TombRaider som jeg også lige testede, er dog mere et blandet bolche mht bottlenecking ved 120 fps target. Det kunne også sagtens supersamples som de ovenstående titler, MEN der var det så forskellige fra scene til scene om det var CPU eller GPU der bottleneckede, ifbm supersamplede max settings inkl. den smule "RayTracing" titlen har at gøre godt med. Der er klart mest tydeligt og når det er CPUen der bottlenecker, mens det ikke ses hvis det er GPU'en grundet VRR hvis framerate f.eks. falder til f.eks. 117 fps på grund af GPUen (hvilket ikke er til at se). For der er meget større tids-diskrapans i indholdet fra frame til frame når det er CPUen der bottlenecker end når det er GPUen. Jeg fandt dog ud af at det elliminerede langt de fleste tydelige CPU bottlenecks i Shadow of the Tomb Raider, ved at presse GPUen yderligere med højere supersampling og i stedet sigte efter 80-120 fps VRR i stedet for stabile 120 fps ...Jeg taler om spillets benchmark del hvor status således med GPU'en hårdere presset blev 41% GPU bound. Så selve spillet burde være mere end spilbart med en I7700K, hvis man lige får tweaket settings til noget der balanancerer Når jeg kommer hjem igen efter weekenden, må jeg også lige teste CyberPunk 2077, men lige som SpiderMan Remastered [der med selv på det største CPU'er kan risikere CPU bottleneck] så regner jeg med at Cyberpunkt også vil vise sig CPU bottlenecked - i hvert dald uden DLSS3 brug, selv om det er spændende at se hvad DLSS3 så måske kan kompensere for. Men det når jeg desværre ikke at afprøve i dag. ...Jeg skal også lige have erindret hvilken obskur launcher det nu var jeg fik den titel ret billigt til Og ja ja. Bare rolig, jeg skal nok købe en ny CPU i ro og mag når de kommer, selv om det altså ikke er den store komplette og totale dommedag og det fuldstændige spild med et RTX 4090 til en I7700K som der ellers var lagt op til - Der bliver bare flere spil der vil CPU bottlenecke end før og det er nok et langt større problem på 1080p og 1440p end det er på 4K [og 8K] skærm.
--
PC:I7 7700K,RTX4090 GB-Gaming OC, LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra Sovevær.:KD-65AF8
--
Sidst redigeret 15-10-2022 18:09
#24
markedone
Ultrabruger
15-10-2022 18:14

Rapporter til Admin
#23 Du sku vel ikke tilfældigvis være en Nvidia "plant"? Du bestiller sgu da ikke andet her end at skrive lange fristile der lovpriser alt nvidia relateret
--
#25
Mattii
Ultra Nørd
15-10-2022 18:18

Rapporter til Admin
Synes personligt ikke jeg kan se den store forskel fra 3070ti til 4090. kører dog med 5800x
--
#26
SkylineGTR
Guru
15-10-2022 18:25

Rapporter til Admin
Jeg overvejede et rtx 4080 16 gb. Men efter de bench som nvidia frigav selv. Var jeg ikke imponeret til den apsurde pris den koster. Så jeg kom til at bestille et asus rtx 4090 tuf oc som skulle ankommer torsdag i næste uge. Glæder mig som et lille barn til juleaften, til det ankommer. Erstatter rtx 3080 10 gb. Nu kan jeg endelig have nok vram og skrue alt op på Max uden at løbe tør for vram. Rtx 4090 er ganske enkelt de meget hurtigere end 4080 16 gb så følte var lidt skuffende.
--
5600X/5950X - ASUS B550-I/DARK HERO X570 - G.SKILl 32 GB 3600 MHz CL14 - RTX A2000/RTX 3080 - SAMSUNG 980 PRO 1 TB/2 TB - WD RED/GOLD 4 TB/14 TB
#27
Jesper
Gæst
15-10-2022 19:02

Rapporter til Admin
#25 Jeg går ud fra du troller, for testere der bruger 5800X ser kæmpe forskel. Her bruges en 5800X og i 4K yder 3070TI sølle 44% af et 4090. https://www.techpowerup.com[...]
--
Gæstebruger, opret dit eget login og få din egen signatur.
#28
Cykle35
Giga Supporter
15-10-2022 19:07

Rapporter til Admin
#26 Så gjorde du akkurat hvad Nvidia har prissat deres 4080 efter ;) Der er for lidt værdi i 4080 i forhold til 4090 så er vist det eneste rigtige at gøre hvis mønten er til det.
--
5800x+H115i+P500 DRGB+AX860i 6800XT Alphacool H2O 420mm+MSI B550 UNIFY-X 2x16Gb DR 3800cl14+Mi 34" Curved
--
Sidst redigeret 15-10-2022 19:08
#29
Jesper
Gæst
15-10-2022 19:13

Rapporter til Admin
#28 Jeg tror mere Nvidia satsede på at være grådige end "bare" at flytte nogle relativ få til 4090... At de planlagde mindst 3 og måske ligefrem 4 forskellige 4080 kort. 4080 12 GB 4080 16 GB 4080 TI 16 GB 4080 Super 16 GB 4090 24 GB 4090 TI 24 GB (Der er ikke meget plads til mere end et kort over 4090, da det ydnytter tættere end "normalt" på max)
--
Gæstebruger, opret dit eget login og få din egen signatur.
#30
Mattii
Ultra Nørd
15-10-2022 19:15

Rapporter til Admin
#27 Hvorfor skulle jeg trolle? Spil som warzone o.lignende synes jeg ikke forskellen er så stor. om det så er noget med mine settings skal jeg ikke kunne sige… :)
--
#31
SkylineGTR
Guru
15-10-2022 19:18

Rapporter til Admin
#28 Ja desværre. Jeg regnte med at 4080 16 gb ville lige til 900-999 usd. Men det blev til 1200 usd og det er for tæt på 4090 i forhold til pris og performance. Nu med 4080 12 gb aflyst, er jeg spændt på om de så laver endnu en svine streg her i sidste øjeblik ved at sænke prisen på 4080 16 GB efter nogle har købt 4090. Gør de det, har jeg købt mit Det en sidste nvidia kort og mit 4090 bliver retonert asap. Det er min klare røde linie for nvidias og deres BS.
--
5600X/5950X - ASUS B550-I/DARK HERO X570 - G.SKILl 32 GB 3600 MHz CL14 - RTX A2000/RTX 3080 - SAMSUNG 980 PRO 1 TB/2 TB - WD RED/GOLD 4 TB/14 TB
#32
Jesper
Gæst
15-10-2022 19:19

Rapporter til Admin
#29A Der ville være flere penge i at kunne smide et (2 med 12 GB) ekstra 4080 ind, i forhold til at lave større plads over 4090. Der er en del flere købere til 80 kort end 90 kort. Om det så skulle hedde 4080 TI Super 16 Gb, aner det ikke, men kunne godt mistænke dem for at have planlagt at udnytte det større rum end "normalt" mellem 80 og 90.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#33
Jesper
Gæst
15-10-2022 19:22

Rapporter til Admin
#30 Fordi stort set alle er helt enige om 4090 yder kanon og langt over både normalt og forventet af næste generation 90. Selv folk der er AMD tilhængere.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#34
TBC
Semibruger
15-10-2022 20:37

Rapporter til Admin
#24. Nej jeg er mærke-agnostisk hardware-ENTUSIAST på områder som TV, projektor, lyd OG GPU. At det kan irritere dig af at Nvidia har præsteret en kraftfuld GPU som folk som jeg finder interessant og spændende kan jeg ikke gøre for. Hvis du har set andet jeg har skrevet, så vil du også se at jeg har været direkte kritisk indstillet over for f.eks. RTX 4080 12 GB og selv RTX 4080 16 GB som også skuffer MEGET i forhold til 90'eren denne gang i forhold til sidste generation. Forskellen er langt større denne gang :-( Og det indlæg med mine erfaringer som du reagerer så negativt på kan du jo i øvrigt også tage som ud udtryk for at jeg deler min erfaring omkring at kortet heller ikke er SÅ fuldstændigt stratosfærisk kraftigt at det resulterer i den CPU armageddon som jeg selv har fået tudet ørerne fulde af - i hvert fald ikke til 4K 120 fps, selv om der naturligvis nu er flere spil der vil blive CPU-bound end tidligere. Hvis du ikke kan udholde at folk deler erfaringer og finder dig nødsaget til at stille spørgsmål som du gjorde, så var det måske sundt for dit følelsesliv at tage en pause fra debatten. For 4090 er et interessant kort som ENTUSIASTER kan skrive meget om.
--
PC:I7 7700K,RTX4090 GB-Gaming OC, LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra Sovevær.:KD-65AF8
--
Sidst redigeret 15-10-2022 20:42
#35
Mattii
Ultra Nørd
15-10-2022 21:04

Rapporter til Admin
#33 Giver god mening for mig at give +15000kr for et grafikkort for derefter at tale lort om det. https://photos.app.goo.gl[...] Jeg siger ikke kortet er dårligt. Jeg håber bare det er mine settings som er forkerte. knap 130-140FPS i warzone i 1440p og med mange ting slået fra :)
--

--
Sidst redigeret 15-10-2022 21:05
#36
TBC
Semibruger
15-10-2022 21:39

Rapporter til Admin
#33 Warzone lader til at være en af de nu langt flere CPU bound titler, ikke mindst i 1440p, når man ejer et RTX 4090 i 1440p. Det forklarer hvorfor det ikke ændrer meget på på ydelsen at ændre på de grafiske settings. Iflg nedenstående video er der praktisk takt ingen forskel på low settings og ultra settings eller om der benyttes DLSS eller ej. CPU forbruget ligger så højt at det begrænser hvor mange FPS man kan få, hvilket også ses af readouts i nedenstående video, hvor det ses at GPU'en ikke fødes data hurtigt nok til at kunne udnytte sine kræfter fuldt ud. Det vi med et RTX 4090 skal vænne os til er at FLERE titler end nogensinde vil være CPU bound og begrænset af vores CPU'er, og det da endnu mere i 1440p end i 4K. Warzone ville være det samme med selv en endnu kraftigere GPU. Men som du kan se i hvad jeg beskrev af egne erfaringer ovenstående er det trods alt ikke hverken så galt eller universelt i 4K, som andre har påstået, at man nærmest ikke skulle kunne udnytte kortet til dets potentialer i nogen titel. Men Warzone er åbenlyst en af de titeler der er CPU bound sammen med et 4090, så det i den konstellation begrænset af CPU, når selv en af de absolut hurtigste CPU'ere på markedet (Ryzen 9 7950X) går hen og bliver flaskehalsen som det ses her: https://youtu.be[...]
--
PC:I7 7700K,RTX4090 GB-Gaming OC, LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra Sovevær.:KD-65AF8
--
Sidst redigeret 15-10-2022 21:42
#37
Mattii
Ultra Nørd
15-10-2022 21:40

Rapporter til Admin
#36 Så må jeg vente til Intels nye serie lander.. eller hoppe på AMD's nye....
--
#38
TBC
Semibruger
15-10-2022 21:50

Rapporter til Admin
#38. Ja 4090 kræver langt mere af vores CPU'er end vi nogensinde har været vant til. Jeg hopper også selv på enten en top end AMD eller Intel CPU, når jeg jeg lige har haft mulighed for at læse reviews om begge om nogle uger når den næste generation udkommer - Men bare vær opmærksom på at selv med de største CPU'er i næste generation vil der FORTSAT være titler der vil være CPU bound. Når en Ryzen 9 7950X kun kan fodre RTX 4090 til 50-60% udnyttelse af sine kræfter, så vil det være et eksempel på en titel der også må forventes CPU bound, selv med den største CPU i næste generation - Men du vil dog trods alt stadig kunne vinde flere FPS med en hurtigere processor sammen med din GPU. Så der er noget om snakken: 4090 er så kraftigt at mange og langt flere spil vil få CPU bottlenecks. ...Mit indlæg længere oppe var for at nuancere at det dog ikke er så komplet umuligt at udnytte et RTX 4090 fuldt ud i mange titler, som nogle har kritiseret at det skulle være. Men det er klart, at det ikke er noget den normale bruger skal købe til en 1080p skærm - Det er overkill - Og ved 1440p skal man virkeligt også i top med sin CPU. Det skal man også i 4K, men dog ikke så universalt som nogle stemmer skræmmer om, hvilket jeg forsøgte at nuancere med mit indlæg om hvordan jeg kunne udnytte 4090 i nogle titler med supersampling til 4K 120 fps skærm.
--
PC:I7 7700K,RTX4090 GB-Gaming OC, LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra Sovevær.:KD-65AF8
--
Sidst redigeret 15-10-2022 21:55
#39
waskustobaskus
Maxi Nørd
15-10-2022 22:09

Rapporter til Admin
nu cpu bottlenecker et 4090 jo ikke i 4k. At folk så vælger et 4k kort til 1440p eller 1080p er jo lidt mærkeligt. Selv 3080/3080 viste jo cpu bottlenecks i feks 1080p.
--
Sidst redigeret 15-10-2022 22:10
#40
TBC
Semibruger
15-10-2022 22:19

Rapporter til Admin
#39 ...Det afhænger af spillet. Der er flere spil der nu også CPU bottlenecker i 4K som rewieverne har påpeget, endnu flere i 1440p og ekstremt mange i 1080p. Jeg synes godt til kan retfærddiggøres til 1440p hvor man jo også sagtens kan supersmple til højere visuel kvalitet, men ja 4090 er imho også først og fremmest et 4K og et 8K kort.
--
PC:I7 7700K,RTX4090 GB-Gaming OC, LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra Sovevær.:KD-65AF8
#41
TBC
Semibruger
16-10-2022 16:43

Rapporter til Admin
Fra debat om specifikke kort, men den hører vel egentligt mest af alt til her: Lige nu synes jeg den Danske markedsituation og købbare modeller i betragtning at: Det mest interessante basiskort og langt de smarteste penge kastes efter et Asus TUF til vejledende udsalgspris. Det har relativt god luftbaseret GPU køling - Køleprofil på 1080 gram - 6 grader køligere GPU end FE - 6 grader køligere RAM end FE. - Det mest interessante mellemkort til prisen er et Gigabyte Gaming OC, ikke mindst da det har fået den bedste luftbaserede kølerløsning i klassen (Køler på 1540 gram), der tager sig bedst af alle de varmegenererende komponenter inkl. både RAM og selv kondensatorerne. - Køleprofil på 1540 gram - 6 grader køligere GPU end FE - 10 grader køligere RAM end FE (18 grader køligere RAM i lukket case ifølge en anden reviewer) Det mest interessante Premiumkort lader så imho til at være MSI Suprim liquid, der er en superb og virkeligt lækkert implementeret LCS løsning der køler GPUen ekstra godt - hvis man har muligheden for at installere [evt. endnu] en vandkøling fan array/block i sit kabinet og sigter efter et premiumkort, er det det mest interessante kort jeg har set på det danske marked hidtil. - Vandkøling - 8 grader køligere GPU end FE - 4 grader køligere RAM end FE [disclaimer: Jeg har ikke sat mig nærmere ind i de andre LCS's da det ikke har været en mulighed for mig at installere] Til gengæld er jeg ikke sikker på at den 21% større pris er de 5% højere ydelse værd for alle - For de fleste vil det være nok ud udgøre den største forskel overhovedet bare at få fat i et RTX 4090 (uanset hvilket)
--
PC:I7 7700K,RTX4090 GB-Gaming OC, LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra Sovevær.:KD-65AF8
--
Sidst redigeret 16-10-2022 16:48
#42
Martin Lohse
Junior Supporter
16-10-2022 18:22

Rapporter til Admin
#41 Helt enig
--
#43
TBC
Semibruger
16-10-2022 20:46

Rapporter til Admin
Interessant rygte om 4090 Ti: https://t.co[...] Citat: AGF on Twitter: "Best dies are already saved for a 2.75Ghz boost (2.95 typ. gaming) 475W 18176 CUDA cores 96MB L2 cache 24Gb beast. Performance 10~20% above 4090
--
PC:I7 7700K,Gigabyte 4090 GAMING OC, 48" LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer MK-II,B&W 803D,SVS PB16-Ultra Sovevær:KD-65AF8
#44
Martin.v.r
Guru
16-10-2022 20:53

Rapporter til Admin
lidt hard mod,men de er ikke færdig med at mode https://www.youtube.com[...]
--
MSI MAG Z490 TOMAHAWK i5-10600K @ 5GHZ 2x8 G.Skill F4000 TRIDENTz 17-17-17-37@ CL16 4300mhz 1000W Sinlet Pro ROG STRIX-GTX1070-O8G-GAMING
#45
Jesper
Gæst
16-10-2022 20:56

Rapporter til Admin
#43 Jeg synes så modsat det er en ret tam "forudsigelse". Stort set alle forventer vel der kommer et 4090 ti, der bruger flere cuda cores og med lidt højere mhz samt watt. Det der er vel ca hvad alle tilfældige som ved lidt om GFX ville kunne sige der kommer. (Ud fra hvad der ca er mest sandsynlig)
--
Gæstebruger, opret dit eget login og få din egen signatur.
#46
sep
Maxibruger
16-10-2022 21:27

Rapporter til Admin
Som rtx 3090 4k/uhd 144hz skærm ejer så frister et 4090 da med det løft i 4k, men har valgt at starte med at opgradere til et pci express 4.0 bundkort og cpu først, har da givet en lille smule performance med et rtx 3090.
--
#47
waskustobaskus
Maxi Nørd
17-10-2022 10:03

Rapporter til Admin
#46 der er ca 2% at hente fra pci-e 3.0 til 4.0 med et 4090.
--
#48
TBC
Bruger
19-10-2022 18:57

Rapporter til Admin
Jeg elsker bare det kort! ...Endelig er Nivida Freestyle tiltaget blevet relevant, grundet det overskud af kræfter til brugen af ikke-hardware-accellereret SSRTGI + SSAO i driveren som post-processing der er at gøre godt med. Den slags fjerner så godt nok hurtigt over halvdelen af frameraten, men det gør ikke længere så meget og selv gamle titler som således kan få nyt liv og bedre lyssætning, som f.eks. her den næsten 10 år gamle titel BioShock infinate: https://photos.app.goo.gl[...] Selvfølgelig er det ikke på højde med ægte Raytracing ( https://photos.app.goo.gl[...] ) men det er nu stadig en smart brug af kortets kræfter hvis man sidder med et titel med masser af overskudskræfter og og/eller en ellers ubrugeligt høj framerate (f.eks. højere en ens skærm kan udnytte) Skulle du være i tvivl om hvordan det tilgås, så er det ekstremt nemt via Geforce Experience [Alt+Z --> Spilfilter ->> SSRTGI + SSAO] som så kan indstilles til ens præferencer. Er man yderligere avanceret, så bliver nexusmods.com også et relevant site at besøge og makse spil ud ;-)
--
PC:I7 7700K,Gigabyte 4090 GAMING OC, 48" LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer MK-II,B&W 803D,SVS PB16-Ultra Sovevær:KD-65AF8
--
Sidst redigeret 19-10-2022 18:59
#49
gasolin
Guru
19-10-2022 19:29

Rapporter til Admin
Nogen der kan forklare mig temperaturen på det her kort, lyder vildt fake https://www.youtube.com[...]
--
#50
Jesper
Gæst
19-10-2022 21:24

Rapporter til Admin
Måske fan speed manuelt sat til 100%. Hvor de standard ville ligge omkring 40% og ca 20 grader varmere GPU. Bare et skud fra hoften, jeg har ikke tjekket op på hvilken temp det ville resultere i. Men nice at se du er blevet mere kildekritisk. :-)
--
Gæstebruger, opret dit eget login og få din egen signatur.
#51
TBC
Bruger
19-10-2022 22:50

Rapporter til Admin
#50 - Det afhænger af kort og model. Det kort der her er benyttet vil fra det reviews jeg har set af det oftere have 66-70 grader og tilsvarende på RAM. https://youtu.be[...] Det er et et par grader varmere end f.eks. Asus Strix og Gigabyte Gaming X Trio, der dog også begge har større kølerprofiler (se #41), mens det stadig er er et par grader køligere end FE. På YouTube ligger der også klip hvor det bliver op til 77 grader, https://youtu.be[...] hvilket formentligt er fordi det sveder inde i et dårligt ventileret kabinet eller der er benyttet en quiet bios setting. Det er i hvert fald relativt højt for et AIB kort at være hvis der havde været tale om et review med typisk mere optimale betingelser. Så jeg tænker også at enten, så har han lige startet kortet når han laver capture (det tager lidt tid at varme processoren op til max temperatur - som også tydeligt ses i ovenstående klip) eller også har han en speciel køleelplementering. Mit eget kort ender i øvrigt som reglen oppe på 62-64 grader ved fuldt brug (i værelse på 21 grader) og jeg har en enkelt gang set 66 grader. (Performance Bios setting, quiet bios har jeg ikke testet)
--
PC:I7 7700K,Gigabyte 4090 GAMING OC, 48" LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer MK-II,B&W 803D,SVS PB16-Ultra Sovevær:KD-65AF8
--
Sidst redigeret 19-10-2022 22:51
#52
gasolin
Guru
19-10-2022 23:57

Rapporter til Admin
Ikke fordi jeg er kildekritisk, jeg ved bare hvor varmt mit kort blir og ud fra det synes jeg 50c er super urealistisk. Personlig bryder jeg mig ikke om mit kort køre på 50% med bllæserne eller højere, det larmer alt for meget Om det er muligt at vandkøle et 4090 kort pt, ved jeg ikke
--
#53
gandalf6700
Gigabruger
20-10-2022 07:48

Rapporter til Admin
52# måske det er vandkølet kort .. tjek evt. MSI suprim liquid X eller hvad den hedder vis et founders render ca. 70 grader så syntes jeg 50 er fint med vand
--
Game Computer:|X2 3800+|2gb ram|7900GT +VF700|Samsung 940BF 2ms|3dmark03 19751|3dmark05 9620|
#54
Cykle35
Giga Supporter
20-10-2022 07:51

Rapporter til Admin
50c med vand er et fint resultat.
--
5800x+H115i+P500 DRGB+AX860i 6800XT Alphacool H2O 420mm+MSI B550 UNIFY-X 2x16Gb DR 3800cl14+Mi 34" Curved
#55
Jesper
Gæst
20-10-2022 10:30

Rapporter til Admin
#53 Selv MSI RTX 4090 Suprim Liquid X (køligste kort i testen) ender jo meget varmere end videoen. 58 grader her... https://www.techpowerup.com[...] Videoen er til tider helt nede og ramme lige over 40 grader, det kan vandkøling alene ikke forklare, uden der manuelt er ændret på pumpe og blæserhastigheder, lavet undervolt etc. Jeg tror ikke på kortet kører standard lige ud af posen.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#56
MartnL
Supporter Aspirant
21-10-2022 17:23

Rapporter til Admin
Elgiganten har en del 4090 PNY på lager. 25+. Prisen er vel det laveste du kan få et for, lige nu - 15.999kr. For det får du et reference PCB, som er det absolut mest skrabede. https://www.elgiganten.dk[...]
--
Er venstrehåndet inde i hovedet.
--
Sidst redigeret 21-10-2022 17:23
#57
TBC
Bruger
23-10-2022 14:45

Rapporter til Admin
#50: Jeg sad faktisk og spillede i dag med 99% GPU forbrug og havde i omegnen af 50 C - Andre spil med 99% udnyttelse giver hurtigt lidt over de 60 grader. Jeg skal ikke kunne forklare hvorfor det er sådan, bare konstatere at det er tilfældet - også på et luftkølet kort. Måske har det noget at gøre med hvilke dele af chippen der udnyttes og hvilke hot-spots der opstår?
--
PC:I7 7700K,Gigabyte 4090 GAMING OC, 48" LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer MK-II,B&W 803D,SVS PB16-Ultra Sovevær:KD-65AF8
--
Sidst redigeret 23-10-2022 14:46
#58
Mattii
Ultra Nørd
23-10-2022 14:59

Rapporter til Admin
#57 Hvordan opnår du 99% gpu udnyttelse med en 7700k som cpu?
--
#59
Qax
Ultra Nørd
23-10-2022 16:09

Rapporter til Admin
#58 48" LG CX Jeg tænker at det er fordi han bruger et 48" 4K TV som skærm. Og 4K kan få alle GPUer op i 99% usage, hvis man skruer alt op på Ultra. Selv med en 7700K, hvis den er OC.
--
ASUS B550M TUF - 5800X - NZXT Kraken X62 G.Skill 2x8gb 3200Mhz CL14 3080 TUF OC - Acer XB271HU Adata XPG SX8200 Pro 1TB
#60
TBC
Bruger
23-10-2022 16:28

Rapporter til Admin
#58 Det er der mange luksus veje til - Det er jo langt fra alle spil hvor min nuværende CPU bliver bottleneck, slet ikke når min skærm jo en en 4K skærm og den max kan køre 120 fps og endnu mindre hvis jeg tager PC'en med i stuen og spiller på projektoren hvor det bliver 4K@60 fps. Så udnytter man kun kortet fuldt ud ved f.eks. at bruge ELLER kombinere supersampling (hvilket særligt er en fordel når man spiller i 123 tommer som jeg gør i stuen, men nu også på de 48 tommer jeg spiller ved på skrivebordet) med mods eller ini tweaks til higher texuremaps, drawdistance mv og ikke mindst SSRTGI (screen space ray-traced global illumination) og SSAO (Screen space ambient occlusion) injection via enten Nvidia Freestyle eller ReShade. Særligt Supersampling (aka DSR) og SSRTGI+SSAO in driver injection belaster en GPU meget. Det er faktisk først nu man for alvor kan få glæde af det, mit forrige RTX 3080 knækkede altid ryggen på det. CPU bliver vigtigere og vigtigere jo flere fps en skærm kan afvikle - Og ja, jeg har tænkt mig at opgradere CPU så jeg ikke risikerer de CPU bottlenecks jeg vi få i spil som f.eks. Spiderman remastered og dens slags der kræver meget af CPUen også. Men jeg menter på X3D modellerne som jeg regner med bliver det kløgtigste valg i den nye CPU generation.
--
PC:I7 7700K,Gigabyte 4090 GAMING OC, 48" LG CX Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer MK-II,B&W 803D,SVS PB16-Ultra Sovevær:KD-65AF8
--
Sidst redigeret 23-10-2022 16:33
#61
Jesper
Gæst
23-10-2022 16:34

Rapporter til Admin
#59 Og 4K kan få alle GPUer op i 99% usage, hvis man skruer alt op på Ultra. Selv med en 7700K, hvis den er OC. Nix og nej. Ser du reviews af 4090 i 4K med alt på max, er der en del spil hvor selv 12900K bliver flaskehalsen, hvis skærmen har mange hz.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#62
Qax
Ultra Nørd
23-10-2022 19:19

Rapporter til Admin
#61 Så er det fordi at det er CPU bound spil og så har det ikke så meget med valget af GPU at gøre.
--
ASUS B550M TUF - 5800X - NZXT Kraken X62 G.Skill 2x8gb 3200Mhz CL14 3080 TUF OC - Acer XB271HU Adata XPG SX8200 Pro 1TB
#63
maho
Superbruger
24-10-2022 08:53

Rapporter til Admin
Fantastisk performance men jeg kan ikke retfærdigøre det over for mig selv at bruge så mange penge på et grafikkort, og 4080 16GB bliver også for dyrt efter min mening, så jeg har lige bestilt et 3090 til 8888kr - da jeg fedter lidt med noget AI er 24GB RAM mere vigtigt end performance.
--
#64
Martin.v.r
Guru
04-11-2022 13:35

Rapporter til Admin
Ny bios,låser kortet op til kunne bruge 1000W https://www.youtube.com[...]
--
MSI MAG Z490 TOMAHAWK i5-10600K @ 5GHZ 2x8 G.Skill F4000 TRIDENTz 17-17-17-37@ CL16 4300mhz 1000W Sinlet Pro ROG STRIX-GTX1070-O8G-GAMING
#65
Topper
Gæst
04-11-2022 13:51

Rapporter til Admin
#59 Nej det kan ikke. En sølle 7700K til et 4090 hænger slet ikke sammen. Det skal være balance i et system og det giver ingen mening at bruge en CPU til 200 kroner brugt sammen med et sprit nyt high-end grafikkort til 16.000 https://www.techpowerup.com[...] Selv en 5800X holder et 4090 tilbage i 4K sammenlignet med en 5800X3D. Og 5800X er EKSTREMT meget hurtigere end 7700K. Ingen bør bruge et 4090 med en CPU under 6C/12T. Sweet spot for high-end er 8 performance cores + HT/SMT. 4C/8T er håbløst i dag i 99% af AAA spil, uanset om opløsningen er 720p eller 4K.
--
Gæstebruger, opret dit eget login og få din egen signatur.
#66
Die_Happy
Semi Supporter
04-11-2022 14:27

Rapporter til Admin
#64 Dvs. at man endnu hurtigere kan få brændt strømstikket af? NICE!
--
5950x | RTX 3090 | WD Black SN850 2TB | EKWB 2x360mm
#67
BobiGoG
Ny på siden
05-11-2022 12:13

Rapporter til Admin
Hvorfor skulle man vandkøle, mit 4090 ligger på 62-65 maks i gaming. Jeg bruger PCIE 5.0 strømstik, ikke deres adapter. Har man 16000 til en GPU, har man nok også pengene til en ordenlig PSU, alle gode psu producenter har længe haft mulighed for at købe et PCIE 5.0 strømstik som bare smides på ens nuværende PSU. Corsair understøtter det nærmest 5+ år tilbage i deres lineup.
--
i7-13700K, 32GB 6400/C32, RTX 4090, 32" 4K/160Hz NanoIPS
--
Sidst redigeret 05-11-2022 12:14
#68
Jesper
Gæst
05-11-2022 14:38

Rapporter til Admin
#62 Så er det fordi at det er CPU bound spil og så har det ikke så meget med valget af GPU at gøre. Jo GPU har rigtig meget med det at gøre. Valgte man et GTX 670 ville nærmest ingen spil være cpu bound. Vælger man et RTX 4090 bliver en del spil cpu bound. (Overdrivelse fremmer forståelsen) Det er jo netop hastigheden på GPU (kontra cpu) der afgør om et givent spil er cpu eller GPU bound.
--
Gæstebruger, opret dit eget login og få din egen signatur.

Opret svar til indlægget: RTX 4090 reviews/performance

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning