Denne tråd er over 6 måneder gammel
Er du sikker på, at du har noget relevant at tilføje?
XFX 6950 Xt på tilbud til 4849,-Af Guru Martin.v.r | 01-09-2023 01:36 | 7027 visninger | 103 svar, hop til seneste
https://www.komplett.dk[...] --
asus maximus xiii apex z590 i9-11900K @ 5.1GHZ 2x16 Corsair 4600@5000MHZ cl18
1000W ROG STRIX ROG STRIX-GTX1070-O8G-GAMING
--
Sidst redigeret 01-09-2023 01:36
opper den lige,hvis man ikke har set det -- asus maximus xiii apex z590 i9-11900K @ 5.1GHZ 2x16 Corsair 4600@5000MHZ cl18
1000W ROG STRIX ROG STRIX-GTX1070-O8G-GAMING
Ja det bringer 7900 XT og 4070/4070Ti til skamme med den pris
-- Strix B650-A WIFI + P500 DRGB + RM1000e
ASRock PG 7900 XTX + 7800x3D
2x16GB FURY Beast RGB 6000MHz #2 - ja, det er godt nok et godt tilbud hvis man "bare" vil have en røvfuld FPS.
Jeg endte med et 4070, og fik præcis hvad jeg ønskede mig. Fantastisk 1440p performance, og et nærmest utroligt støjsvagt kort. Det er godt nok imponerende så lidt lyd der kommer ud af det kort, og jeg har ikke engang prøvet quiet BIOS endnu. Fordi.. det er "quiet" nok som det er.
Men ja - jeg er i undertal blandt "entusiaster" - det ved jeg godt. 6950XT-performance til den pris er nærmest uforskammet billigt, når man kigger på alternativerne. Og MERC-kortene skulle være blandt de absolut bedste mht. lydniveau og byggekvalitet.
Man må håbe at de kommende AMD-kort i 7-serien bliver mægtige - ikke kun på rå performance. -- "ORK SATME!" #3 Jeg havde købt en 6950 red devil (som plejer at være det "bedste") og syntes det kørt af HT, og returneret det.
så endte også med et Gainward RTX 4070 Panther og det spiller bare. -- Google is your friend! Jeg skiftede mig 3080 ud med et xfx 6950xt på tilbud for knap 4 måneder siden.
Valget stod i mellem 4070 og 6950xt, jeg gav AMD en chance efter næsten 10 år med nvidia.
Jeg har ikke fortrudt mit køb og til 1440p er det sku et fantastisk kort. -- Ja det er en super pris og jeg er fristet til at få all in med AMD i alle mine pc'er.
Jeg overvejede det kraftigt til at afløse mine RTX 2080Ti kort, men her vandt et Asrock Radeon RX 7900XTX Phantom Gaming OC, som ligger klar til at blive installeret.
Jeg overvejer dog kraftigt af udskifte mit Asus RTX 3080 TUF med dette XFX RX 6950XT.
Ja Nvidia får ikke mine pengene denne omgang med de priser de lægger for dagen, jeg giver ikke over 4000kr for blot 12GB Vram. 11GB har jeg haft i 5år allerede. -- 1[R9 3950X|RTX 2080Ti SLi|X570|32GB 3600MHz]
2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz]
3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz] kan se de stadig har dette tilbud,men om det kan svare sig mod et RX7800 XT ved jeg ikke -- asus maximus xiii apex z590 i9-11900K @ 5.1GHZ 2x16 Corsair 4600@5000MHZ cl18
1000W ROG STRIX ROG STRIX-GTX1070-O8G-GAMING
Rx 7800xt er langsommere, en smule. Mit eget Rx 6800xt er ca. 4 - 5% langsommere end et 7800xt. -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i Folk kan rolig købe 7900 serien der kommer nok ikke noget nyt top kort næste år -- Intel 13700k Noctua D15s + Asus strix ROG B760i + Sapphire RX 6900 XT Toxic Air også i forhold til ders topmodel ? af RX7800XT ? og så er der strøm forbruget ? -- asus maximus xiii apex z590 i9-11900K @ 5.1GHZ 2x16 Corsair 4600@5000MHZ cl18
1000W ROG STRIX ROG STRIX-GTX1070-O8G-GAMING
--
Sidst redigeret 16-09-2023 22:28 #9 Tag denne video med et sundt gran salt, men kunne være cool med opgradere ver. af nuværende kort + et Rx 7950 xtx..
https://www.youtube.com[...]
#10 Hvis du skal gå efter strømforbruget, så er det ikke AMD, du skal gå efter. De er ret langt bagefter Nvidias Rtx 4070.
-- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #11 jeg sagde også 7900 serien, hvis der kommer et 7950 xtx, så det bare et oc kort, hvis nogen tror der kommer 8000 serien, så det kun mellem kort størrelsen, både AMD og Nvidia og Apple kan ikke få nok chip fra TSMC
https://youtu.be[...] -- Intel 13700k Noctua D15s + Asus strix ROG B760i + Sapphire RX 6900 XT Toxic Air #13 Har godt hørt det med at AMD sandsynligvis ikke vil lancere next gen. top tier GPU'er. De har gjort det før - Rx 4xx (Rx 5xx) og så Rx 5700x, det var også AMDs top tier kort.
Ved ikke rigtigt hvad jeg skal tro, måske taler rygterne sandt, måske er det bare et mediestunt fra AMDs side? :D -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #14 Tja så er 7950 xtx en joke, det er bare et oc af 7900 xtx, det var ligesom med 6900 og 6950 -- Intel 13700k Noctua D15s + Asus strix ROG B760i + Sapphire RX 6900 XT Toxic Air #15 Tja, det ved jeg nu ikke;
https://youtu.be[...] -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i RTX 4070 kortene er uofficielt pt. faldet med 400-500 kr. takket være AMD :D -- Better to reign in Hell, than serve in Heaven #17 Hvilke? Der er vist kun et par stykker, der er faldet et par hundrede kroner ifg. www.pricerunner.dk[...]
Det mest populægre kort Asus Rtx 4070 Dual ligger på akkurat samme pris.
Eneste kort jeg umiddelbart kan se er faldet en smule, er dette Gigabyte kort:
https://www.pricerunner.dk[...] -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i --
Sidst redigeret 17-09-2023 12:55 for 2 dage siden var asus dual kortene nede på 4700,- i en kort stund åbenbart :(
-- Better to reign in Hell, than serve in Heaven Hvornår for vi et bedre alternativ til et nyt rx 6700 xt til under 3000kr ?
Og nej et 6950xt er ikke et bedre alternativ bare fordi det er hurtigere og ikke koster en formue
Det er hurtigere men bruger meget mere strøm og er dyrer, skal man så have en hurtigere cpu eller en 200 watt større strømforsyning så vi oppe på en pris tæt på 6000kr eller over hvis det er cpuen der skal opgraderes, inden man har solgt det man opgradere
Nøjes med hvad man har og et rx 6950 xt (ikke alle har en hurtig cpu) eller et rx 6700 xt og en hurtigere cpu (færreste der har behov for mere end 650 watt med en i7 eller ryzen 7 og et rx 6700 xt) -- #5
Hvor mange % flere FPS, ved samme settings, vil du mene at du har fået? -- ASUS B550M TUF - 5800X - NZXT Kraken X62
G.Skill 2x8gb 3200Mhz CL14
3080 TUF OC - Samsung LC34G55T
Adata XPG SX8200 Pro 1TB #20 Mon ikke Rx 7700xt kommer ned i pris efter noget tid. De er lige lanceret, til en pris på ca. 4k (for de billigste). -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #22
Ikke så længe rx 6700 xt starter på under 3000kr og 6750 xt lige over 3000kr -- #23 Der er jo ikke uanede 6700 xt kort tilbage, de bliver jo solgt ud på et tidspunkt. Og så ser vi sikkert 7700 xt falde i pris. Det ville jo være tosset hvis AMD prissatte 7700 xt på niveau med 6700 xt, for så kommer de aldrig af med resten af 6700 xt. -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i Alt for dyrt for et 3 år gammelt kort som har sindsyge watt spikes og haltende features (kontra Nvidia)
Selv 6900XT spiker til 636 watt som det kan ses her:
https://www.techpowerup.com[...]
Men 6800XT har samme problem.
Ingen af kortene fra nuværende generation har det problem. 7900XT spiker på 418 watt til sammenligning og slår meget nemt et 6950XT som bare er et 6900XT med OC (endnu højere wattforbrug) men identisk chip.
4070 spiker på 232 watt og 4070 Ti spiker på 332 watt.
Watt spikes er det der kan få maskinen til at genstarte eller PSUen til at brænde sammen. Det var et stort problem for AMD i 6000 serien, især 6800 og 6900 serien. Hvilket de netop rettede med 7000 serien.
Gasolin: Indse at 6700XT ikke er et hurtigt kort. Det er på 3060 Ti niveau. Vi er nogle der har brug for mere power end det. -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED --
Sidst redigeret 17-09-2023 15:42 #25
Det kontinuerlige strømforbrug på 3090 og 4090 er uacceptablet, vil jeg mene.
Mit 3080 ligger rimelig stabilt omkring 300-320 watt og jeg kan sagtens mærke varmen, når jeg sidder og gamer.
Jeg er såååå glad for at jeg har aircondition og solceller, så jeg ikke skal tænke på strømregningen. -- ASUS B550M TUF - 5800X - NZXT Kraken X62
G.Skill 2x8gb 3200Mhz CL14
3080 TUF OC - Samsung LC34G55T
Adata XPG SX8200 Pro 1TB #26 4090 bruger ikke sønderligt meget power ift. den ydelse det leverer og AMD har intet der kommer tæt på alligevel.
7900XTX yder som et 4080 men 7900XTX bruger 50 watt mere og taber i RT og features.
Jeg er så glad for at jeg ikke skal skænke elforbrug en tanke, da det er billigt ;) -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED #27
Så 450 watt er acceptabelt?
Jeg synes at det er helt vildt meget varme der skal ud af et kabinet. -- ASUS B550M TUF - 5800X - NZXT Kraken X62
G.Skill 2x8gb 3200Mhz CL14
3080 TUF OC - Samsung LC34G55T
Adata XPG SX8200 Pro 1TB #28 For et high-end kort ja. Det er ikke fordi 7900XTX gør det meget bedre og taber alligevel til 4090 relativt stort.
Desuden så kan 4090 blive et af de mest effektive GPUer med undervolting, hvis man hellere vil fokusere på effektivitet.
Men 4090 er verdens hurtigste gaming kort og AMD har officielt sagt at de ikke kommer til at slå det.
AMDs 6800 og 6900 havde langt større watt spikes end 4090:
https://www.techpowerup.com[...]
4090 spiker på 508 watt hvor 6900XT rammer 636 watt og det er til trods for at 4090 er ekstremt meget hurtigere.
Det er sjovt du sådan døjer med varme. Mit 4080 ligger på 300 watt i snit og jeg døjer ikke med varme overhovedet i rummet. Det er med OC og Undervolt, så jeg ligger 5-10% over Stock ydelse, men under Stock Wattforbrug. Lækkert. -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED --
Sidst redigeret 17-09-2023 18:16 #24
Kunne sagtens koste 32500-3500kr for et rx 7700 når 6750 koster lige over 3000kr og under for et rx 6700 xt
ca 2750kr ca 3000kr og ca 3500kr eller under f.eks 3250kr
rx 7700 xt koster bare fra ca 3800kr og op, der kan et rx 6700 xt være et meget bedre kort til prisen
-- #25
kort med lavere ydelse anses stadig som 1080 kort hvor et rx 6700 xt er et higher tier 1080 kort og som sagtens kan bruges til 2560x1440
Skal man spille nyeste spil i 2560x1440 med grafikken på ultra og over 100 fps (eller high og 144 fps), ja så skal man have noget hurtigere -- #29
Det er kun i sommermånederne at der bliver varmt i rummet. -- ASUS B550M TUF - 5800X - NZXT Kraken X62
G.Skill 2x8gb 3200Mhz CL14
3080 TUF OC - Samsung LC34G55T
Adata XPG SX8200 Pro 1TB Jeg gik fra 3080 til et 7900xtx men måtte sande at jeg ikke kunne nøjes med et Amd kort og skiftede relativt hurtigt til 4090.
Mit 4090 bliver slet ikke varmt og ligger på 60 grader i load så nej, et 450 watts kort behøves ikke være specielt varmt hvis der er styr på køling og airflow. -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz Har selv haft 3stk. RX 6800 XT (MSI' Gaming X Trio, AMD Reference & PowerColor Red Devil) og så opgraderet til XFX RX 7900 XT Merc 310 og i 1440p kan jeg godt mærke forskel i nyere titler. -- #34 Ja selvfølgelig, 7900XT er 30% hurtigere end 6800XT -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz Har virkeligt kigget på det kort længe - Det var på bud til 4500kr tidligere og steg så til 5300 eller sådan noget før dette tilbud.
Men kan simpelthen ikke retfærdiggøre strømforbruget. Uanset om køleren er god nok og kortet ikke bliver "varmt", så er det virkeligt meget effekt at smide ud i kabinettet og efterfølgende resten af "kontoret". Men i guder det er billigt for den slags ydelse. :( -- R7 5700, RTX 3070, 32GB, Xonar Essence STX+STU - Nom! Iflg tomshardware vinder 4070 over 6950 - er der noget jeg overser? -- #36 Ydelsen er da ikke særligt imponerende. Det er 3 år gammel teknologi, da det er præcist samme chip som 6900XT bare overclocket lidt og 7nm.
Derudover lider især 6800 og 6900 serien af power spikes. 6900XT peaker på 636 watt og 6950XT ligger kun højere. https://www.techpowerup.com[...]
Se nederst under 20 ms power spikes.
Altså det er da et fint nok kort, set på ydelse, men 4070 og 7800XT leverer omtrent samme ydelse med markant lavere wattforbrug og lavere eller samme pris og disse kort vil få support i længere tid, da de er nyere.
Det har også været solgt til 4500 kroner og mener også at have set 6900XT til under 4000 kroner, det var et langt bedre "tilbud" -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz --
Sidst redigeret 18-09-2023 13:03 Nu har jeg selv det xfx 6950 xt.
Det er med 2x8pin, dvs max forbrug ligger på 310-320 watt, det samme som mit 3080.
Med undervolt 250 watt. -- #39 2x8 pin er 375 watt og det kan sagtens peake langt højere end det. -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED #40 Højest jeg har set mit kort er 304 watt med 99% forbrug i div spil og benchmarks. Aldrig set det spike over det.
Og når jeg bruger min profil er det max 272 watt. -- #41 Tænker at de høje spikes kun kan måles ved høj sampling rate. I det tilfælde i #29 er den helt nede på 20 ms. -- #38 Når supporten for AMD's RX 6000 er udløbet, så har vedkommende nok opgraderet på forhånd. -- 1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz]
2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz]
3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz] #41 Du kan ikke se spikes med software.
#43 Med support mener jeg optimering og fokus fra AMD, den stopper længe før den faktisk support gør det. Når en GPU er 2-3 generationer gammel, så vil der være svingende ydelse i nye spil og flere grafiske fejl som ikke bliver rettet og det gælder både Nvidia og AMD.
De har primært fokus på nyeste generation. Derefter forrige og så glemmes de ældre oftest.
Har der været utallige eksempler på og så må man leve med dårlig ydelse eller grafiske fejl i nye spil.
Svarer til at købe en 3 år gammel telefon og tro man får support og opdateringer i 5 år frem. Gør man ikke. Ingen virksomheder bruger meget tid på at fejlrette og optimere gamle enheder, eller hardware.
Spild af penge for dem og tid er penge. De vil hellere have du køber noget nyt.
Derfor ville jeg aldrig overveje 6950XT et sekund over noget nyere, som 7800XT eller 4070 medmindre man får det smidt i nakken måske, men det gør man ikke her. Knap 5000 er ikke ligefrem et steal for et 6950XT i 2023 som i bund og grund bare er et overclocket 6900XT med dertilhørende højere wattforbrug... -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz --
Sidst redigeret 19-09-2023 12:32 #44: your milage may vary :)
RX 7000 og RX 6000 er så tæt i generationer, at software optimeringen ligger tæt op af begge GPU'er, så først når RX 7000 begynder at se drivere uden optimeringer, så ser vi det med RX 6000. Det samme gjorde sig gældende med HD5000 og HD6000 serien.
Jeg har et RX 5700 og det kører ganske fint i nyere titler endnu.
Jeg har dog ikke oplevet ydelsestab på senere driver updates selv i ældre titler.
Personligt har jeg overvejet at skifte min RTX 3080 10GB ud med RX 6950XT 16GB, primært fordi jeg ikke ser noget alternativ fra Nvidia der opfylder mine krav til en fornuftig pris. 4849kr for RX 6950XT da ville jeg stadig overveje det. Men igen, det kommer an på hvad man er ude efter. -- 1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz]
2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz]
3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz] #44
Det er på ingen måder voldsomt bagud i forhold til et rtx 3070 ti,3080,3080 ti og rx 6900 xt
Ved ikke hvorfor det er sådan, men et rx 6900 xt bruger som maximum meget mere strøm end et rx 6950 xt (sidste graph) https://www.techpowerup.com[...] -- #45 RDNA2 var monolithic og RDNA3 er chiplet. De er ikke rigtigt ens designet hvis du læser archtecture deep dives.
RDNA4 kommer allerede i 2024 men vil ikke have decideret high-end løsninger, som det rygtes.
At skifte et 3080 ud med et nyt 6950XT er da spild af penge. Hvad skulle begrundelsen være? Så ville jeg da hellere købe noget nyere fra nuværende generation.
3080 yder mellem 6800XT og 6900XT i 4K 1% low fps - https://www.techpowerup.com[...]
Lad mig gætte, du siger RAM men hverken 3080 eller 6950XT er i stand til at maxe nye og krævende spil ud i 4K i dag alligevel, da chippen i sig selv er for svag. Her bliver opskalering meget relevant og DLSS slår nemt FSR.
Jeg gad ikke engang overveje AMD kort da jeg skiftede til 4090, for det ville betyde at det var slut med at bruge DLSS, DLAA, Reflex og RT alt efter hvad der gav mest mening. -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz --
Sidst redigeret 19-09-2023 15:10 #47 De fleste ved at Ampere er stærkere i UHD og RDNA2 har en fordel i lavere opløsninger.
Og jo, Rtx 4090 er en stærk GPU, det er der ingen tvivl om. Men hvis jeg ville ofre penge på en GPU i dag (er ret tilfreds med mit Rx 6800 xt til 1440p gaming), så ville det klart være et Rx 7900 xtx, da jeg stort set kun spiller COD spillene. Her er der ikke den store forskel på Rtx 4090 og Rx 7900 xtx.
https://youtu.be[...] -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i --
Sidst redigeret 19-09-2023 15:24 3080 og 6800XT yder stort set en i 1440p.
https://www.techpowerup.com[...]
6800XT har en lille fordel i 1080p og 3080 har en fordel i 3440x1440 og 4K.
Intet fra AMD kommer tæt på 4090 medmindre man cherrypicker spil, fremfor at kigge på den samlede ydelse over mange spil. Der er også mange spil som kører bedst på Nvidia, så det er jo også værd at tage med når man køber GPU.
Personligt kigger jeg også på andet end raster ydelse når jeg køber GPU. Features er vigtige. RT er også noget jeg kigger mere og mere på. Kan ikke vente på Half Life 2 RTX udkommer.
Der er så mange RTX Remix spil og mods. Men DLSS/DLAA/DLDSR/Reflex/Shadowplay er også features jeg ikke vil undvære og håber AMD engang kan matche disse, ellers kigger jeg personligt ikke AMDs retning. -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED --
Sidst redigeret 19-09-2023 18:02 #48 Derudover sidder de fleste COD/Warzone spillere alligevel med Nvidia, f.eks. JackFrags og Stodeh ;) Det gør de primært fordi de også spiller andet end COD, men også fordi ShadowPlay er ReLive markant overlegent og har native support på samtlige store streaming platforme, hvor ReLive er langt mindre supporteret, har flere problemer, dårligere billedkvalitet (bitrate) og et større performance hit, så ydelsen falder for streameren selv.
Sidst men ikke mindst så kræver COD spillene jo intet alligevel. Grafisk er de nogenlunde men bestemt ikke i nærheden af de bedste spil på dette område, som netop straffer GPU langt mere.
Jeg ligger på 150-200 fps i Warzone 2 nærmest hele tiden i 3440x1440..
Hvis jeg spiller de helt små COD maps, alm. Multiplayer, så idler min GPU nærmest og har 200 fps hele tiden.. -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED --
Sidst redigeret 19-09-2023 18:51 #50 Jamen så kan du og JackFrags jo klappe hinanden på skulderen og i kor sige "yes, vi har et Nvidia kort - kæft hvor er vi gode".
I mellemtiden kan jeg så nyde de seneste COD spil maxed out i 1440p med mit Rx 6800xt med omkring 120 - 200 FPS (alt efter hvilket spil) uden alt muligt fancy opskalering mv. :D -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #51 Jeg ligger som sagt på 150-200 fps i 3440x1440 uden brug af DLSS i Warzone 2, selv i Al Mazrah. Så din fps lyder umiddelbart lav haha.
Reflex er også en lækker feature i spillet, men det kan du jo heller ikke bruge.
Tror du steamere vælger Nvidia for sjov. Nej. De vælger det grundet features og bedre ydelse samlet set.
Når man først har DLSS/DLAA/DLDSR/Reflex/ShadowPlay (og jeg kunne jo næsten blive ved) så vender man ikke tilbage til AMD kort som udelukkede har Raster ydelse og intet andet + halter på features.
Deraf prisen på AMD GPUer. Hvorfor tror du selv at AMD prissætter deres GPUer lavere? Fordi de er bedre? Haha :D
Var AMD faktisk bedst, så havde prisen været på niveau eller højere. Ikke lavere. Det er ren logik.
Men jeg ved det er svært at acceptere fakta.
Aldrig i livet om jeg ville skifte mit 4080 ud med et 7900XTX.
Jeg spiller Starfield med DLAA lige pt.
Alt imens AMD GPU brugere ikke har nogen sol i spillet :D
https://www.pcgamer.com[...]
Det er sku en sjov fejl for et AMD sponsoreret spil :D
De prøvede at forhindre DLSS/DLAA i spillet, men vi havde DLSS/DLAA mod på day one og det slår nemt FSR og Native.
Som det kan læses her https://www.techpowerup.com[...]
;) -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED --
Sidst redigeret 19-09-2023 19:05 #52 Til lykke med det, og ellers kunne det ikke rage mig mindre, overhovedet. Måske Jensen Huang tildeler dig en medalje som DKs største fanboi? -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #53 Jeg kan forresten se du har valgt et curved VA panel til COD. Det må da være årets joke haha :D
Men du kan vel godt lide smearing.
Eller har du fået skiftet det bras ud?
Sjovt at du taler om hvor godt COD kører med 120-200 fps, alt imens du spiller på en VA skærm...
INGEN der spiller shooters seriøst bruger VA panel, af god grund. -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED --
Sidst redigeret 19-09-2023 19:15 Fortsæt endelig - så skal det nok kaste et ban af sig. -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i Bissen det nytter ikke diskutere med folk der er ansat af UserBenchmark ;-p -- Strix B650-A WIFI + P500 DRGB + RM1000e
Asus TUF 7900 XTX OC+ 7800x3D
2x16GB FURY Beast RGB 6000MHz --
Sidst redigeret 19-09-2023 19:30 #57 Du har ret. :D -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #55
Hvad er der galt med VA paneler? -- ASUS B550M TUF - 5800X - NZXT Kraken X62
G.Skill 2x8gb 3200Mhz CL14
3080 TUF OC - Samsung LC34G55T
Adata XPG SX8200 Pro 1TB jeg har næsten lige købt det xfx 6950 som tråden egentlig handler om... og er mere end tilfreds... jeg kunne aldrig drømme om og købe et nvidia kort da de simpelthen tar deres kunder dybt ana.. med de priser de har....
https://www.youtube.com[...] -- En forlader ikke en synkende skude der ved hvad bundproppen har slået :-P --
Sidst redigeret 19-09-2023 20:29 #59 VA paneler har dårlig betragtningsvinkler og meget mere udtværing ved hurtige bevægelser.
Input lag kan være okay på VA men pixel transitioning er markant langsommere end TN og IPS, hvilket er grunden til ingen seriøse FPS gamere bruger VA. Rise time er simpelthen for ringe på VA. Især i mørkere områder i spil, er udtværingen markant. Eller fra helt lys til normal (hvis man bliver flashed i CS eksempelvis)
Fordelen ved VA er højere konstrast men det svinger meget og de hurtigere VA paneler (som stadig er ret langsomme) har også meget lavere konstrast end de langsommere.
VA er derfor ikke et high-end panel og har mange ulemper kontra IPS. Derfor er de oftest prissat en del lavere.
VA er fint til casual gaming, men hvis man spiller hurtige skydespil, så vælg noget andet.
#60 Jeg er meget tilfreds med mit 4090 og AMD har intet der kommer tæt på i hverken ydelse, RT ydelse eller features, men hvis man har et begrænset budget så kan AMD jo godt være vejen frem. -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz --
Sidst redigeret 20-09-2023 10:44 #59 Intet. Nye VA paneler langt bedere end mange tror. Input lag på min Dell får fine kommentarer med på vejen. https://www.rtings.com[...] -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #62 Input lag er ikke problemet. Det er pixel transisioning og udtværing af billedet generelt og det har alle VA, da det er en panel flaw.
https://www.youtube.com[...]
https://www.youtube.com[...]
https://www.youtube.com[...]
Høj refreshrate løser heller ikke problemet.
Jeg har prøvet op til flere VA paneler selv med 240 Hz (Samsung Odyssey) og det er stadig et problem her.
Fra dit eget link "The VA panel has some downsides, though, as there's noticeable black smearing in dark scenes, and the image degrades when viewed at an angle."
Ingen seriøse fps spillere bruger VA panel af denne grund. -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz --
Sidst redigeret 20-09-2023 12:36 #63 Selvfølgelig får man ikke en top tier skærm for ca. 2k. Men til mit behov er det en fin skærm. Og er ikke en "seriøs" gamer. -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i Jeg er yderst tilfreds med mit RX 7900 XTX og min ASUS TUF Gaming VG32VQR 31.5"TFT WQHD, VA panel, 2560x1440@165Hz, 1ms. Gode sorte kontraster og synes ikke jeg har tabt noget ved at gå fra Acer XF270HUA 27" 2560x1440@144Hz WQHD, IPS, 4ms GTG. Jeg spiller primært First Person Shooters f.eks. Enemy Territory, Quake Live, COD MW2 etc.
Det er fint hvis folk vil have det bedste af det bedste, og det må de gerne, man skal bare ikke pådutte ens behov til andre. Men for mig gælder det i dag "it is not getting what you want but wanting what you have".
-- 1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz]
2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz]
3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz] #65 Kender også flere som er yderst tilfredse med at sidde i 1080p med et 6-8 år gammelt grafikkort. Vi har alle forskellige krav og forskelligt budget.
Det ændrer ikke på at VA har problemer med hurtige spil og at ingen professionelle eller seriøse spillere bruger VA. Det er TN/IPS eller endda OLED som alle er langt hurtigere, OLED især.
OLED har instant pixel transisioning sammenlignet med LCD teknologi. Ingen udtværing frame for frame og tæt på perfekte betragtningsvinkler.
VA har så dårlige betragtningsvinkler at hvis man bevæger hovedet nogle centimeter fra side til side foran skærmen, så er der gamma shift.
VA har også mindre korrekte farver end IPS.
Disse to grunde gør at VA aldrig bruges til grafisk arbejde. Medmindre det er på amatørniveau måske.
VA kan være fint for nogle, men har store ulemper for folk som spiller hurtige spil, deraf prisen på VA skærme. VA er næsten udelukkende brugt i billige skærme.
IPS og VA har næsten udryddet TN, fordi IPS er blevet så hurtigt og fordi VA er så billigt.
TN er stadig det hurtigste panel og rammer 500+ Hz nu, dog i 1080p. Men IPS rammer 360 Hz i 1440p til sammenligning.
Refresh rate og input lag er langt fra det eneste som betyder noget, i forhold til hvor god en skærm er at game på. Pixel response time, ghosting og trailing er ekstremt vigtigt og det er netop her VA halter. -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz --
Sidst redigeret 20-09-2023 13:12 Og OLED er der langt større risiko for burn in. På IPS er kontrasten dårligere end på VA paneler. Der er ups and downs ved alle skærme. -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #66 jeg tror vi har forstået at du er prof highend gamer med alt udstyret iorden.
Nu har 99.9% af gamere så ikke uendelig dybe lommer og må tit finde et kompromis.
Jeg har personligt 2 32” 144hz VA monitore og er fint tilfreds, bevares jeg lever så heller ikke af at game.
Mit 6950xt er ca 20% langsommere i CoD i 1440p men 3 gange billigere.
Jeg kunne aldrig finde på at smide 14000kr+ efter et gfxkort eller 6-8000kr efter en skærm.
Sådan er vi jo så forskellige. -- #67 Mange OLED skærme har burn-in garanti og de kan i det mindste leverer HDR i modsætning til alle LCD skærme, som kun på papiret har HDR. I praksis er de håbløse til HDR. Da LCD kræver FALD / Local Dimming før HDR er brugbart på en LCD skærm, men FALD tilføjer markant input lag da processing tager 200ms eller mere, som du kan smide oven i input lag.
Samme problem har LCD TV skærme og disse dimming zoner slåes netop fra i game mode ellers ville de være alt for langsomme til gaming.
IPS er det bedste all-round LCD panel i dag. Uanset hvad du skal bruge det til. Grafisk arbejde, gaming, ligemeget. IPS vinder når vi snakker PC monitors.
Har man brug for HDR og et kæmpe løft i billedkvalitet, så er OLED det eneste alternativ. Burn-in er kun et problem for folk som aldrig har haft OLED. Jeg har haft OLED i årevis og aldrig oplevet burn-in på utallige mobiler og TVer.
Når 2. generation af OLED PC monitors lander i år, så hopper jeg også på her. -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz --
Sidst redigeret 20-09-2023 13:15 #68 Lad nu være med at få det til at lyde som om dit 6950XT kommer i nærheden af et 4090. Du udstiller kun dig selv. Ikke engang 7900XTX er tæt på samlet set og da slet ikke i RT eller features.
Derudover kostede mit 4090 "kun" 12.000 men jeg fik 9000 for mit gamle 3090. En billig upgrade vil jeg sige ;) Begge købt på release.
Jeg er ligeglad med om et grafikkort koster 6000 eller 12000. Hvis bare det er hurtigt og har de features jeg har brug for. Intet AMD kort har hvad jeg skal bruge.
Jeg er 35 år. Jeg har penge til at købe præcist hvad jeg vil. Dagene hvor man skal tænke over ethvert køb er slut (for længst). PC hardware er billigt. En dag du har børn, hus, lejlighed, sommerhus, flere biler, som mig, så vil du nok også indse at hardware køb er et meget lille greb i lommen. Sådan helt seriøst. Det er peanuts i forhold til så mange andre udgifter.
Vi er nogle der ikke kun spiller COD. Jeg spiller primært nye og krævende AAA titler og 4090 er det eneste kort som gør det rigtigt godt i 4K i dag, især med RT. -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz --
Sidst redigeret 20-09-2023 13:27 #70. Det må være lækkert ikke at skulle give det en tanke :) -- 1[R9 3950X|RX 7900XTX 24GB|X570|32GB 3600MHz]
2[R9 3900X|RTX 3080 TUF|X570|32GB 3200MHz]
3[R9 5900X|RX 6800 16GB|X570|32GB 3600MHz] Ja, det var rigtig nok godt. -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #70 Sådan er der så meget. Undtagen når man får sin løn. Så er der så lidt. -- Denne tråd er definitionen på "fortæl mig at du er fanboy, uden at sige du er fanboy". -- I like turtles! #74 Har intet med at være fanboy at gøre. Havde AMD haft et kort som kunne hamle op med 4090 på både ydelse, rt og features, så havde jeg gladeligt betalt dem.
Jeg har en AMD CPU, hvorfor? Fordi det gav mening da jeg skulle opgradere og CPU er AMDs primære fokus. Det er ikke GPU ikke.
7900XTX gav ingen mening da jeg skulle opgradere. Desuden havde jeg mit 4090 flere måneder før AMD overhovedet fik taget sig sammen til at udgive 7900XTX og dette kort kostede i starten kun 2000-3000 under hvad jeg fik mit 4090 for ;) -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz @74 Hahaha ja!
Jeg håber inderligt at det er trolling eller satire, ellers er det sq da for trist for de involverede...
On topic. 6950XT performer godt og er imo det nærmeste man kommer et entry-level 4k kort i den prisklasse. Vær obs på lyd, varme og strøm dog.
Hvis nogen har spørgsmål til modellen må i hjertens gerne pm mig, har haft en. :) -- Er blevet lidt i tvivl... Er det et 4090 eller 3090 #75 har? -- Strix B650-A WIFI + P500 DRGB + RM1000e
Asus TUF 7900 XTX OC+ 7800x3D
2x16GB FURY Beast RGB 6000MHz --
Sidst redigeret 21-09-2023 16:47 @77
Jamen lad os se, han har; børn, hus, lejlighed, sommerhus, flere biler, peanuts, IKKE et VA-Panel eller en 7900XTX, en 4090 og han er tidligere ejer af en 3090 tror jeg nok...
-- #77
Der står han har Ryzen 5800X3D / 32GB / 4090 / 4K144Hz -- føj det lugter af pral i denne tråd med et stort touch a fanboy. -- Better to reign in Hell, than serve in Heaven --
Sidst redigeret 21-09-2023 17:08 #76 Hvis du mener et 6950XT kan køre 4K, så er der godt nok mange kort der kan men ja det afhænger af hvilke spil man kaster efter det. Er det nyeste og mest krævende spil på høje indstillinger, så vil det kræve FSR for at køre godt. Er det ældre og mindre krævende spil, ja så kan mange grafikkort godt være med alligevel.
Jeg kan stadig ikke se det gode tilbud i et 6950XT til næsten 5000 når et 6900XT har været under 4000 flere gange og er 100% den samme chip.
Et 6900XT med lidt OC yder identisk med 6950XT men forskellen er minimal selv uden OC.
Jeg kender sku flere som sidder med 4K skærm og et slattent grafikkort. De spiller også ældre spil og ARPG, så det er ligemeget. Starter de Cyberpunk på max så ville deres PC nok gå i brand.
Så ja, om et kort kan 4K eller ej, afhænger godt nok af hvad man kaster efter det :]
Jeg ville ikke engang være tryg ved mit 4080 i 4K, da jeg gerne vil have 120+ fps ^^ -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED --
Sidst redigeret 21-09-2023 17:29 #81 Har sgu aldrig hørt om nogen der gamer på en 4K skærm. Mener du ikke en UHD skærm? -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #82 Det er indforstået når vi snakker 16:9 skal du nok se. Så dum er du vel heller ikke :] -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED --
Sidst redigeret 21-09-2023 17:38 #83 Ikke her. Du skriver 4K, det er 4096x2160p. UHD er 3840x2160p. Men kan så forstå at det er UHD du snakker om? Eller? -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i #84 Suk, jeg ved mere om skærme end du nogensinde kommer til, så du behøves ikke spille dum og flashe lidt basic viden. Men tak for et billigt grin :] -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED Okay, så det var UHD du mente. :D -- Ryzen 5700x | 16 GB RAM 3200 MHz
ASUS STRIX B550-F | PNY 480 GB SSD | Kingston NV2 NVMe - 1TB
ASRock Rx 6800 XT 16 GB | NZXT C850 | Corsair H115i @81 Jamen dit indlæg der er netop noget af det der er så uheldigt ved den her tråd, ikke?
PC-gaming er rigtigt mange forskellige ting, for rigtigt mange forskellige mennesker.
Det der gerne skulle knytte os sammen på det her forum er interessen, lysten og motivationen for at bygge, tinker og lege på alle de forskellige niveauer og prisklasser vi nu har mulighed for.
Uanset om vi derfor har sat 25k eller 1krone af i budgettet pr måned til at rode med, bør vi da i det mindste møde hinanden med respekt og interesse, frem for bedrevidenhed og arrogance.
I forbindelse med om 6950XT er et 4k-kort, jamen så kan det nemt været det på entry-level, hvis det du vil er at spille med 60-75frames med medium til high settings og lav RT i nyere spil.
For søren altså, folk spiller Hogwarts Legacy på Steam Deck, det er ikke for mig personligt, men al respekt til dem!
Er der nogen her der hævder at 6950XT kan trække alle nye AAA-titler med 120fps samt RT på Max, nej - slet ikke!, men det er ikke det samme som at det ikke kan benyttes, eller at det er forkert at game 4k 60 på et VA panel man ellers er glad for uden DLSS. -- #87 Jeg kan ikke se hvad du mener er respektløst :] Jeg er da ligeglad med hvad folk bruger og jeg kender flere som kører 4K med et ældre kort. De spiller bare ikke de mest krævende spil, så der er intet magisk ved lige netop 6950XT og 4K. Det kan mange kort køre hvis bare spillene ikke er de mest krævende men hvis de en dag får lyst til at spille noget krævende, så er der kun opskalering til at hjælpe dem og her vinder DLSS nemt over både FSR og XeSS. -- 7800X3D, RTX 4080, 34" 3440x1440 QD-OLED @88 Jeg skriver på intet tidspunkt noget om at du, eller nogen anden, er respektløs. Prøv at læse min post igen.
Herudover er det utrolig mange posts, og dermed energi, du har investeret i noget du angiveligt er ligeglad med, men you do you.
Der er ingen her der hævder at der er noget magisk ved 6950XT, det er noget du siger. Jeg har netop lige redegjort for at folk kan gøre det på utroligt mange forskellige måder, samt at det er noget af det vi bør anerkende, frem for at møde med vores individuelle one size fits all.
Det tætteste vi kommer på er at jeg siger, at min mening er, at 6950XT kan være et fint entry-level 4kort i den prisklasse og det tror jeg egentlig ikke er specielt kontroversielt. Du må hjertens gerne have en anden mening, men det betyder ikke der er en objektiv sandhed der passer alle.
Det er muligt at 6950XT, eller AMD, eller RivaTNT2 ikke er de rette kort for dig, men det er det måske for andre.
-- Pas på med at fodre trollene i de tråde der kører med Nvidia fanboys pt. Admins svinger IP ban hammeren på indlæg der er åbenlyse jokes. De gider ikke engang gøre sig umage med bare at slette dem eller låse tråden. -- #81 Hvornår har 6900XT været under 4k?
Jeg husker kun et med premonteret vandblok til 4444,- på BF sidste år. -- Sgu sjovt at følge med i den her tråd. Især når man så finder den her:
https://www.hardwareonline.dk[...]
#49 Lasn85
"Features er vigtige. RT er også noget jeg kigger mere og mere på. Kan ikke vente på Half Life 2 RTX udkommer."
Samme person for 6 måneder siden:
"Ray tracing har ikke rigtigt imponeret mig, men det har da været sjovt at lege med i enkelte spil. [...] Jeg kan meget nemt se og mærke forskel på om et spil kører 100 eller 200-300 fps. Men under 100 fps, det gider jeg ikke når vi snakker PC. [...] Ergo, en ret ligegyldig feature som bedst egner sig til screenshots, ihvertfald indtil videre!"
Og tråden er oprettet af
#47 JenzZz
"Jeg gad ikke engang overveje AMD kort da jeg skiftede til 4090, for det ville betyde at det var slut med at bruge DLSS, DLAA, Reflex og RT alt efter hvad der gav mest mening. "
Samme person for 6 måneder siden:
" Er jeg den eneste der synes ray tracing er tåbeligt - Eller sidder der nogle som synes det er det fedeste? [...] Personligt så sætter jeg grænsen ved 10.000 for et grafikkort, da jeg køber nyt ca. hvert 2 år. Der er kæmpe tab på de dyreste grafikkort, så det gider jeg ikke, når jeg skifter så ofte[...] Ray Tracing, har været en joke siden 2018."
Skal vi ikke lade være med at nedgøre hinanden for at være "uvidende", "fattige" eller bare have andre prioriteter i livet? Det ser jo ud som om I også har været der engang ;) -- #92 Ja de udsiller sig selv, til grin for os andre. Men det var rimelig nemt at ane uråd tidligt i tråden. -- #92 Hvad er det forkerte i at ændre mening?
Nej RT havde ikke rigtigt imponeret mig for 6 måneder siden. Det har det nu og der er sket meget siden dengang + Jeg har fået ny skærm hvor RT og HDR virkelig kommer til sin magt.
Cyberpunk 2077 v2.0 med RT på QD-OLED i HDR, ja tak...
Sidder man med en slatten LCD skærm og et AMD kort, så har man ingen anelse om hvad jeg snakker om. -- 7800X3D, 32GB, RTX 4080, 34" 3440x1440 QD-OLED 165 Hz --
Sidst redigeret 22-09-2023 18:55 AMD kan sagtens RT..? -- R7 5700, RTX 3070, 32GB, Xonar Essence STX+STU - Nom! #94 Synes godt nok billedet er lort med RR selv i 1440p med DLSS quality ser det voldsomt sløret ud og ghoster jo for vildt.
Hellere RTX Psycho, håber RR ikke er eksklusivt til patch tracing som så kun 4xxx serien får glæde af. -- Better to reign in Hell, than serve in Heaven --
Sidst redigeret 23-09-2023 14:14 #95 Ja men med elendig fps og kun i spil hvor RT næsten intet kræver alligevel. Nvidia vinder altid når RT slåes til.
#96 Så må du fikse din spand, for det ser imponerende ud på min skærm :D
RR er eksklusivt til Patch Tracing indtil videre. -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz --
Sidst redigeret 26-09-2023 14:33 DLSS er IMO godt nok mærkeligt.
Jeg køber et dyrt grafikkort for at få mest mulig eyecandy. Så vælger jeg så at forringe billedkvaliteten mærkbart ved at aktivere DLSS. Wat?!
Jeg kører i hvert fald uden - jeg har ikke solgt en nyre for at få *grimmere* grafik.
Det er lidt som om folk lige skal finde ud af med sig selv om de bare vil have FPS, eller vil have eyecandy. Synes der er lidt mange der trækker i forskellige retninger.
Bevares, hvis man spiller konkurrence-multiplayer-FPS-spil (men hvorfor så ikke bare spille i 1080p med alt sat på "Legoklods") - det virker bare som om der er sådan en "disconnect" for mig I at være helt oppe at køre over alle mulige eyecandy-features, og så skyde sin billedkvalitet i foden med DLSS.
Oh well - jeg mangler ikke FPS. Hvis jeg en dag gør, så skruer jeg nok ned for en eller anden random setting, fremfor at gøre *hele* mit skærmbillede sløret... -- "ORK SATME!" #98 Jeg var heller ikke imponeret over dlss billed kvalitet.
Flere spil blev dissideret uskarpe og ting ude i horizonten var blurry eller pixileret. -- #98 Øhh DLSS kan forbedre billedkvaliten i mange tilfælde når Ultra preset vælges.
Bevis: https://www.rockpapershotgun.com[...]
Her ses det jo ret nemt at native ikke er pænere og mere sløret. DLSS Quality gør billedet skarpere ikke dårligere.
Derudover er DLAA et preset af DLSS nu og har været det længe efterhånden. Det betyder at man har den bedste AA løsning overhovedet til rådighed. DLAA slår nemt enhver anden AA metode på markedet. TAA er sløret til sammenligning.
DLAA er den eneste AA metode som nærmest eliminerer shimmering og jaggies helt.
#99 Så tror jeg du skal sætte spillene korrekt op...
Opskalering er kommet for at blive og i kan lige så godt vende jer til det. Både Nvidia og AMD mener det er vejen frem og utallige nyere spil har det aktieret som standard, netop fordi at native ikke nødvendigvis er bedre, det afhænger helt hvilket preset man vælger.
Starfield har FSR2 som standard. Desværre er FSR bare ikke i nærheden af DLSS så derfor modder folk alligevel DLSS/DLAA ind.
En god implementering af DLSS2 er ikke uskarp overhovedet såfremt udviklerne har brugt en nyere dll til det. Hvilket er en del af en "god implementering" ;)
Jeg tænker de fleste som mener DLSS er uskarpt har deres erfaring fra v1.x eller FSR eller bare ævler og holder fast i tanken om at native altid er bedre. Det er ikke korrekt mere.
Native i sig selv er grimt og selv i 4K/UHD er der jaggies uden en god AA løsning.
Som minimum skal der smides et eller anden AA løsning på og det har DLSS indbygget.
DLAA er bare fuldt fokus på visuals fremfor noget andet. DLAA vil ALTID gøre native pænere. Langt pænere faktisk.
Hvis man seriøst sidder og spiller sine spil i native uden at bruge disse nye teknikker, især som RTX ejer, så burde man nok sætte sig lidt ind i hvad de faktisk gør og hvordan de bruges korrekt, ellers går man glip af meget.
Jeg bruger DLAA i alle spil jeg kan, det er helt sikkert. Hvis der spilles krævende spil med RT, så kan jeg sagtens også bruge DLSS Quality men lavere går jeg ikke. -- Ryzen 5800X3D / 32GB / 4090 / 4K144Hz --
Sidst redigeret 27-09-2023 12:35 Nu handler det ikke kun om kort/driver,men også hvor godt de forskelige spil er bygget og vilke motor de bruger
SÅ det kan være til fordel for Nividia eller AMD -- asus maximus xiii apex z590 i9-11900K @ 5.1GHZ 2x16 Corsair 4600@5000MHZ cl18
1000W ROG STRIX ROG STRIX-GTX1070-O8G-GAMING
--
Sidst redigeret 30-09-2023 14:06 så er der sku tilbud igen,til laver penge 4.399,- Tilbuddet gælder, 14.11 t.o.m. 26.12 eller så længe lager haves. 100 tilbage -- asus maximus xiii apex z590 i9-11900K @ 5.1GHZ 2x16 Corsair 4600@5000MHZ cl18
1000W ROG STRIX ROG,RTX 3080 MSI
--
Sidst redigeret 26-12-2023 12:05 gammel nyhed 4399kr har det kostet i laaaaang tid og mange har forslået og købt et -- den har været væk og er kommet tilbage
jeg lave selv det først opsalg -- asus maximus xiii apex z590 i9-11900K @ 5.1GHZ 2x16 Corsair 4600@5000MHZ cl18
1000W ROG STRIX ROG,RTX 3080 MSI
--
Sidst redigeret 26-12-2023 13:03
Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.
Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.
Opret bruger | Login
|
Du skal være logget ind for at tilmelde dig nyhedsbrev.
Hvilken udbyder har du til internet? 424 personer har stemt - Mit energiselskab (Ewii f.eks) 11%
|