Hvis jeg alt på ultra undtagen få settings og tager DLSS på vil det så betyde at jeg spiller i 1440p?
Det kan du heldigvis nok se på skærmens menu - hvilken opløsning den kører i.
Uden at vide meget om DLSS, har du så læst at DLSS automatisk reducerer opløsningen til 1440p?
Hvilken størrelse er din skærm?
--
"ORK SATME!"
the688, det er det jeg mener - at det "reducerer opløsningen til 1440p" betyder det så at jeg ikke kan se 4k textures?
Skærmen er 28 tommer
--
Gæstebruger, opret dit eget login og få din egen signatur. Mener at DLSS reducerer opløsningen til 1080p for så at opskalere den til UHD (ikke 4K), hvis det er UHD man spiller i.
--
HP 15s-eq2819no
AMD Ryzen 5300, Quad Core m. SMT @ 3,8 Ghz | 2 x 8 GB RAM @ 3200 MHz, CL 22
256 GB Nvme SSD | 15,6" FHD SVA-skærm
--
Sidst redigeret 07-04-2022 19:47
DLSS får et spil til at rendere med en lavere opløsning(typisk 1440p) og bruger derefter dets trænede A.I. algoritme til at udlede, hvordan det ville se ud, hvis det blev gengivet med en højere opløsning(typisk 4K). Det gør den ved at bruge nogle anti-aliasing-effekter (sandsynligvis Nvidias egen TAA) og noget automatiseret sharpening.
Det pæneste mulige er at kører så høj opløsning og så høje grafik indstilling som overhovedet muligt og uden at aktivere DLSS. DLLS kan bruges hvis du ønsker en højere framerate med nedsat billedkvalitet. Nogen ville mene at forskellen på billedkvalitet med eller uden DLSS er ubetydelig og derfor foretrækkere den højere framerate.
--
Sidst redigeret 07-04-2022 23:32
#0 som #4 forklare, du spiller stadig i 4k med dlss
Mere simpelsagt, køre du dlss quality for at få det bedste billede, tager gpuen det billedet det ville have genereret i 1440p, her efter mangler du en del pixel og de pixel udregner A.I hvad der mangler og hvordan det ville have set ud hvis den kørte 4k og glatte det ud
Jo højere opløsning jo mindre visuelt ville det være, i 4k med dlss quality kan jeg klar se der er dlss på men du får Ca 20% gratis fps
--
#5 med en 4k skærm, spillet sat til 4k opløsning, og DLSS er aktiveret så spiller du ikke i native 4K men i 1440p som "ligner" 4K. opløsningen er 1440p og ikke 4k med dlss aktiveret
--
Sidst redigeret 08-04-2022 06:21
#6 både ja og nej, spillet bliver stadig outputtet i 4k og ikke 1440p.
Og det dlss gør er den render de pixel der mangler, det ikke bare ren anti alising og smoothing :) zet du forklare er mere hvad fsr gør, bare upscaling med smoothing
--
Sidst redigeret 08-04-2022 07:22
#7 Nej spillet renderer stadig i 1440p men DLSS opskalere/manipulere indholdet så ja datastrømmen fra gfx til skærm er en 4k pipe men indholdet er stadigvæk 1440p med fake AI genereret pixels til at få det til at syne højere opløsning. Tror vi er enige men hvis du opskalere en 1080p .mkv på en 4k skærm gør du ikke en 1080p .mkv til en 4k .mkv dog bliver visningen pænere afhængig af kvaltitet af opskaleringsprocedure. En 4k .mkv på en 4k skærm, altså 1:1 datastrøm, vil altid være pænere så længe framerate kan opretholdes.
--
#8 Og derved modsiger du dig selv, fordelen ved dlss er dit output er 4k selv om du render i lavere opløsning, netop fordi som du selv siger, a.i'en render de manglende pixel, dette er hvad netop fordelen er ved dlss frem for fsr, du får nemlig laver de pixel som a.i'en tror de skal se ud og derved outputter 4k, det ikke naive 4k men det så tæt på du kommer, ofte bedre end native.
Men endelig ikke sig du outputter 1440p for du får genereret det manglende og ikke bare strukket billedet som en normal upscaling hvis du kun levere et 1080p billede til din 4k skærm, du levere et 4k billede til din 4k skærm
Det ikke et naive 4k men et A'i genereret 4k
--
Sidst redigeret 08-04-2022 08:57
Har ikke lige prøvet i RDR2, men test lidt med DLSS på og af først for at få et indtryk af kvaliteten. Jeg har oplevet en del smearing ved DLSS i nogle titler, og det er lidt træls at have det i et spil hvor der kan være hurtigere bevægelser, som i RDR.
--
Veni, Vidi, Vici.
dimidium facti qui coepit habet
faber est quisque fortunae suae
#9 nej jeg modsiger ikke mig selv. DLSS rendere ikke de manglende pixels det er AI der prøver at komme så tæt på som muligt at vise hver enkelt pixel som native(ikke naive) 4k skulle se ud. Det vil aldrig blive bedre lol? end det skaberne af spillet ønsker du skal se i native opløsning. ouput fra spillet ER 1440p IKKE 4K. Det der bliver vist på skærmen er 1440p output fra spillet + det genereret DLSS indhold. Moderne opskalering af film indhold bruger også AI tech og er ikke bare udstrukket billede...
--
#11 beklager men du er forkert på den, du sender et 4k billede til skærmen ikke 1440p og jo den render det manglende det ikke almindelig upscaling som fsr
--
#10 ja nogle titler har det desværre da ikke alle er lige gode til at implementere det, skulle dog blive en del bedre da det begynder at blive implementeret direkte i flere game engines
--
#11 og nu får du noget af dit eget tilbage, her har du fra film industrien som du nævner, at upscaling vs native, der gætter a'i på den rigtige pixel, altså a.i skaber sine egne pixel fuldstændig som dlss for at sende en lav opløsning i 4k som næsten er identisk med 4k
https://www.extremetech.com[...]
Det der sker er den tager din 1440p og smide ud på et 4k layer, her er der en masse huller den udfylde for at lave et 4k billede da du kun har smidt 1440p derpå, her går a.i ind og gætter hvad alle de sidste pixel skal være og skaber et signal =4k dog ikke native da den har gættet det manglende :)
--
Sidst redigeret 08-04-2022 10:38
#12 Hvordan er FSR nu blevet "almindelig" upscaling? FSR er AMD's svar på DLSS. Jeg har aldrig nævnt FSR. Når jeg taler AI opskalering til film på TV så er det nedenstående jeg referer til:
https://www.techradar.com[...]
https://www.nvidia.com[...]
Det er underordnet om skærmen viser 4K pixels hvis indholdet af de pixel er dårligere kvalitet og for eksempel bitrate er lavere end originalen. Der er væsentlig forskel på at se en 4K netflix stream i deres laveste bitrate sammenlignet med deres højeste bitrate. Det samme gør sig gældende med DLSS. Balanced profile(1080p opskaleret til 4K) er grimmere end Quality profile(1440p opskaleret til 4k) hvilket er grimmere end native 4K.
--
#14 "som næsten er identisk med 4k" ja men IKKE "identisk". Native vil altid være "original højest kvalitet" og alt andet AI opskalering mm. er sub-par da billedet bliver manipuleret.
--
#15 og hvorfor tror du det bliver grimmere og grimmere, fordi ai skal bruge flere kræfter på at gætte det manglende billede, derved at quality best fordi den skal gætte færest pixels :)
Jeg beklager du ikke selv kan forstå det link du sender, men bruger man ren upscaling som du bliver ved med at sige vil det være udtværer og sender du et 1440p signal til en 4k skærm brækker du dig, det samme som at smække 1080p på en 1440p skærm det ser forfærdeligt ud, da pixel ikke matcher, derved køre du dlls for at du kan vælge basicly hvilken som helst lavere opløsning og genere det manglende så det passer til skærmens opløsning, men jo laver du vil render fra jo mere skal a.i gætte og derved mere smudset billede:)
--
#16 du skriver specifikt den sender er 1440p billede til min 4k skærm ? Og det har jeg hele tiden sagt ikke passer, den sender fuldstændig lige mangle pixel = 4k billede men du kan ikke kalde det native da det ikke er genereret 4k pixel fra selve gpu men meget er gættet, i tensor core hvor a.i har ledig kapacitet til at arbejde på nvidia :)
--
#17 Du er helt gal på den. Hvis du har et 1440p billede med pixels så mangler der ikke pixels der skal udfyldes/gættes for at det kan blive 4K. Hele billede skal redigeres så ingen af de pixels der var til at starte med i 1440p billedet er tilbage, men i stedet bliver der ud fra det originale 1440p billede gættet på hvordan ALLE pixels skal se ud hvis det skal ligne original 4K. Dette gætteri resulterer i dårligere kvalitet men højere framerate og er ikke sammenlignelig eller samme kvalitet som native. Balanced er grimmere end Quality fordi udgangspunktet for gætteriet er dårligere(1080p vs 1440p). Balanced får flere FPS end Quality fordi udgangspunktet for gætteriet er lavere opløsning(1080p vs 1440p).
--
#18 jeg skriver specifikt
med en 4k skærm, spillet sat til 4k opløsning, og DLSS er aktiveret så spiller du ikke i native 4K men i 1440p som "ligner" 4K. opløsningen er 1440p og ikke 4k med dlss aktiveret
og som op spørger om:
the688, det er det jeg mener - at det "reducerer opløsningen til 1440p" betyder det så at jeg ikke kan se 4k textures?
Nej det er ikke 4k textures spillet renderer det er DLSS der opskalerer 1440p billedet til at ligne 4K(hvilket betyder at skærmen viser 4k pixels men indholdet er ikke 1:1 4K pixels og heller ej 4k textures)
--
Forskellen på DLSS og anden AI opskalering er dog at DLSS bruger 4K content fra spillene til at opnå et bedre resultat end hvis det hele kun skulle gættes fra bunden, men native orignal content er stadig bedre end AI genereret. There is no magic in science.
--
Henlede til #6 5 med en 4k skærm, spillet sat til 4k opløsning, og DLSS er aktiveret så spiller du ikke i native 4K men i 1440p som "ligner" 4K. opløsningen er 1440p og ikke 4k med dlss aktiveret
Det jeg bliver ved med at sige er opløsningen er ikke 1440p mere når den har været igennem gpu og dlss
Og dette : Det der bliver vist på skærmen er 1440p output fra spillet
Der er ingen 1440p mere med det samme der har været igennem det bliver sendt et fuldt 4k billede som er et 1440p billede der er blevet bearbejdet til at være 4k :)
--
Og check reviews mange spil bliver faktisk kønnere efter det er bearbejdet med dlss det oplever jeg selv og mange andre, a.i gør det bedre end de selv kan i mange ting :)
--
#22
hvad er det du ikke forstår af "med en 4k skærm, spillet sat til 4k opløsning"?
1440p output fra spillet + det genereret DLSS indhold. Hvorfor unlader du resten af sætningen?
#23 Der er også mange der synes det er pænere at bruge true motion og hvad det nu hedder på TV så der bliver indsat ektra frames ind så billedet fremstår smooth men får en soap effekt samtidig. Det er bare ikke sådan filmskabererne har lavet filmene til at se ud. Det samme gør sig gældende med DLSS da du får en meget mere smooth framerate hvilket jeg også ville foretrække fremfor lag og bedre billedkvalitet. Kan jeg holde en smooth ~90+ fps native foretrækker jeg dog det frem for DLSS.
--
Sidst redigeret 08-04-2022 11:47
At jeg bliver ved med at sige der bliver sendt et fuldt 4k signal oh du bliver ved med at sige neeej 1440+dlss og ikke fuldt 4k signal, og det eneste jeg har prøvet at komme frem til til er et fuldt 4k signal der bliver sendt :)
--
#25
Fra mit 3. indlæg i #8 "tror vi er enige men..." :)
Det jeg hele tiden har prøvet at fortælle er at, signalet om du vil, er mere eller mindre underordnet, men det er indholdet af signalet der har betydning. hvis 4k pixels er sorte konstant er et spil ikke meget værd med mindre det er game over sequence :)
--
Hvem fik så ret mellem Mazer & TankBrutalis? :D
--
#27 haha jeg gav op :D
--
TankBrutalis & Mazer havde en god diskussion kørende! :D
Bare for at klargøre: Signal og båndbredde er 4K, det viste billede er i 4K opløsning, opskaleret og A.I. genereret fra 1440p(Quality mode) rendering. Det er ikke til diskussion om billedet er 1440p, da billedet er A.I. opskaleret er bedre, har højere bitrate og er skarpere end native 1440p.
At Jeg som eksempel spiller 8K renderet spil nedskaleret til 4K, har du samme problem stilling.
Jo, du har et bedre billede, men ikke samme antal pixels som en native 8K skærm har.
I begge situationer er der mangel på pixels, men på hver sin enhed.
I første instans er det GPU'en der ikke teknisk render nok pixels til skærmens fulde opløsning, men kompenserer med A.I. assisteret opskalering til fuld 4K opløsning.
I anden instans er det skærmen der ikke har pixels nok til at vise det fulde billede, og pixels/data går tabt.
Begge er bedre end deres native render basis. 1440p + A.I. > 1440p native & 8K -> 4K > 4k native.
--
[email protected]
1866@7-7-7-21
2080Ti@2130|G12+x41
1xLG55C1 1xLG55CX