Denne tråd er over 6 måneder gammel
Er du sikker på, at du har noget relevant at tilføje?
Adaptive SyncAf Juniorbruger todd24 | 19-12-2014 02:02 | 2031 visninger | 11 svar, hop til seneste
Hejsa
http://www.vesa.org[...]
Med display port er det nu blevet muligt at bruge adaptive-sync, som efter sigende skulle eleminere screen-tearing.
Jeg har kigget på nogle skærme som jeg er interreseret i, men de har ikke g-sync, men spørgsmålet er så om det er nødvendigt, nu hvor adaptive sync er blevet muligt?
Jeg har kigget på asus Rog skærmen til omkring 5k med g-sync og 144hz, men jeg syntes den er meget dyr og designet er lidt barnligt, så hvis man kan slippe af med screen tearing med adaptive sync, så er det slet ikke nødvendigt med en g-sync skærm..
Jeg har desværre ikke display port lige i øjeblikket, men er der nogle med display port som har testet adaptive sync og hvor godt er det i forhold til nvidias g-sync? --
Adaptive VSYNC har den fordel, at når dit grafikkort spytter flere FPS ud end skærmen kan vise, så vil A-VSYNC begrænse FPSen til skærmens refresh og dermed undgå tearing. Ryger FPS under skærmens refresh, så slås (A)-VSYNC automatisk fra, så man undgår de store drops i FPS, som VSYNC giver. Men så har man tearing igen.
Fordelen ved G-Sync eller Freesync er, at refresh raten på skærmen justeres til GPUens FPS output. Dvs man aldrig får hverken store drops i FPS (pga VSYNC i hvert fald) eller tearing.
Som jeg ser det, så er der flere måder at håndtere tearing:
1: Købe så vilde GPUer, at FPSen altid er over refresh og så smække VSYNC på.
2: Købe knapt så vilde GPUer og leve med halvering af FPSen i nogle perioder (eller 1/4 eller 1/8 FPS) ved at slå VSYNC til.
3: Købe en freesync/g-sync skærm
Om man vælger det ene eller andet handler om skærmens refresh rate (svært at holde 144 FPS kontinuert) og pengepungen. -- #1
nu er det adaptive sync (se der mangler et V), som #0 spørger til... freesync = adaptive sync
#0
for at være ærlig, så satser jeg på at adaptive sync, men der er længere ventetid til man kan købe en skærm der har adaptive sync...
og så vil jeg også gerne se g-sync og adaptive sync side by side, før jeg vil sige noget om hvilken en er bedre... de videor jeg har set af freesync har været dårlige (kun videoen, og ikke freesync) -- Microsoft Surface 2 pro, 256GB, 8GB RAM
and loving it bonus info
http://support.amd.com[...]
What monitors support AMD FreeSync Technology?
As of 12 December, 2014, the following monitors will be compatible with AMD FreeSync technology:?
Samsung UE590 23.6"/UltraHD (March 2015)
Samsung UE590 28"/UltraHD (March 2015)
Samsung UE850 23.6"/UltraHD (March 2015)
Samsung UE850 27"/UltraHD (March 2015)
Samsung UE850 21.5"/UltraHD (March 2015)
Additional vendors and displays will be announced circa CES 2015.
ser lidt tyndt ud indtil videre... desværre, og kun UHD skærme -- Microsoft Surface 2 pro, 256GB, 8GB RAM
and loving it #2
nu er det adaptive sync (se der mangler et V), som #0 spørger til... freesync = adaptive sync
Ja, og det er det, jeg beskriver?
freesync = adaptive sync
Nej, det er ikke det samme. Skal jeg finde et par links, eller gider du selv google? -- #2
Fuck it, nu googler jeg lige for dig, så du ikke forvirrer OP mere:
A-VSYNC:
http://www.hardocp.com[...]
Bemærk:
Adaptive VSync in essence dynamically changes between VSync on and off automatically to deliver no tearing above the refresh rate, yet no FPS drop. Quite simply, with Adaptive VSync VSync is turned on, capping the game to the refresh rate of your display. It will cap to 60 FPS on 60Hz displays, or 120 FPS on 120Hz displays. This eliminates tearing. Secondly, if the framerate drops below your refresh rate VSync shuts off and allows your framerate to run in real-time. Then, when the FPS gets back up to your refresh rate, VSync kicks on and keeps the image from tearing.
What this means is that you will always get the best performance out of your games under your refresh rate. You won't be dropping to 30 FPS if the framerate drops slightly under 60 FPS, as VSync natively operates. Instead, if your framerate only drops to 55 FPS, then you will get 55 FPS. Then, when the framerate reaches the refresh rate, VSync kicks on keeping the game from tearing. It is so simple in description that we wonder why it has never been done until now! NVIDIA is the first to provide this technology to deliver a smooth gaming experience with VSync on.
Nu klipper jeg lige det ind, jeg skrev i #1, så du kan sammenligne:
Adaptive VSYNC har den fordel, at når dit grafikkort spytter flere FPS ud end skærmen kan vise, så vil A-VSYNC begrænse FPSen til skærmens refresh og dermed undgå tearing. Ryger FPS under skærmens refresh, så slås (A)-VSYNC automatisk fra, så man undgår de store drops i FPS, som VSYNC giver. Men så har man tearing igen.
Kan du se, at freesync ikke er det samme som AVSYNC, og at min første post er rigtig nok?
Dvs (for at skære det ud i pap), at A-VSYNC dybest set ikke er mere end alm. VSYNC, hvor VSYNC bliver slået til/fra alt efter refreshraten. Derfor omtaler jeg det som alm. VSYNC, når GPUen er hurtig nok til at kunne levere flere FPS end skærmen kan vise. -- #4 #5
Jeg pudser lige brillerne.
Kæft det er ikke sundt at arbejde 14 timer i træk. Jeg beklager meget! Cordion har naturligvis ret i at adaptive sync er standardens betegnelse.
Jeg går ud og drukner mig i toilettet. BBL!
#Topic
Gid dog nVidia ville droppe deres g-sync og arbejde med VESA standarden i stedet. Det er noget fis at skulle have en særlig controller i skærmen til g-sync. Dyrere for kunderne og ikke (mig bekendt) bedre på nogen måde.
nVidia har dog bitchet over, at at freesync "umuligt kunn virke", pga noget timing i scaleren, som de ser som en "farlig vej at gå". Vi må se nogle tests, før vi kan dømme ;) -- Adaptive VSync = NVidia's software løsning, der slår VSync on/off efter behov, som Lonestar rigtigt nok skriver.
GSync = Nvidia's hardware løsning, der justere skærmens refresh rate til at matche FPS.
Adaptive Sync = VESA standard for DisplayPort 1.2a(optional), som kan justere skærmens refreshrate on the fly, producenterne har aldrig rigtigt udnyttet det.
FreeSync = AMD's svar på GSync, men istedet for custom hardware i skærmene, udnytter de blandt andet Adaptive Sync, og lidt driver trylleri. -- AMD FX8350@4,4GHz-ASUS Sabertooth 990FX R2.0-16GB Crucial Ballistix Tactical 1600 Mhz CL8-Sapphire Dual-X R9 270X 2GB-Kingston SSDNow V300 256 GB #7 Jeg har forsøgt at finde ud af, hvordan GSync egentlig virker, men har ikke kunnet finde noget.
Man omtaler freesync/adaptive sync som "justering af skærmens refreshrate", men det er lidt forsimpling (eller bagvendt omtale). I virkeligheden driver GPUen skærmen ved at cleare skærmen med VBLANK, og derefter loade skærmen med en ny frame. Dvs frames bliver sendt til skærmen så snart de er klar (under hensyn til skærmens max frekvens). Det ville nok være mere præcist at kalde det "adaptiv frame delay" frem for "adaptive refresh rate", da timingen beregnes per frame. Dvs refresh rate sættes for hver enkelt frame. Så er det lidt underligt at omtale det som en "rate", når den ændrer sig per frame.
GSync omtales også som en adaptering af refresh raten. Gad vide, om de virkelig har en refresh rate, der justeres løbende op og ned? Det ville give en del delay iom. når raten er lavere end GPUens FPS rate, og omvendt vil give noget stuttering, når raten skal sænkes fordi GPUens FPS er for lav.
jeg håber da så sandelig at GSync også "bare" er en frame-by-frame synkronisering af GPU og skærm på samme måde som freesync. Men igen: Hvorfor så have en stor FPGA i skærmen?
Jeg tror, nVidia skyder ved siden af målet her. -- #7 sagen er bare den, at hvis man vil have g-sync så *skal* man købe en skærm med g-sync, og så vil jeg hellere have en lidt større UHD skærm med 4K opløsning, problemet er så bare at hvis jeg køber sådan en skærm, så kommer der til at opstå screen tearing.. hvilket også er et problem med min nuværende skærm..
men som jeg læser det, så kan man ikke bare købe en 4k UHD skærm med display port, og så koble den til via display port på grafikkortet og så er problemet med screen tearing løst, eller...? -- #9: indtil videre er du bundet af dit valg af grafikkort. Hvis du har nvidia kan du KUN bruge gsync og hvis du har amd kan du KUN bruge adaptive sync.
Det er muligt at maxwell kortene kan understøtte adaptive sync, men det er nok noget nvidia først indfører når de føler sig presset til det..
I øvrigt er der imho ikke alverdens grund til en 144 hz skærm hvis man har variabel sync, så burde fx 100 være rigeligt.
#8: ja, adaptive sync kan bedst beskrives som variabel vblank tid. Grafikkortet har lov til at vente med at sende sync signalet om at nu kommer en ny frame (indenfor hvad det har fået oplyst er den længste/korteste tid der må gå). gsync er lidt mere uklart ift hvad den bruger den store buffer til, men kan sagtens tænkes det er det samme pånær protokollen over kablet. -- Som #3 rigtignok beskriver, så vil en masse nye skærme med Adaptive Sync, præsenteres ved CES. Dog ved vi allerede nu at en LG 34" 3440x1440 buet monitor vil komme på markedet med AS. I hvert fald eksklusivt i overclockers.co.uk i England.
Grunden til at ingen andre skærme er officielt annonceret, skyldes Samsungs ønske om at være den første, som en kold klud i ansigtet på Nvidia, efter deres åndsvage søgsmål mod netop Samsung.
Uanset glæder jeg mig. Desværre ønsker Nvidia ikke at støtte denne industri standard, men fokuserer i stedet på deres egen proprietære løsning. Ingen Nvidia kort kan understøtte AS, da de kun har en DP 1.2 controller, og ikke en 1.2a controller. -- I7 4790K; Asus Ranger Z97; 8gb DDR3 1600; Asus 290 4GB DCUII; Wrapped In Lian Li v700wx; Dual Dell 2007wfp; Logitech diNovo Laser; Windows 8.1 B64.
Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.
Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.
Opret bruger | Login
|
Du skal være logget ind for at tilmelde dig nyhedsbrev.
Hvilken udbyder har du til internet? 425 personer har stemt - Mit energiselskab (Ewii f.eks) 12%
|