Burde være ok med gfx i den opløsning, vil du have et 3080 burde du gå op i 1440p skærm
--
Tyder ikke på at det kan betale sig. Men vil du skrue op for opløsningen eller eye candy, så skal du have et bedre kort.
https://youtu.be[...]
--
HP 15s-eq2819no
AMD Ryzen 5300, Quad Core m. SMT @ 3,8 Ghz
2 x 8 GB RAM @ 3200 MHz, CL 22
256 GB Nvme SSD | 15,6" FHD SVA-skærm
--
Sidst redigeret 23-04-2022 12:11
Virker til at dit grafikkort kan levere nok fps, hvis bruget falder når du capper fps. Så hvis du vil spille med fps cap, er nyt kort bare spild af penge.
--
Var også lige inde at læse om det da jeg selv spiller PUBG, dog kun på senior basis.
I 1080p er cpu'en det afgørende, specielt i 1% LOW.
Kan så sige at i 3440x1440p er GPUen virkelig vigtig, selv 6900XT og 3080 Ti kan ikke max 144hz i Ultra settings.
--
5800x+H115i+P500 DRGB+AX860i
Red Devil 6800XT+MSI B550 UNIFY-X
2x16Gb DR 3800mhz 14-15-15-34+Mi 34" Curved
3080 og 1080p giver ingen mening.
--
Hvis du tjener 100000kr om måneden ville du nok ikke spørge
Hvis du kun tjener 10000kr om måneden er det nok ikke det, med mindre du har f.eks 8000kr der står rtx 3080 på.
Når eller hvis du køber et rtx 3080 så køb en 2560x1440 skærm begge dele kan nemt fås til 10000kr, 34" 3440x1440 skærme koster under 3000kr og det er bare fedt med sådan en skærm størrelse
#4
Man er sku da også et ... hvis man kun fokusere på at kunne spille i ultra
--
Jeg er umiddelbart enig med jer alle sammen, jeg forstår dog bare ikke hvad der gør at jeg oplever størrer input lag, med min 10700kf var der ikke noget betydeligt at bemærke.
Er 12-30% cpu forbrug normalt i 1080p med et cpu intensivt spil?
--
#7
Du har jo ikke ligefrem en 4 kernet cpu med 4 tråde vel
Bare tage et super simpelt regnestykke 8 kerner istedet for 16 kerner, er 24% til 60% forbrug så unormalt ?
Ville da være lidt nervøs hvis en 12900kf cpu bruges f.eks 60% i cpu intense spil
--
Sidst redigeret 23-04-2022 17:01
Har du lavet en clean windows install?
--
Det lidt synd du har købt en KF chip og ikke en K Intel med indbygget gpu, den ville kunne hjælpe dig i fps boost UHD Graphics 770
https://techmarkup.com[...]
--
Mac mini M1
Xbox Series X
--
Sidst redigeret 23-04-2022 18:07
#10 Hvad mener du?
--
HP 15s-eq2819no
AMD Ryzen 5300, Quad Core m. SMT @ 3,8 Ghz
2 x 8 GB RAM @ 3200 MHz, CL 22
256 GB Nvme SSD | 15,6" FHD SVA-skærm
#8 for lige at svare dig på dit indlæg i #6 så tjener hvad jeg vil mene er en normal gennemsnitlig løn, min forespørgsel på om det giver mening at opgradere var af den grund at jeg er interesseret i at få mit system til at producerer så mange fps som muligt da jeg kun går op i det kompetetive del af spillet og spil generelt, og at få mit hardware til at matche hinanden. Det er så nok ikke noget jeg skal tænke videre over når jeg så bare spiller i 1080p kan jeg forstå. Stor skærm og flot opløsning er ikke min første prioritet.
Var bekymret for om jeg havde noget flaskehals af en art siden jeg oplever denne form for input lag.
Jeg kører samme antal kerner som med min 10700kf, E cores er disabled fordi det giver bedre performance udelukkende i pubg.
#9 Ja det har jeg
--
10# Jeg forstår ikke helt, er den integreret grafik bedre end mit 1080ti? Det blev KF modellen fordi keg fik den til en god pris, også viste det sig at være en ret god sample jeg havde fingrene i
--
#12 Så Alder Lake kan udnytte IGPU OG den alm. GPU i games samtidig? Det har jeg aldrig hørt før, har hørt at IGPU kan hjælpe med rendering - men kun når der ikke er en alm. GPU.
--
HP 15s-eq2819no
AMD Ryzen 5300, Quad Core m. SMT @ 3,8 Ghz
2 x 8 GB RAM @ 3200 MHz, CL 22
256 GB Nvme SSD | 15,6" FHD SVA-skærm
Jeg havde forstået at Intel kunne bruge deres gpu til at hjælpe dit normale grafikkort, men det kræver ddr5 ram og det forkert link her
https://www.quora.com[...]
--
Mac mini M1
Xbox Series X
--
Sidst redigeret 23-04-2022 18:15
Det kræver vist z690 bundkort
--
Mac mini M1
Xbox Series X
Når det er det jeg tænkte på var Intel Thread Director
https://www.youtube.com[...]
--
Mac mini M1
Xbox Series X
--
Sidst redigeret 23-04-2022 18:37
Vil da mene at man skal have et større GPU i da det ellers bottlenecker
jeg har selv et 1080ti sammen med en 3600x cpu og de to ting matcher hinanden fint.
GPU skal helst yde max og her yder CPUen vel 30% over GPUens max...
--
Ryzen 5 3600x - GTX1080 TI STrix 11gb - 32gb Ram
vilke ram har du,for hastig/regtig sub timing vil give høre og mere konstant fps med din cpu
--
MSI MAG Z490 TOMAHAWK i5-10600K @ 5GHZ 2x8 G.Skill F4000 TRIDENTz 17-17-17-37@ CL16 4300mhz 1000W Sinlet Pro
ROG STRIX-GTX1070-O8G-GAMING
#21 Jeg kører 16gb b die kit 3866 cl14
--
Du skal måske se på MHz på din CPU, når du spiller. Evt. ved at bruge MSI Afterburner overlay.
Måske clocker den ned, fordi der er for lav belastning.
Ud fra det du siger, så er spiller ikke CPU tungt, når det er din GPU der ligger på 99 % Usage.
--
ASUS B550M TUF - 5800X - NZXT Kraken X62
G.Skill 2x8gb 3200Mhz CL14
GTX 1070 - Acer XB271HU
Adata XPG SX8200 Pro 1TB
--
Sidst redigeret 25-04-2022 07:35
Jeg tænker din CPU har rigelig med kraft til dit nuværende grafikkort, hvorfor det må være din GPU der bootlenecker først, hvilket dine tal også viser. Nu ved jeg ikke lige hvor mange kerner PUBG anvender, men udnyttelsen af de anvendte antal kerner kan godt være større end det du angiver, da det du angiver vel er den samlede udnyttelse af alle kernene. Men teoretisk burde du have en ca. 26% GPU bottleneck i PUBG @ 1080p men det afhænger vel også af settings.
https://pc-builds.com[...]
En bedre GPU vil derfor kunne give dig flere fps, hvis du ellers har brug for det. Det giver i min verden ikke mening at have flere fps end din skærm kan klare, så hvis du allerede har 240+ fps så er alt vel godt? En bedre vil GPU vil dog gøre det muligt at skrue op for kvaliteten eller opløsningen, hvis det er det du ønsker.
#20 Jeg vil foretrække at GPU'en bootlenecker frem for CPU'en, da det modsatte er værre og giver en dårligere oplevelse. På den måde burde systemmet jo være fint nok, da GPU netop udnyttes fuldt ud. Isoleret set er CPU'en måske et overkill i forhold til PUBG, men det kan jo være at den anvendes til andre mere CPU-intense opgaver eller blot er fremtidssikret lidt i forhold til CPU.
--