Denne tråd er over 6 måneder gammel
Er du sikker på, at du har noget relevant at tilføje?
Nvidia 4XXX flagskib = 800W TDP = LOL!Af Juniorbruger Emil1985 | 25-07-2022 23:55 | 2357 visninger | 38 svar, hop til seneste
Til trods for at kilden/leakeren er relativt pålidelig (kopite7kimi), har jeg meget svært ved at se det for mig. But really, who knows?:
https://videocardz.com[...]
Gør jer klar til at køre dual PSU setup hvis dette bliver en realitet: Én PSU alene til gpu'en og én til resten af systemet ;-P. --
Sidst redigeret 26-07-2022 00:00
Resten af en pc bruger ikke ret meget strøm og det er altså ikke umuligt at finde en strømforsyning på over 1000 watt
Iøvrigt dem der køber det hurtigste grafikkort har også råd til at købe en strømforsyning der passer med hvad man har af pc -- Den har 48GB ram??
det kan da kun være til workstations...
sgu da næsten ligegyldigt for os almindelige brugere? :P -- #1 Spørgsmålet er så, om man har råd til at bruge det, til det som det er tiltænkt - hvis strømpriserne altså fortsætter med at stige :) -- Sidst redigeret 26-07-2022 00:08 4080 420w så det sku næsten lige før jeg skal ha skiftet min 600w eller? -- ~450W~420W~300W for 4090-4070 er ikke slemt.
Mit 3080TI can sagtens peak ved 380W. -- Os der ikke fyrer med gas har råd hahaha -- Gæstebruger, opret dit eget login og få din egen signatur. #1 Tænkte min ";-P" var nok til at fange at den sidste del blev skrevet med et lille smil på læben :-).
Men hvis vi nu skal være seriøse, så er dit udsagn omkring at "resten af en pc ikke bruger ret meget strøm" lidt for generaliserende til at give ret meget mening i denne kontekst.
Min maskine ligger samlet på lige under 850W TDP, og det med et 3090 Ti som "blot" ligger på 450W - dvs. kun lidt over halvdelen af det samlede system. Dvs. resten udgør ca. 47%. Det vil jeg ikke rigtigt beskrive som "ikke ret meget". 40XX (flagskib) kommer, hvis rygterne holder stik, til at sluge næsten dobbelt så meget strøm som et 3090 Ti. Tror du så en 1000W's PSU vil være tilstrækkelig? Tænker jeg hurtig vi kan blive enige om at den ikke vil være.
Selv hvis resten af ens system så bestod af super stømvenlige dele, og man rent faktisk kunne holde sig indenfor de 1000W samlet, tager du heller ikke højde for fx. transient spikes i dit skriv. TDP på 3080 FE er på papiret 320W, men rammer momenvis helt op til 490W-500W i peak power ved specifikke scenarier. Og det er et 3080 FE vel at mærke. Forestil dig hvor et 800W TDP kort så kan ende.
Smiley eller ej, så er 1000W langt fra nok hvis kopite7kimi får ret - stort set uanset hvordan man strikker resten af sit system sammen. -- Sidst redigeret 26-07-2022 00:24 #0 Hvorfor dog dual PSU? Findes masser der kan trække det. Min ville uden problemer. -- 5950X|Crosshair VIII Formula|64GB RAM
ASUS3090STRIX-OC|PG279Q
980 PRO 2TB|970 EVO+ 2TB|Samsung 860 PRO 2TB
2xSamsung860 QVO 2TB|Corsair AX1600i #8 Igen, dual psu bemærkningen skulle læses som et humoristisk indslag, men samtidig insinuerer hvor langt ude jeg synes det er, såfremt 800W gpu'er bliver en realitet allerede ved next gen launch.
Nu har jeg selv en AX1600i, og hvis vi regner lidt på tallene fra mit forrige skriv = 3080 FE TDP på 320W men med peaks på 500W = dvs. 56.25% over listet TDP, giver det (selvom det ikke nødvendigvis kan sammenlignes 1:1) potentielt spikes helt op til 1250W på et 800W's kort (800W med 56.25% oveni). Og her taler vi FE modeller. Ikke de endnu mere strømhungrende after market versioner som ROG Strix, Suprim X, EVGA FTW3 osv. som oftest har 10-20% højere TDP.
Nu ved jeg ikke hvor meget dit samlede system æder, men læg fx. resten af mit system (400W uden gpu'en) til de 1250W og du har problemer i paradis. Det til trods for at jeg (og du) har en AX1600i, som egentligt burde kunne klare "alt". -- Sidst redigeret 26-07-2022 00:49 *og dertil har jeg ikke engang taget højde for overclocking og forhøjede power limits i min ligning.
800W TDP grafikkort må og skal være en dårlig joke. -- Sidst redigeret 26-07-2022 01:17 Jeg bestemt ikke imponereret over Nvidia.. -- Intel 12600k + Asus strix ROG B660i #2 har en god point.
48 GB kan på ingen måde være rettet mod gaming, det giver nada mening da de 24 GB 4090 vil ha er mere end alt rigeligt til gaming.
Antal cuda cores er heller ikke meget over 4090.
Der må være tale om et muligt Titan kort (ikke 4090 TI).
Der er vel ingen grund til at gå i selvsving over watt på et professionelt kort der sikkert vil koste over 25k og være rettet mod meget få professionelle.
De meget få for hvem et sådan kort er relevant, smider jo bare en 2000 watt PSU i.
( https://www.guru3d.com[...] )
Det er et kort der vil være beregnet til de få der kan tjene penge på at benytte et sådan kort, og for dem vil watt ikke være særlig afgørende.
(Det afgørende vil være hvor meget tid de kan spare i deres arbejde)
Hvis 4090 bliver på de 450 watt som 3090 også er, så er der jo ikke den store ændring for selv pengestærke gamere der er villige til at betale for toppen af poppen inden for gaming. -- Gæstebruger, opret dit eget login og få din egen signatur. jeg køber det når det kommer hvis prisen ligger på max 17K. -- #7
ca 300 watt er ikke meget når grafikkortet bruger 800 watt, dem med råd til et 4090 ti, tænker sku ikke over strømforbruget, 800watt for et helt system eller 1200 watt når man har råd til det det hurtigste er ikke vigtigt
Som nævnt så det ikke hvem som helt som køber et 48gb grafikkort og der er et 4090 trods alt kun på 450 watt -- #10
Nogen gange glemmer man at opgivelserne er så selv en ringe strømforsyning (trods det man må gå ud fra man har råd til en kvalitets strømforsyning med et grafikkort der bruger 800 watt) at den kan trække det. (indbygget overhead i de opgivet 800 watt) -- #12
Så skal vi bare have linus til at køre sli med 2 4090 ti , en 2000 watt strømforsyning, hvis den kan køre sli -- Lad nu være med at hoppe på de der watt tal. De siger intet, og ingen ved reelt, hvad de dækker over.
NVDIA har modeller som nærmer sig det strømforbrug i dag, og det får de selvsagt også med næste generation. Det er bare ikke de modeller vi køber som Geforce kort, så hop nu videre til virkelighedens verden.
De kommer ikke til at bruge meget mere end eksisterende kort. To gange 3090 ti, stop nu! -- Mvh. Thomas Christensen. #17 det netop problemet, 3080 siger den bruger 300 watt men den æder 400 watt, og vores strøm bliver ikke billigere i dk mere.. -- Intel 12600k + Asus strix ROG B660i --
Sidst redigeret 26-07-2022 10:20 #12 Jamen jeg er ikke uenig i at det sagtens kan være et Titan kort. Omvendt skreg mange dog den samme sang op til 3090 launch. "Glem det, det der er 200% Titan og ikke er RXT". Hvilket det ikke er/blev - max. en hybrid mellem RTX og Titan, markedsført som et 8K gaming monster.
Ift. forøgelse af antal CUDA cores (eller mangel på samme) fra det ene kort til det andet, kan ikke rigtigt bruges som et pejlemærke for om det bliver er Titan eller ej. Springet fra 3080 Ti til 3090 ligger også kun på 256 CC's. Ja så får du 12GB flere VRAM som kunne retfærdiggøre sagen, men hvad så med 3090 Ti, som igen kun råder over 256 CC's mere ift. vanilla 3090, med helt samme mængde VRAM, helt samme memory bus, osv. Betyder det at Nvidia har udgivet 2 Titan kort?
Dertil er det svært at argumentere for at det skulle være første gang i historien at Nvidia overkiller deres top-tier/flagskib gaming-oreinterede kort når det kommer til mængden af VRAM. Kig på 1080 Ti. Et kort med 11GB VRAM, udgivet for 8 år siden, primært henvendt 1080P gaming. Rationelt? Not really. Ikke desto mindre en realitet. Under RTX (well GTX) fanen og ikke Titan. Hvorfor skulle de ikke kunne finde på at gøre det igen?
Forstå mig ret, 48GB ville være indbegrebet af overkill ift. de spil vi har idag, og jeg er ikke uenig i at det potentielt sagtens kunne være en Titan variant, men der er ingen grund til at tale om det som var det skrevet i sten. Der er flere eksempler på at de 24GB VRAM på 3090/3090 Ti'erne allerede den dag idag næsten udnyttes helt i spil som fx. Flight Simulator, X-Plane, CONTROL, Warzone, m.fl. ved 4K/8K gaming. Og der går kun én vej. Med videreudvilking af RayTracing, kommende UE5 baserede titler, og fremtidige spil ala. MSFS som er baseret på et shitload af textures, er det ikke urealistisk at tænke vi ser titler som ryger over 24GB grænsen. Ikke at det bliver normen, men det kommer til at ske. Mange køber også et grafikkort for at "fremtidssikre" sig, så blot fordi det er full blown overkill idag, er det ikke sikkert det er om 2-3-4 år. -- #14 "300 watt"? Er ikke helt sikker på hvad du mener her. Pointen er at selv en 1200W PSU ikke vil være tilstrækkelig, hvis man sidder på et 800W kort + resterende system på 400W.
#15 Det synes jeg nu mit skriv omrking eksempelvis 3080 FE med en opgivet TDP på 320W, der alligevel spiker på til 490-500W, rimelig tydeligt understreger ikke er tilfældet. Mere her - 5. graf på siden:
https://www.igorslab.de[...]
-- Jeg sidder med en midrange 550watt psu som driver en i9 9900 (non K) og et geforce 2080 msi trio et eller andet og 32 gb ram..
og den har ALDRIG fejlet...
tror man skal slappe lidt af med alle de der über gold psuer med 2k power output på 12v railen non stop i 48 år ! -- Gæstebruger, opret dit eget login og få din egen signatur. #OP jeg tror du skal ind og bige lidt om strøm du blander peak med almindeligt for dig alene det giver ikke mening
Se bare på din bil med en vanvittig startstrøm. Peak værdier er tæt på ubrugelige specielt i consumer udstyr. Vi bruger det når vi beregner 400kV ledninger og generel forsyning hvor vi snakker fejlsteømme på 8000kVA det kommer der selvsagt ikke i din 230v forsyning.
Fælles er at vi konsekvent har hørt på hæje tdp og forbrug siden 1xxx serien uden der har haft noget på sig som jeg tænker ikke at Nvidia nu sadler om. Dertil kommer aspektet der hedder at de gerne vil flest muligt kan kæbe deres produkt hvorfor en høj TDP ikke ønskes, netop så Flemming, bo og Hanne der sidder på deres 5-600watt prebuild psu stadig kan smide penge efter de store kort. -- #22 "OP jeg tror du skal ind og bige lidt om strøm du blander peak med almindeligt for dig alene det giver ikke mening" - med al respekt, så forstår jeg hverken hvad du prøver at skrive eller pointere her? Ku' jeg få dig til at uddybe?
"Fælles er at vi konsekvent har hørt på hæje tdp og forbrug siden 1xxx serien uden der har haft noget på sig". Så du har aldrig hørt om at folks PSU/W ikke er tilstrækkeligt, og deres system crasher grundet spikes og overpull ifm. transient loads og spikes? Velkommen til hardwarens verden fristet man næsten til at sige ;-). Det er jo ikke for sjov der findes OCP og OPP på psu'er. Lav en hurtig søgning på reddit, diverse hw-foras og producenternes egne support boards, der er utallige posts omrking power spikes som resulterer i crashes. Hvordan kan det "ikke have noget på sig"?.
Dertil taler du om biler - talking about en sammenligning som ikke giver mening (hvis det altså er det din første sætning omhandler - som skrevet forstår jeg den ikke helt).
Det handler ikke så meget om hvad Nvidia ønsker, men hvad der kan lade sig gøre. Og at de for alt i verden vil bevare gpu-tronen, nu hvor AMD virkelig puster dem i nakken, og Intel potentielt kan blive en konkurrent på sigt. Som ved overclocking giver en højere power limit mere juice, aka. forbedret performance, hvorfor det, udover at forbedre selve arkitekturen, videreudvikle/nyudvikle funktioner, mm., er et naturligt træk at oppe TDP for at levere et "bedre produkt" år for år. Hvornår har du set TDP gå ned og ikke op, fra den ene generation til den anden? Mig bekendt aldrig.
Det virker lidt i dit skriv som om at du tror jeg henviser til at hele 4XXX serien, som i samtlige kort, vil få en TDP på 800W, og det aldrig kommer til at ske da det ikke vil give mening for hr. og fru DK. Du misser pointen. Jeg kommenterer blot på den linkede artikel, dvs. ét kort (4090 Ti/Titan), som næppe kommer til at havne i de hjem du omtaler. Ergo er det ikke rigtigt relevant i denne sammenhæng - der kommer helt sikkert andre kort i serien henvendt det segment, så at blande tingene sammen på den måde giver (igen) ikke rigtigt mening. -- Sidst redigeret 26-07-2022 12:39 Der har sneget sig et i ind i stedet for o men lad det nu ligge. Fælles er at analogien passer perfekt på det du oplever . Din starter i bilen har som din gpu en peak når du drejer nøglen. Denne peak overstiger reelt set batteriet kan men da tiden er så kort så er det ikke er problem. Præcis som med dit grafikkort og din psu der nemt håndtere peaks.
Alene det at du tror det handler om hvad der fysisk er muligt er lidt komisk. Begge producenter har kort og systemer der er hurtigere end dem vi ser i dag. Sådan har der altid været, men de ønsker at "malke" markedet hvorfor de ikke bare sender det hurtigste de har på markedet. Der er så meget mere bag en launch af hardware end hastighed. Økonomi spiller så meget en større rolle end hvad de fysisk kan lave. Sådan har der aldrig været og vil formodentlig altid være.
Jeg er med på du referer til en top og the line udgivelse men med en tdp på knap 200% hvad forudgående serie har været virker bare som clickbait, og du har i så fald ædt det råt.
Forskellen på os er nok reelt bare at jeg ikke falder for den første overskrift jeg finder og samtidig har en dybere forståelse for hvordan virksomhederne lancere deres stumper, koblet med en hvis skepsis. -- " Der har sneget sig et i ind i stedet for o men lad det nu ligge":
Ehm ok? Sætningen giver stadig ikke rigtigt mening?
"Denne peak overstiger reelt set batteriet kan men da tiden er så kort så er det ikke er problem. Præcis som med dit grafikkort og din psu der nemt håndtere peaks.":
Okay det er slet ikke et problem i see. Du har ret og tusindevis af brugere rundt om på www inkl. mig selv opdigter blot at have oplevet shutdowns grundet for højt power draw. Overpowering er blot en skrøne. I see!
" Alene det at du tror det handler om hvad der fysisk er muligt er lidt komisk. ":
Du er med på hvad ordene " udover" og " mm." betyder ikke? :-) Som i " Som ved overclocking giver en højere power limit mere juice, aka. forbedret performance, hvorfor det, udover at forbedre selve arkitekturen, videreudvikle/nyudvikle funktioner, mm., er et naturligt træk at oppe TDP for at levere et "bedre produkt" år for år)". Både "udover" og "mm." er nærmest "alene"'s dimetrale modsætninger. Det komiske/joke is on you i guess :-).
"Jeg er med på du referer til en top og the line udgivelse men med en tdp på knap 200% hvad forudgående serie har været virker bare som clickbait, og du har i så fald ædt det råt.":
Hvorfor begydner du så og tale om hr. og fru DK? :-) Du har virkelig et talent for at misse pointer og læse virker det umiddelbart til? Med lad mig hjælpe dig igen: ";-P", " har jeg meget svært ved at se det for mig", " 800W TDP grafikkort må og skal være en dårlig joke." indikerer nok nærmere at man netop ikke æder tingene råt. Hvis vi ikke kan diskutere den slags ting her, så mind mig endelig om hvad forummet så skal bruges til? :-).
"Forskellen på os er nok reelt bare at jeg ikke falder for den første overskrift jeg finder og samtidig har en dybere forståelse for hvordan virksomhederne lancere deres stumper, koblet med en hvis skepsis."
Gotta love den passive aggresivitet :-D...Og så endda uden at have forstået en bjelde/pointen i noget som helst af det jeg skriver - punkterne herover taler vist for sig selv hvad det angår.
Men gadeau for at du i det mindste prøvede at besvare mine pointer fra forrige post, selvom det viste sig at være for udfordrende for dig, og du i stedet måtte ty til udenomssnak og nedgørelse. Rent faktisk helt imponerende at sammenfatte alle de sætninger, uden rent faktisk at komme med noget meningsfuldt. Anyway, whatever makes you sleep at night bro. -- Sidst redigeret 26-07-2022 13:27 #4
Det skal du da.
NVIDIA anbefaler 750 watt til RTX 3080, som bruger 290-320 watt. ( egne målinger ) -- ASUS B550M TUF - 5800X - NZXT Kraken X62
G.Skill 2x8gb 3200Mhz CL14
3080 TUF OC - Acer XB271HU
Adata XPG SX8200 Pro 1TB #26 aha .. komplett siger noget andet https://www.komplett.dk[...]
Påkrævet strømforsyning 850 Watt -- Intel 12600k + Asus strix ROG B660i --
Sidst redigeret 26-07-2022 17:33 #28 jeg vil nok holder mig til 850 watt :-D -- Intel 12600k + Asus strix ROG B660i Det her 800 watt kort, bliver et TITAN kort, lyder rygterne på. Det kommer nok til at koste 2000-2500 dollars, ja måske endda 3000 dollars.
Det bliver for de 0.001% gamere i verden som kan og vil. Mange af dem bruger dog også disse GPUer til andet end gaming, som vi så med 3090 og 3090 Ti. De mange VRAM gør kortet rigtigt godt i nogle workloads.
#26 Medmindre du har købt et low-end 3080 eller bruger undervolt så trækker det nærmere 320-400 watt afhængig af model. De største 3080 modeller peaker på 380-420 watt i gaming med fuld load på GPU og kan ramme 450 watt med mere oc, jeg har også set nogle 3080 dog 12 gb udgaverne ramme tæt på 500 watt peaks... Det er ligemeget for dem som vil have disse kort.
Sidder man i et lille rum og gamer, så lad være med at køb en GPU som sluger mere end 250-300 watt. I vil svede ihjel om sommeren hvis der ikke er mulighed for ventilation eller er AC ahahaha
Det officielle TDP på 3080 er 320 watt men mange af disse watt er også pga. GDDR6X som trækker væsentligt flere watt end alm. GDDR6
Bare se på 3070 vs 3070 Ti. Der er ca. 80 watt til forskel men ydelsen er næsten identisk. GDDR6X er grunden til 3070 Ti bruger langt flere watt for clockspeed og core count er tæt på identisk.
Jeg glæder mig til 4000 serien, jeg har haft 3080 og 3070 siden release så det er jo snart 2 år siden.. Wow tiden går hurtigt.. Jeg har sku engeligt nok været mest imponeret af 3070 da watt forbruget ligger på 215-220 med rimeligt meget OC. Jeg rammer tæt på 15.000 i 3Dmark firestrike (standard test) hvor mit 3080 med OC får 18.800, men i spil i 1440p er forskellen meget mindre. Men 3080 bruger dobbelt så mange watt, det ligger tæt på 400 efter oc og tweaking. Mit 3070 siger ikke en lyd hvor 3080 godt kan brumme lidt, men ikke galt.
Jeg regner med at beholde 3070eren når 4000 serien kommer og skifte 3080 ud med en 4070 eller 4080 :) Det bliver godt. Vælger kun 4080 hvis ikke watt forbruget er helt ekstremt. -- Gæstebruger, opret dit eget login og få din egen signatur. Galt, impronerende specifikationer, hvis de kan designe et kort der kan afgive 800W og så samtidig holde det nok afkølet.
Men dog ikke noget for mig, jeg synes varmen er rigelig i rummet for mit nuværende setup, og så hvis der lige kommer 3x mere varme fra min pc, yikes. -- 5600X/RX5700XT/32GB, Sound BlasterX AE-5 #25 at du ikke forstår det er nok den største gåde heri. Jeg kan se du samtidig er typen der ikke vil læse.det der står men alene tolker herpå.
Det ville klæde dit at indse at peak og powerdraw ikke er det samme. Og at det faktisk er her rating på psu kommer ind. Det er fint at du forsøger at trække offerkortet, det er ser flere gange. Men næyr det så ikke er berettiget så klinger det hult. Jeg skal ikke beklage at du opfatter din manglende viden sol er person angreb, jeg ville nok i stedet søge den viden i stedet for at tro de første 3 hits på Google der holder med dig er fakta.
Du citere dig selv for noget der ikke er beskrevet i din oprindelige post, det klinger ligeledes hult.
Jeg kan da kun håbe at du for alle de mennesker du bygger pc.hee bedre styr på tingene end det du giver udtryk for her.
Jeg er ihverfald færdig med at skulle diskutere med dig når din accept af den manglende viden ikke er til stede. -- #33 Når du en dag lærer at stave, og sammensætte en simpel sætning der giver mening, skal du være velkommen til at kontakte mig igen. Gætter på at du har en computer du skal ud og kickstarte med et bilbatteri nu, så god fornøjelse og god bedring med det hele herfra Heeman ;-). -- Sidst redigeret 26-07-2022 21:17 Så vi skal først smide 10-20 tusind for et grafikkort og efterfølgende bruge flere tusind på strømregningen? -- Gæstebruger, opret dit eget login og få din egen signatur. Havde overvejet 4090 / 4090 ti, men nu må vi se :-) --
--
Sidst redigeret 26-07-2022 21:33 lad os nu se... rygterne er jo sindsyge 100% mere performance.. aint gonna happen.. mere som 30% og 800 watt...
Men det kan jo være at nvidea er noget til hvor mere watt giver mere performance.. de er simpelthen bag efter amd... -- #31
Jeg har faktisk aircondition, men det er ikke meget den hjælper, når min PC blæser varmen lige op ved siden af hvor jeg sidder.
I en del spil, som ikke kræver vild grafik ( Warhammer Total War 2 ), der sætter jeg opløsningen ned og sætter TDP til 40 % eller 50 %.
Det hjælper en hel del på den mængde varme der kommer op fra min PC.
Strømforbruget er jeg ligeglad med 8 måneder om året.
Jeg har solceller med batteri, så det er kun et spørgsmål om at jeg så sælger lidt mindre strøm når jeg gamer.
#37
Det kan godt være 100%
Hvis de er gået ned i process og op i core count.
Ned i process giver flere MHz at hente ud af dem.
Ny chip burde give mere per MHz per Core.
Så med et større core count og meget større strømforbrug, så kunne noget godt tyde på at vi kommer derop ad.
Mon ikke at NVIDIA er bange for at miste tronen til AMD, så nu går de all in på ydelsen og skider totalt på strømforbruget.
Jeg tror at RTX 4070 bliver målet for rigtig mange.
Varmeudviklingen fra RTX 3080 er rigeligt for mange gamere.
En 3 kW aircon der bruger 600-700 watt, i laveste ydelse, køler cirka med 1500 watt.
Og noget af det går tabt ved at den trækker vand ud af luften. -- ASUS B550M TUF - 5800X - NZXT Kraken X62
G.Skill 2x8gb 3200Mhz CL14
3080 TUF OC - Acer XB271HU
Adata XPG SX8200 Pro 1TB
Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.
Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.
Opret bruger | Login
|
Du skal være logget ind for at tilmelde dig nyhedsbrev.
Hvilken udbyder har du til internet? 424 personer har stemt - Mit energiselskab (Ewii f.eks) 11%
|