RDNA4 / RX 8800 XT er på vej!Af Guru NitroBlast | 22-08-2024 13:40 | 3440 visninger | 38 svar, hop til seneste
Det ser ud som om AMD er i færd med at lave et "bagholdsangreb" på NVIDIA, ved at lancere et RDNA4 baseret RX 8800 XT grafikkort i løbet af kort tid. Det kan muligvis allerede ramme butikkerne i oktober/november, hvilket i givet fald er tidligere end forventet. Det vil tilbyde ydelse i omegnen af RTX 4080 til ca. den halve pris, så det virker yderst attraktivt. Moores Law is Dead: https://www.youtube.com[...] --
Nice! Her gik jeg og troede, at jeg skulle vente til q1 '25. Der har dog været rygter om, at Intel Battlemage ville blive lanceret i enten Q3 ell. 4 i år. Måske derfor AMD har fremrykket deres lancering? -- MacBook Air M3 Kan man regne med halv funktion på drivers også, for så er jeg frisk på AMD efter et par oplevelser med noget der kunne minde om 35 procents succes.
Nej, undskyld.
Men ydelse som 4080 der har været ude i flere år, er måske ikke så vild en nyhed, på den anden side påvirker billige AMD-kort brugtpriserne på Nvidia, så det er et win uanset. -- Goats are better people Hvis RDNA 4-kortene bliver lanceret i oktober, så kommer vi med garanti til at se nogle massive prisnedsættelser på eksisterende AMD-kort meget snart. -- MacBook Air M3 #1 Jeg tror mere, at AMD vil have deres kort ud, inden NVIDIA lancerer deres 5000 serie. Det lyder som om at AMD er i stand til at mætte markedet med RX 8800 XT, og hvis de yder ca. som RTX 4080 til halv pris, så tror jeg at mange vil slå til nu i stedet for at vente på eks. RTX 5070, som med stor sandsynlighed bliver møgdyrt i forhold til. AMD lancerer i løbet at relativt kort tid deres 9**0X3D desktop CPU'er, muligvis sammen med de nye X870(E) bundkort, og så står AMD med alt det nyeste grej på hylderne lige op til Jul.
EDIT: #3 Black Friday & Cyber Monday kunne byde på gode tilbud! ;-) -- http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO --
Sidst redigeret 22-08-2024 14:12 Det lyder godt når man planlægger at bygge ny pc omkring black friday :D -- Hvis de kan tune RX 8800 XT til at bruge 210W og yde som et RTX 4080 til halv pris så bliver det godt wow.
Ved godt 280W vil os være fint det er 40W fra strømforbruget på et RTX 4080 FE kort som specs vise er sat til 320W ifølge TechPowerUp.
Jeg tænker ikke på om ray tracing bliver lige så bruger det ikke i nogle af mine spil selv da jeg havde et RTX 3090, RX 6800 XT, RX 7900 XT el. mit nuværende RTX 4070. -- For Tech flow følgende brugere på X.com:
@kopite7kimi @harukaze5719 @9550pro @OneRaichu @Kepler_L2 --
Sidst redigeret 22-08-2024 15:50 Lidt off topic...
Forstår ikke hvorfor nogle af GPU-producenterne ikke laver rene kort uden RT? Som det er i dag, så skal man helt op i top tier-kortne,(Nvidia) for at RT overhovedet giver mening, FPS wise.
Hvis AMD smed et kort på markedet uden RT, så ville de da kunne producere det en hel del billigere, tænker jeg.
-- MacBook Air M3 Så vidt jeg har forstået det så udvikler fx Nvidia arkitekturen med henblik til salg indenfor datacenter/AI markedet da der er x10 revenue at hente der over deres gaming segment. Da det er dyrt og tidskrævende at udvikle ny arkitektur så får gamere det samme, pakket lidt om ofc, og derfor skulle skulle der findes use-case for RT og Tensor cores hvilket så blev Raytracing. Det gav performance hit over normal rasterization hvorfor man samtidig udviklede opskalerings teknologi. Annoncering var også mødt med jokes, memes og disconnect til forbrugere da Nvidia jo startede med at være for gamere, men i dag er deres fokus på helt andre industrier. De var vist også mest værdifulde firma for en enkelt dag her i år og ja selv Nancy Pelosi+hendes mand lavede inside trading da de skulle skubbe lovgivning igennem pårørende firmaet. Der er mange penge og højt momentum for tiden hos Nvidia. -- #7 Så skal men designe helt nye arkitekture og kerner til det. Det er der bare ikke penge i, fordi så meget billigere ville de heller ikke være. Slet ikke for AMD, som for evigt skal kæmpe om nvidias rester, ved at følge dem i hælene. De fleste gamere er ikke intresserede i tech, de køber bare intel og nvidia fordi det siger streamerne/reklamerne/vennerne, så tror ikke AMD ville få noget ud af det. Dertil mister du også DLSS, og jo flere features jo bedre, ikk? Det er irriterende, men sådan landet ligger desværre. -- #9 Hvad ved en noob som mig - jeg troede at man bare kunne klippe og klistre lidt i fotomasken og så var den skid slået. :D -- MacBook Air M3 Det ændrer ikke ret meget, udover en smule på prisen.
Nvidia kan sætte deres en del ned og så står AMD igen som de dårligste.
Det eneste der kan rykke noget, er hvis strømforbruget er meget lavere.
Lidt surt at komme med noget nyt og så slår det stadig ikke konkurrentens sidste model.
Men spændende, det bliver det da. -- ASUS TUF B550M - 5800X - NZXT Kraken X62
G.Skill 2x8gb 3200Mhz CL14
ASUS TUF 4070 ti super - Samsung LC34G55T
Adata XPG SX8200 Pro 1TB #11 Pengene ligger i middelsegmentet, så hvis AMD kan levere et grafikkort, der ydelsesmæssigt ligger i øverste del af middelsegmentet og med en pris, der er under hvad NVIDIA kan tilbyde i klassen, så kan det være en vinder: https://store.steampowered.com[...] -- http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO #12
Der er der at mængden ligger, men ikke pengene.
Pengene ligger skam i toppen af poppen, for her er priserne ekstreme.
Og især for NVIDIA, da de ikke må sælge deres AI kort til Kina.
Så køber kineserne xx80 og xx90 kortene, til en voldsomt høj pris. -- ASUS TUF B550M - 5800X - NZXT Kraken X62
G.Skill 2x8gb 3200Mhz CL14
ASUS TUF 4070 ti super - Samsung LC34G55T
Adata XPG SX8200 Pro 1TB #13 NVIDIA må ikke sælge 4090 i Kina. -- http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO #6: Men det bliver jo netop ikke til halv pris. Vi kender efterhånden AMD. De er blevet ligesom Intel hvor de sidder på toppen, og tror de kan smide fødderne op, og ryge den store cigar imens $$$ vælter ind. -- +27 / -0 på den uofficielle black/white liste --
Sidst redigeret 24-08-2024 16:14 for 14 år siden lave AMD et nummer hvor de satte prien ned med ½ pris over en nat på 7970 -- asus maximus xiii apex z590 i9-11900K @ 5.1GHZ 2x16 Corsair 4600@5000MHZ cl18
1000W ROG STRIX ROG,RTX 3080 MSI case phanteks nv9
Vi håber på det bedste! Krydser fingre for den her! -- Tror folk skal nedjustere forventningerne en lille anelse. Med de specs kortet har tænker jeg 4070 ti performance til måske 30-40% billigere max. -- Sidst redigeret 29-08-2024 16:59 "halv pris"....
Det vil være samme pris +/- som et RX 7800 XT
Tvivler jeg på.... -- Seneste rygte fra videocardz er at rdna4 max går op til x700 kort -- Amd 3700x, MSI Unify X570 & RX6800 Gaming Z trio, G.skill 32GB, Samsung 990 pro, Corsair 750d & K95 & RM650x, Noctua U12S, AOC AG273QX #17 Nu er jeg ikke en hardware nørd, men er GDDR6 ikke på sidste vers? Mener at jeg har læst Nvidia hopper på GDDR7 vRAM næste gang. Det er bare rygter, så jeg spørge hellere dumt og blive klogere :) -- Ethvert nyt kort der kommer ind fra sidelinjen med god/tilsvarende ydelse til ca. halv pris, vil vel også degradere deres egne øvrige kort til langt lavere pris, så måske håbet om en masse goddies til langt mindre pris, ikke er helt så lyserødt, som det umiddelbart lyder :) -- Kun de dumme ser på fingeren, når den kloge peger mod stjernerne...
37 + på B&W listen.. Ethvert nyt kort der kommer ind fra sidelinjen med god/tilsvarende ydelse til ca. halv pris, vil vel også degradere deres egne øvrige kort til langt lavere pris, så måske håbet om en masse goddies til langt mindre pris, ikke er helt så lyserødt, som det umiddelbart lyder :)#22 - der er flere fabrikanter, der har udviklet DDR7 ram, hvor feks. Hynix hævder, at de har de bedste, og bla.har implementeret rammene i de kommende 5000 gpu'er. De hævder også, at deres RAM sku' være 60% hurtigere end DDR6 rammene, og samtidig ha' 50% bedre energieffektivitet, hvad vi så pænt må vente lidt på at se/godkende :) -- Kun de dumme ser på fingeren, når den kloge peger mod stjernerne...
37 + på B&W listen.. Beklager dobbeltkonfekten! Øjnene var for langsomme :) -- Kun de dumme ser på fingeren, når den kloge peger mod stjernerne...
37 + på B&W listen.. #21 Her kommer det link, du glemte: https://videocardz.com[...]
Umiddelbart ser jeg det ikke som hverken overraskende eller negativt, da det længe har været kendt, at AMD ikke ville konkurrere med NVIDIA i topsegmentet. Der står, at det drejer sig om at levere bedre ydelse til prisen i middelsegmentet, og det kan kun være positivt. -- http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO #26 sku ret deprimerende læsning hvis amd dropper highend segmentet for good. Har nærmest ikke fantasi til at forstille mig hvad Nvidia vil have for deres highend 5xxx korts næste gen.
Måske de bare har indset at de ikke kan konkurrere med nvidias mindshare, for selv dengang amd faktisk lavede de bedste kort, solgte de dårligere end Nvidia. det var da grafik afdelingen hed ATI og amd ikke var involveret endnu
Hvor blev intel af med deres gpuer? eller har de nok at gøre med at håndterer deres cpu skandale :/ -- Sidst redigeret 31-08-2024 22:38 For lige at hoppe fra rygte "jeg har læst at" til AMDs egen udmeldings vedr. farvel til 650+ mm2 store entusiast class chips:
https://www.tomshardware.com[...]
Så er den da verificeret, og spørgsmålet der popper frem er, hvor langt op i markedet AMD har tænkt sig at kæmpe. De har både tilbage i RX 400/500 serien og med RDNA holdt sig tilbage, så jeg er spændt på, hvor langt deres største multi-chip RDNA4 chip bevæger sig op i markedet.
For mig giver det god mening, og det behøver ikke have så store konsekvenser for, hvad NVIDIA kan tillade sig længere oppe i markedet. Men det afhænger igen af, hvor langt op i markedet AMD vil konkurrere. -- Mvh. Thomas Christensen. Lad os få svisken på disken og se hvad AMD rent faktisk stiller til start med. Egentligt havde jeg håbet på at Strix Halo blev tilgængelig til desktop, men det ser ikke sådan ud, så hvis der kommer et "godt til prisen" grafikkort, så kunne det også være at foretrække til Linux.
Det er bare surt for entusiasterne, der gerne vil have grej fra øverste hylde, for de kommer til at stå i en situation, hvor NVIDIA kan diktere prisen, da der ingen konkurrence er i top-segmentet. -- http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO En der kan opsummere hvad rygterne går på mht. 8800xt? Pris? Ydelse mv.? -- MacBook Air M3 | 1440p Gamer: Ryzen 5700x | Asus Rog Strix B550 | Asus Rtx 4060 8 GB | 16 GB RAM, 3600 MHz | NZXT C 850 Ja det bliver vel et 7900gre som burde koste 400$
men mon ikke det lander op mod 600$
-- Have a Nice Day :) #30 Priser kendes ikke med sikkerhed, og det er heller ikke sikkert, at det bliver et 8800XT, da det kan komme til at hedde noget andet. AMD udtaler selv, at de går efter at "mætte" markedet i middelsegmentet, hvor der er den største efterspørgsel/omsætning.
Rygterne siger, at priserne bliver mindre end forrige generation, da produktionen bliver større, og fordi de ikke kommer til at sætte penge til i top-segmentet. Rygterne siger ligeledes, at noget i stil med RTX 4080 ydelse til omkring halv pris (~4k) er en realistisk mulighed.
AMD er mestre i at blæse rygter og forventninger ud af proportioner, så der er ikke så meget andet for, end at vente på faktiske tal fra butikker og anmeldere. -- http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO #32 Tak.
Måske ser jeg forkert på det, men hvis AMD fremkommer med aggressive priser på 8800XT, så vil vi vel se Nvidia følge trop? Og kommer det dertil, så sidder Nvidia på en meget større pengetank og vil deraf kunne ‘udtørre’ AMD.
Det er AMD ikke interesseret i, tænker jeg. Og vel heller ikke Nvidia.
Eneste måde, hvorpå AMD kan sænke prisniveauet, er vel kun, hvis de kan producere de kommende kort billigere end Nvidia - og hvordan skulle de kunne det? Vi ved, at TSMC har forhøjet deres wafer-priser. Og det gælder for alle TSMCs kunder. -- MacBook Air M3 | 1440p Gamer: Ryzen 5700x | Asus Rog Strix B550 | Asus Rtx 4060 8 GB | 16 GB RAM, 3600 MHz | NZXT C 850 --
Sidst redigeret 09-09-2024 19:58 #33 Jeg er ikke 100% sikker, men som jeg forstår det, så kommer AMD til at bruge "chiplets" til deres kommende grafikkort, ligesom de gør med deres CPU'er. Det betyder, at hver enkelt GPU er sammensat af flere små chiplets, og dermed er der mindre spild i (wafer) produktionen, end hvis GPU'erne skulle have været produceret som monolittiske chips. Hvis dette kommer til at fungere for AMD, så vil de kunne producere deres grafikkort/GPU'er en del billigere end NVIDIA. -- http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO #34 Men vi har allerede chiplet-design i dag.
https://www.guru3d.com[...]
Og 7900xt yder bedre en Nvidias modstykke overordnet set. 7900xt koster også mindre end 4070ti Super. Og når 7900xt ikke sælger bedre end det gør, så har jeg svært ved at forestille mig at AMD kan presse prisen endnu mere. Men lad os nu se. :-) -- MacBook Air M3 | 1440p Gamer: Ryzen 5700x | Asus Rog Strix B550 | Asus Rtx 4060 8 GB | 16 GB RAM, 3600 MHz | NZXT C 850 --
Sidst redigeret 09-09-2024 20:20 #35 AMD kommer som jeg har forstået også til at satse på det relativt billigere GDDR6 RAM, hvor NVIDIA's 5000 serie kommer til at bruge enten GDDR6X eller GDDR7, hvilket giver endnu en besparing i produktionen for AMD.
7900XT ligger både i pris og ydelse mellem 4070 og 4070ti, så det har hård konkurrence i det segment. AMD skal satse på at levere mere ydelse per krone, hvis de virkeligt skal være konkurrencedygtige. -- http://xlinx.dk[...] i7 2600K, 16GB PC3-12800, GA-Z68XP-UD4 R1, GTX 560Ti HAWK, 250GB 840 EVO #36 Det ser vi delvist allerede i dag; GDDR6 vs GDDR6x.
Ser vi bort fra RT, så yder et Rx 7900xt nogenlunde ligeså godt som et Rtx 4070ti og altså bedre en det alm. Rtx 4070.
https://youtu.be[...]
Men summa summarum, det bliver spændende at følge. Mit midlertidige Rtx 4060 skal have en afløser. :D -- MacBook Air M3 | 1440p Gamer: Ryzen 5700x | Asus Rog Strix B550 | Asus Rtx 4060 8 GB | 16 GB RAM, 3600 MHz | NZXT C 850 --
Sidst redigeret 09-09-2024 20:59 Som jeg fornemmer kommentarerne, så er der en udbredt opfattelse af, at AMD vil være mere prisaggressive end de plejer at være. Det er der absolut intet belæg for, og AMD har heller ikke det store incitament for det. Det AMD gør er, at tilpasse sig til et marked, hvor de faste omkostninger (udvikling og produktionsopstart) fylder en stor del af den samlede omkostning for en chipgeneration, men hvor de modsat NVIDIA ikke har markedsandelene til at understøtte det. En fortsat stigning i specielt faste omkostninger kan de ikke håndtere i længden uden at hæve margin eller øge markedsandelene, og derfor tilpasser AMD sig.
Så basalt set, så tager de omkostninger ud af produktionsopstarten ved at have færre chips, så omkostningen vil tippe mere mod variable omkostninger (omkostning per grafikkort). Færre chips på tværs af prissegmenterne er et tradeoff mellem at reducere segmenttilpasning på chipniveau for at opnå skaleringsmæssige fordele. Det er essensen af tilpasningen, og alt andet er bare PR og teknik-chiplet-snik-snak.
#29 NitroBlast
NVIDIA dikterer de facto prisen i dag, og har gjort det i en helt del år. Om AMD laver en 800+ USD model eller ej betyder ikke nødvendigvis det store. AMD kan med en skarp model, der har volume i baghånden, have samme begrænsede indflydelse på NVIDIAs prissætning som de har i dag.
AMD siger jo ikke, at de kun vil lave 200-350 USD grafikkort. De siger bare farvel til 1000+ USD markedet, og så venter vi spændte på at finde ud af, hvor de placerer den øvre bar med topmodellen. De vil nok ikke starte med den øverste bar de rammer med RDNA4, men vi bliver nok snart klogere.
#33 BoreBissen
AMD behøver ikke have samme margin som NVIDIA. Når AMD forsøger at opnå operationelle fordele ved at placere flere prissegmenter på færre chips, så er det bare en anden måde at hente lidt ind på NVIDIA's stordriftsfordele, og når de samtidig accepterer at have en lavere margin, så kan det netto give AMD et sundere fundament for en given grafik-generation. Målet er ikke er indhente NVIDIA's stordriftsfordele, det er nok lidt urealistisk, at de vil få markant større markedsandele, men med tilgangen forsøger de at opnå den bedste koststruktur de kan ud fra deres markedsandel.
#34 NitroBlast
AMD vil ikke opnå lavere produktionsomkostninger end NVIDIA i en relativ ens sammenligning. Har du volumen og dermed stordriftsfordelene med dig, så vil du opnå fordele på transistor/ydelse og ydelse/strøm med en samlet chip og den risiko AMD vil minimere med chiplets vil NVIDIA reducere ved volume. Det har AMD bare ikke, så de leder efter nogle af de samme mekanismer ved en mindre samlet produktion. -- Mvh. Thomas Christensen.
Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.
Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.
Opret bruger | Login
|
Du skal være logget ind for at tilmelde dig nyhedsbrev.
Hvilken udbyder har du til internet? 424 personer har stemt - Mit energiselskab (Ewii f.eks) 11%
|