Det er ikke første gang jeg hører det med at NVIDIA 256 var den første GPU.. var 3DFX kortene ikke GPU'er?
--
nVidia (ikke NVIDIA som de skriger nu) opfandt ordet "Graphic Processing Uint", så jo, nVidia GeForce 256 var det første... :rolleyes:
--
Activate Windows
Go to Settings to activate Windows
... før det hed tingene MDA (monochrome Display Adaptor) og CDA (Color Display Adaptor).
Men Matrox Mystique og Matrox Millenium var også fulde enheder med 3D, de hed bare ikke GPU :p
--
Activate Windows
Go to Settings to activate Windows
Noget af en udvikling siden mit første nVidia NV1 kort - Diamond Edge 3D med hele 2MB ram! Men det kunne da køre Sega Saturn spil på min AMD K5-100MHz maskine :-)
--
"Enhver mener, at hans kobber er guld."
"Threadripper 1920x [email protected], 1.15V+125mV offset, Aircooled" Jeg købte en pc til 10k som kom med et s3 savage 4 og for at kunne spille så skulle jeg ekstra ud og købe et voodoo kort til at sætte i.
Det var den gang jeg troede man kunne købe ekstra plads og sætte i harddisken.
--
#5, du var nok i god tro men bare misforstod det, der var en kort periode dengang hvor man kunne "Unlocke" mere plads på harddisken, jeg kan ikke huske producenten, måske Quantum, ikke sikker, men man købte en 5GB harddisk, som faktisk var en 10GB som kunne unlockes ved at betale for det naturligvis.
Det var billigere for dem at lave en masse ens diske, låse noget af pladsen på nogle af dem og så sælge dem som forskellige diske, 5GB og 10GB selvom de var ens.
Sådan noget kunne jo godt misforstås af en ung knægt :)
--
Activate Windows
Go to Settings to activate Windows
#1 nej de første kort fra 3dfx woodoo 1 & 2 var så kaldte 3d accelerator kort hvor man på bagsiden af kabinettet skulle forbinde det med sit alm. grafikkort.
Den først pc jeg selv byggede var en 486 dx4 120mhz med 8mb ram og s3 grafikkort med 4mb ram og tog harddiske fra min gamle pc på hele 520mb
Og købte en af de såkaldte multimedia pakker der var så populære på den tid og smed i som bestod af cdrom drev på 6xspeed og soundblaster 16 lydkort da det jo var før onboard lyd:-)
--
#6: Man kunne jo også øge diskkapaciteten med >50% med "doublespace" i DOS eller det senere "drivespace" i windows 95. Det hjalp i hvert fald rigtig godt på min første Olivetti PCS44/C i486 SX25@33MHz, 8MB ram, SB16 lydkort, 2xCreative CD-rom og hele 170MB HDD :-)
Den slags "on-the-fly" compression på al data er vel nærmest passé? Eller anvendes det egentlig i en anden form på server-niveau?
--
"Enhver mener, at hans kobber er guld."
"Threadripper 1920x [email protected], 1.15V+125mV offset, Aircooled" #7: Et 3Dfx voodoo 4MB er stadig dét kort, der gjorde den største forskel i mit setup. Det var jo en reel game-changer!
--
"Enhver mener, at hans kobber er guld."
"Threadripper 1920x [email protected], 1.15V+125mV offset, Aircooled" #9 jeg er helt enig det gav bogstaveligt talt en performes boost af en anden verden da man fik det i..
--
#8, ahh ja, det husker jeg (doublespace ordet), jeg brugte det dog aldrig.
Det har fulgt med windows lige siden, selv her i win10, hvor man kan sætte et flueben under diskproperties "Compress this drive to save disk space", men tror ikke der er mange der bruger det, da plads nu om dage bruges til allerede komprimerede filer såsom billeder og film.
Men dengang var det sikkert fedt :D
--
Activate Windows
Go to Settings to activate Windows
Tilbage på sporet så undre jeg mig over det "kun" for 12gb ram syntes ellers at rygterne havde gået på en hel del mere..
--
De 12gb er på den ene side af kortet og der sidder med stor sandsynlighed 12gb på den anden side af kortet også. Toms Hardware har set bedre dage
--
Gæstebruger, opret dit eget login og få din egen signatur. #12 Der kommer vil et Titan kort med 24gb+ til dem der skal bruge ram mængde?
--
#9 Mit var da jeg gik fra et 4 mb kontor GFX til et Ti 4200 med 64 mb. Så kunne jeg pludselig spille alle spillene i open GL og med mere end 20-30fps :D
--
R5 3600X | Asus B450-F STRIX | G.skill 16 gb 3600 mhz cl. 15 | Asus Geforce 2070 Super | Corsair 750W | 1 TB Samsung SSD | Asus 27" 1440p 144 mhz |
Kan huske til The Gathering i 1999 (i Norge) rockede jeg et Matrox G400 med extra ram-udvidelse, og 2 stk Voodoo 2 12MB i SLI.
Det var *insane* dengang.
--
"ORK SATME!"
--
Sidst redigeret 17-08-2020 10:06
Jeg havde kun 1 af 3dfx Voodoo II 12 MB
Og den var top dollar :)
--
9900K • Maximus Code • EK A240G • GTX 1080 TI • 16GB 3600MHz • THOR850P • 2x500GB m2 970EVO raid 0 • TT Core P3 • Asus 32" XG32VQR
--
Sidst redigeret 17-08-2020 10:10
#16 - Fuck det har været DYRT! :O
Jeg måtte nøjes med et 3DFX Voodoo 1 med 4mb VRAM som jeg fik i konfirmationsgave af min far. Jeg havde ikke en computer at montere det i dog. Men det havde min far, som jeg var hos hver anden weekend. Det er først efter jeg blev voksen at jeg har indset, hvor smart et move han lige lavede der.
--
- Indsæt signatur -
Voodoo 2 12MB, var et fantastisk kort.
--
i9 9900K, Gigabyte Z390 Auros Elite, Noctua NH-D15, 16GB DDR4 3200MHz, MSI RTX2080Ti Lightning, Coolermaster H500, LG 27GL850.
Syntes ikke at Geforce256 var så banebrydende eller måske var det bare noget jeg bildte mig selv ind fordi jeg havde et tnt2 og først kom med på geforce bølge ved Geforce 2..
--
#20: Du har ret. GeForce 256 var ikke så meget bedre end f.eks mit Diamond Viper V770 TNT2 ultra med hele 32MB VRAM. Jeg kom med på GeForce-vognen med et seriøst overclocket GeForce 2MX. Det sparkede r** sammen min Celeron 366A, der ramte 606MHz med luftkøling svt 66% overclock :-)
--
"Enhver mener, at hans kobber er guld."
"Threadripper 1920x [email protected], 1.15V+125mV offset, Aircooled" #16: Crazy setup ;-p
--
"Enhver mener, at hans kobber er guld."
"Threadripper 1920x [email protected], 1.15V+125mV offset, Aircooled" Jeg bliver helt nostalgisk, min første PC var en Athlon 500 med et Geforce 256 :-)
--
3DFX Voodoo.
Det var sindsygt, så meget at det gav, i forhold til det man have allerede.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB
3D So Real It Must Be Righteous.
--
Se SPECS under profil!
It's in my Blood...
Kommer det til at blive et problem for PCIE gen 3 med de nye kort?
--
#26 Nej, det gør det ikke.
Et 2080Ti kan ikke engang gøre det, og det kommer til at slå 060,070 samt muligvis match 080.
PCIE 4.0 har forresten os kun været ude i et år, så Nvidia har ikke taget det med i beregningerne da de lavede RTX 3000.
--
Grafikkort oraklet! Oh, and don't mind the vase.
#27 3090 er det "nye" 2080ti så ja det kommer til at slå dem alle, og samtid ser prisen ud til at blive 2.000 dollars så ca 20.000 i dk hvis det passer men så også 50 % increase fra 2080ti (bemærk rygter det hele, men det er sådan det lyder pt)
https://www.reddit.com[...]
--
Sidst redigeret 18-08-2020 11:54
Nogle der har en ide, om hvornår de nye kort kommer? :)
--
Hedder sebastian og Leder efter en Gtx 780 eller r9 290 :)
# 28 damn 20.000 om det så var 300% hurtigere ind 2080ti kunne jeg ikke få mig selv til at smide så mange penge på et gfx..
--
Haha - Nej hvis der skal bødes 20000 bananer for et 3090 - skal der absolut også være et aktuelt behov for det, som f.eks. hvis det kan få 4K op i en rasende fart spillemæssigt. Og med den fart gpuèr springer rask over rækværket ud til brugerne, står man hurtigt med et stort salgsmæssigt tab - ad bad :) Men fremtidens lynhurtige HW udvikling er vi jo så heldige, at stå med i stadig større tempi, så selv en halvgammel smølf som jeg, kan opleve en mega accelererende udvikling/forbedring i både ydelse, størrelse, pris etc.
--
Kun de dumme ser på fingeren, når den kloge peger mod stjernerne...
#28 Hvis de virkelig har formået at hive 50% mere ydelse ud.
Så det jo næsten det værd.
Den type spring i ydelse har vi ikke set i 12 år, hvis ikke mere.
Prisen kan jeg ikke hidse mig op over, da denne type kort aldrig har været særlig cost effective.
Disse kort har altid været "Hvis du skal spørge om prisen, så har du ikke råd".
#29 De hoster et Nvidia geforce event den 1 september.
#30 300% ville faktisk gøre det til en knald god deal.
Specialt i en tid hvor 30-35% er normen.
--
Grafikkort oraklet! Oh, and don't mind the vase.
--
Sidst redigeret 18-08-2020 17:42
#32 endeligt ikke for så kunne man bare vente 2år og få noget til ca 4000 som performer det samme..
--
#33 Det sandt!
--
Grafikkort oraklet! Oh, and don't mind the vase.
#32 Eh du skal ikke længere end små tre år tilbage hvor du fik ca. 80%+ mere ydelse med 1080TI kontra 980TI for 700$.
https://www.techpowerup.com[...]
Så nej, det er ikke 12 år siden. Hvilket kort tænkte du overhovedet på?
Nvidias priser fra 20x0 serien er helt hen i vejret og viser tydeligt hvad et monopol gør for markedet. Det er satme trist!
De tager virkelig folk i røven noget så grusomt.
--
i7 [email protected]|32GB PC4-25600|MSI Z270 GAMING M6|EVGA 1080TI|Samsung 850 EVO 250GB + 3TB NVMe SSD|Phanteks Enthoo Primo|Vandkølet|Acer XB271HU #35 Læser du dit eget link?
Der ikke 80% forskel, nærmer 50-60% afhængig af opløsning, ifgl dit link.
Derudover sammenligner du et fabriks overclocked kort med et der kører stock.
Hvilket jo heller ikke er optimalt.
Her er hvordan de kører stock for stock:
https://www.techpowerup.com[...]
35% forskel i 1080p.
43% forskel i 1440p.
46% forskel i 4k.
Så jo, det er faktisk 12 år siden, hvis ikke længere.
Hvad angår det andet, så ville det kræve at AMD var ude af spillet, hvis Nvidia havde monopol på markedet. Hvilket jo ikke er tilfældet, idet vi har Polaris og Navi til at konkurrer imod Nvidia.
At de så ikke gør et godt job, er en anden snak. Men ikke desto mindre er de der altså.
Derudover hvis du syntes priserne er slemme, så lad da vær med at køb dem?
Det jo ikke fordi at dit 1080Ti er total ubrugeligt?.
--
Grafikkort oraklet! Oh, and don't mind the vase. #36 Du ved godt det ikke er sådan at procenter og matematikken fungerer ikke?
Det du beskriver er hvor meget langsommere 980TI er end 1080TI (980Ti yder 65% af 1080Ti i 1080p, i din logik 100-65=35%), men du skal jo se på hvor meget hurtigere 1080Ti er end 980TI altså ydelsesspringet
fra 980TI
til 1080TI.
I dit link er 1080ti så meget hurtigere i de forskellige opløsninger:
1080p: (100-65)/65*100 = 54%
1440p: (100-57)/57*100 = 75%
4k: (100-54)/54*100 = 85%
Det bliver meget tydeligt hvis du kigger på ren fps, lad os tage 1440p her:
https://www.techpowerup.com[...]
Vi går fra 56,8 til 105,2. Det er ret tydeligt vi har næsten en 100% forøgelse her, men du ville sige at dette kun var omkring 50%.
Jeg står ved min tidligere udtalelse. Og vi har ikke engang inkluderet overclock hvor 1080TI var/er et monster sammenlignet med 980TI.
En sidste ting var jeg ikke brugte MSI's 1080TI, men de stock 1080TI tal de havde i den graf!
Og jo de har de facto monopol når de ikke har nogen konkurrence over 1080Ti ydelse.
--
i7 [email protected]|32GB PC4-25600|MSI Z270 GAMING M6|EVGA 1080TI|Samsung 850 EVO 250GB + 3TB NVMe SSD|Phanteks Enthoo Primo|Vandkølet|Acer XB271HU
--
Sidst redigeret 19-08-2020 00:01
3Dfx Voodoo 2 12MB ram var sindsygt! Og så køre Unreal i 800x600.....fuck det var tider!
--
#37 Den checker skam ud.
Du har bare misforstået kontekst, der blev hele tiden omtalt den konkrete ydelse forskel imellem kortene. Hvor du så kigger på den mere generelle ydelse.
"Og jo de har de facto monopol når de ikke har nogen konkurrence over 1080Ti ydelse."
Hvilket ikke var det du skrev.
Du skrev følgende "Nvidias priser fra 20x0 serien er helt hen i vejret og viser tydeligt hvad et monopol gør for markedet"
Derfor jeg skrev som jeg gjorde.
--
Grafikkort oraklet! Oh, and don't mind the vase.
#39 Du er fandme en sjov type.
Selv med uomtviselig fakta på du tog fejl/misforstod (kan ske for alle) kan du stadig ikke indrømme det ("my bad", "så lærte jeg noget nyt"), men flytter baren.
Nu er det mig der "bare har misforstået konteksten".
Hvad betyder overhovedet det du skriver? Jeg har KUN kigget på den generelle ydelse.
Forklar mig med dine ord, hvad '
konkret' og '
generel' ydelse er i denne sammenhæng og hvad forskellen er på dem siden du mener du taler om den ene ting og jeg den anden?
Og hvordan hænger dette overhovedet sammen med det vi taler om (%-mæssige ydelsesspring)?
Du skriver i 32":
"
Hvis de virkelig har formået at hive 50% mere ydelse ud.
Så det jo næsten det værd.
Den type spring i ydelse har vi ikke set i 12 år, hvis ikke mere."
Definitionen på det du siger udlægger jeg klart i #37. De har før hevet markant mere end 50% mere ydelse ud af et grafikkort til næste generation.
Men man skal måske ikke ligge noget værdi i det du skriver, da du selv bare tilpasser det senere til hvad du lige syntes det skulle betyde??
--
i7 [email protected]|32GB PC4-25600|MSI Z270 GAMING M6|EVGA 1080TI|Samsung 850 EVO 250GB + 3TB NVMe SSD|Phanteks Enthoo Primo|Vandkølet|Acer XB271HU
--
Sidst redigeret 19-08-2020 10:02
Det er jo det samme hver gang der kommer nyt GFX.
"500% mere ydelse end tidligere generation" - og så er det i ET bestemt obskurt spil fra 2009, i 800x600 opløsning, men kun hvis man kører Windowed, og har alle settings på Medium, bortset fra en, som skal stå på noget andet. Og kun hvis man samtidig kører deres bloatede software som "på magisk vis" giver optimal performance, og har et helt orange baggrundsbillede, samt et PS/2 tastatur.
Der er den sædvanlige hype hver gang, og de sædvanlige mennesker æder det råt.
Det er endnu ikke rigtigt nogensinde set at de her hop i performance som vi bliver "lovet" hver eneste gang.
Der kommer et nyt kort. Vi venter og ser til der kommer real world benchmarks. Og et prishop der svarer til prisen på en 2-ugers-ferie i Malaga.
--
"ORK SATME!"
#41 Ja, og hvad er #32 en respons på?
Det er indlæg #28 som skrev det her"hvis det passer men så også 50 % increase fra 2080ti "
Ergo, du misforstod kontekst, som jeg skrev..
Så pak den attitude væk, og gotcha mani du har gang i.
#42 Du rammer hovedet på sømmet.
Men nu er det jo os et hardware forum, så selvfølgelig bliver det diskuteret.
Selvom jeg godt ved dig og Toffo ikke er de store fans, haha!
--
Grafikkort oraklet! Oh, and don't mind the vase.
--
Sidst redigeret 19-08-2020 14:04
Er jeg den eneste her der tænker at måske er 3090 en erstatning for Titan serien, da den serie efterhånden er ved at være lidt forvirrende (skal den næste hedde RTX Titan X?). Hvis 3090 virkeligt har 24 GB vram, kan jeg ikke se nogen fornuft i at have en Titan serie mere medmindre de giver den 48 GB (jeg tvivler). Så er der jo stadig plads til en 3080 Ti ind imellem bare med mindre hukommelse...
--
//Off topic slettet
For at komme tilbage på sporet, bliver det spændende hvor meget 7nm kan bringe til bordet! Er der den performance uplift i det, som hypet er gjort til - ingen ved det.
--
Sidst redigeret 21-08-2020 14:41 af Ronson #45 Som jeg har forstået det, så bliver Rtx 3000 serien ikke baseret på 7nm, men i stedet Samsungs 8 NM node. TSMC har vist ikke haft nok kapacitet nok til Nvidia, derfor bliver det Samsungs 8 NM.
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400
@46 Som jeg har læst rygterne, så er både Samsung og TSMC bekræftet producenter. Mine tanker går på, at fx 3070 bliver produceret af Samsung og 3090 af TSMC. Det er set tidligere og dermed ikke utænkeligt - det bliver ihvertfald spændende at se!
--
#47 Så er det nok bare som har misset et eller andet i farten. :P
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400
#43 Jeg kan ikke helt finde ud af om du decideret troller eller om du har svært ved at forstå procentregning (hvilket også kan være forvirrende).
Men jeg har to ting:
1. Du undveg fuldstændig mit spørgsmål i #41 der er meget relevant for det vi snakker om, kan du ikke lige svare på det?
"Forklar mig med dine ord, hvad 'konkret' og 'generel' ydelse er i denne sammenhæng og hvad forskellen er på dem siden du mener du taler om den ene ting og jeg den anden?
Og hvordan hænger dette overhovedet sammen med det vi taler om (%-mæssige ydelsesspring)?"
2. I #28 som du henviser og selv citerer fra til taler han jo netop om 50% mere ydelse
fra 2080TI (underforstået at hvis 2080TI yder 100fps så yder 3090 150 fps) som er præcis det jeg skriver er vigigt at holde sig for øje når vi taler ydelses forberinger i #37:
"men du skal jo se på hvor meget hurtigere 1080Ti er end 980TI altså ydelsesspringet fra 980TI til 1080TI."
Så det er ret tydeligt at det er dig der har misforstået udgangspunktet eller ikke forstår matematikken bag (hvilket igen er helt ok), da du bliver ved med at tale den anden vej, altså
fra 1080TI
til 980TI.
Så for at gentage mig selv: Det er ikke mere end 3 år siden vi fik et 50%+ ydelsesboost ved et generationsskifte (som jeg sagde var 80%+, hvilket vi kan diskutere om er en lettere overdrivelse), da vi gik
FRA 980TI
TIL 1080TI.
Det jeg bare ikke forstår er at du har så travlt med at angribe videre i stedet for at stoppe op og være nysgerrig på at lære noget nyt og tilegne dig noget ny viden?
Føler du du taber ansigt hvis du tager fejl, er det pinligt eller hvad er det der gør du reagere så kraftigt og kæmper så hårdt imod unægetelige fakta??
Jeg er oprigtigt nysgerrig!
--
i7 [email protected]|32GB PC4-25600|MSI Z270 GAMING M6|EVGA 1080TI|Samsung 850 EVO 250GB + 3TB NVMe SSD|Phanteks Enthoo Primo|Vandkølet|Acer XB271HU Lidt af RTX 3000 serien vil i hvert fald komme fra TSMC, da A100 jo er 7nm FinFET fra TSMC, og mon ikke den finder vej til et Geforce bastard kort, som vil være et håbløst uopnåelig 1500+ USD grafikkort. Selv Volta kom som Geforce, og Ampere er langt mere generel purpose end Volta var.
Så når TSMC ikke har kapacitet til hele den nye serie, bliver det nok en blanding. En chip bliver i øvrigt aldrig dual sourcet fra to fabs. Det sørger simpel chipøkonomi for. Det er simpelthen for dyrt at starte en produktion op, og man kan ikke bare tage et chipdesign, og få det samme layout lavet to steder Så en given chip kommer enten kun fra TSMC eller fra Samsung. Ved ikke om der vitterlig blev hentydet til dette, men vil bare lige afkræfte det.
Bryder mig egentlig ikke om performance snak, da man kan få tal til at passe som man vil, og der er ikke en rigtig måde at opgøre det på, men uanset hvad, så er det et stort hop. Transistorer lig performance (indtil RT og tensor kerner ødelagde den ligning), og der er et stort transistor hop fra 12nm til 7/8nm. Tag Volta V100 til Ampere A100; 1,5% større chip men 2,5 gange antal transistorer. Tal kan snyde, men lad os bare sige dobbelt op på antallet af transistorer i samme chipstørrelse som en fin rettesnor.
NVIDIA har lykkedes med at hæve prisspændet og dermed flere prisgrupper, som gav plads til flere chips i deres lineup end vi tidligere har set. Med en AMD som bør være mindre aggressiv kontra NVIDIA på non-gaming (inference/training - RT/tensor), og dermed større del af chippens transistorantal indenfor klassisk gaming ydelse, kan det jo være, at vi ikke får ligeså mange NVIDIA chips. Og vil NVIDIA så i stedet benytte muligheden til at gå ned i chipstørrelse per prisgruppe for at holde samme margin eller hvordan? Her vil meget af svaret på, hvor meget ekstra ydelse vi får blive defineret. Laver de en til en på chipstørrelsen, så venter der meget ydelse med Ampere generationen. Det tror jeg ikke de gør, men der venter stadig et større ydelseshop.
Det var bare mit ræsonnement. 100% rygtefri, men på ingen måde fejlfrit.
--
Mvh. Thomas Christensen.
#49 Nej, det gør jeg bestemt ikke.
Men du har jo konsekvent misforstået konteksten, som der blevet præsenteret.
Så selvfølgelig svarer jeg ikke på dine spørgsmål bygget på den præmis.
Er det virkelig så besynderligt?
Det hjælper jo heller ikka at du så samtidige sidder og bringer den der attitude på banene.
Og anklager mig for at angribe dig, fordi jeg tilfældigvis svarer på dine henvendelser.
Derudover skriver du en ting, men dine handlinger er jo stik modsat.
Fordi hvis du vitterlig var interesseret i at gøre de ting, du nævner.
Så ville hele dit indlæg jo være skrevet anderledes og uden pågældende attitude fra dig.
Vi har os et fungerende pb system, som du os kunne have skrevet i.
Men det har du jo heller ikke gjort..
--
Grafikkort oraklet! Oh, and don't mind the vase.
#53 Suk.... Du graver dig simpelthen bare dybere ned? Buckle up and double down?
Selv med dine egne ord og citater som beviser ignorerer du bare alt...
Det er jo også nemmest at tage skyklappe på og ikke tage stilling til det der bliver skrevet.
Damn er forundret over individer som dig i det hele taget findes i et videnssamfund som Danmark.
Jeg må indrømme at jeg sgu har lidt ondt af dig. Især når du finder min "attitude" er noget der rammer dig på et personligt plan så du bliver fornærmet. Føler du dig ramt fordi jeg beder dig uddybe og forklare ting du dybest set ved du ikke har noget svar på fordi det i sagens natur er volapyk (f.eks.
konkret' og 'generel' ydelse)?
Hvis du mener det at få at vide at man tager fejl og har misforstået noget underbygget af saglige faktabaserede argumenter er der sgu lang vej hjem.
Men lad mig gætte på at du ovehovedet ikke tænker over hvordan din egen attitude er? Det er alle andre omkring dig der er problemet, ikke? Alle andre der ikke forstår dig eller forstår det du ytrer?
#52 Det bliver spændende at se hvad det hele munder ud i. Med de priser der rygtes og som fik et ordentligt nøk opad med 20x0 serien frygter man jo det værste.
NVIDIA malker hvad de kan og er pt ikke blevet straffet af forbrugerne for at hæve priserne så meget, der lystig køber videre.
Er det denne gang AMD kan hive en kanin op af hatten, der kan tvinge NVIDIA til at sænke priserne? Går de med på prisstigningerne? Fortsætter status quo?
Jeg venter i hvert fald og ser.
Mit største håb pt er at det rygtede 3090 med 24GB ram til 1400-1500$ er titan afløseren og der kommer en 3080TI med 12GB og en lettere amputeret chip til 999$ (syntes stadig det er i overkanten :S). Men det er nok hvad man ville kalde ønsketænkning.
--
i7 [email protected]|32GB PC4-25600|MSI Z270 GAMING M6|EVGA 1080TI|Samsung 850 EVO 250GB + 3TB NVMe SSD|Phanteks Enthoo Primo|Vandkølet|Acer XB271HU
--
Sidst redigeret 21-08-2020 11:17
Sådan helt generelt.
For at kunne fungere i en normal debat, så skal begge parter "lytte" til hinanden.
Lader det sig ikke gøre, må man tage til overvejelse, hvilken kamp det er man har forhåbninger om at vinde.
Nogle kampe kan ikke vindes, og så må man skilles i ro og mag. Der er bestemt ikke nogen grund til at fare i sulet på hinanden, og slet ikke begynde med personlige fornærmelser. Kan ens saglige og/eller objektive argumenter ikke overbevise modparten om, at "det er mig der har ret", så er det måske tid at gå videre.
Jeg gør lige et forsøg på at rydde lidt ud i diverse posts som intet har at gøre her, men jeg skal henstille til, at "fnidder" i form af person angreb/hentydninger, stopper. Det er enormt anstrengende at se på, og ingen gider se på det.
Er der nogen der er uenige, så skriv endelig til mig, men hold jeres fnidder ude af tråde.
--
https://onsdagssnegl.dk[...]
"Held er noget, der indtræffer, når grundige forberedelser mødes med gunstig lejlighed" #63
Selvfølgelig hopper de med på prisstigningerne.
De ved jo godt at Nvidia sidder på en gigantisk pengetank, som kan udradere AMD alt for hurtigt i en priskrig, men det vil Nvidia ikke, for så er der ingen konkurrence og når der ikke er det, så er der ingen hype og så kommer anti-trust bøderne.
Så ved at AMD ligger sig lige under Nvidia, så får de en bid af kagen.
Og så går AMD efter OEM salg, ved at deres kort ender i mange færdigbyggede PCere.
Og så går de også efter konsolerne.
Nvidia beholder de høje priser, bare for at se om den går igen, hvilket den gør, for markedet er blevet sultet.
Jeg nægter at tro på at der er solgt lige så mange kort i 2000 serien, som der er i 1000 serien, så der sidder mange "sultne" kunder derude.
Og hvis de kan holde priserne oppe ( det kan de o bare vælge at gøre og til sidst må kunderne bøje sig og købe dem ), så kan AMD også holde priserne oppe og så tjener alle parter lidt mere.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB
#65
Er lidt uenig i pointen med, at NVIDIA er grådige og at der er et stort sultent marked derude. Det var der før 2k serien, og det er der også efter. 2000 serien kunne ikke flytte ligeså mange enheder, da den startede længere oppe i markedet, og lod 16x0 om mainstreammarkedet.
Det er æbler og pærer der sammenlignes. Lad os tage et kig på 2070 og 1070 samt 1080 og 2080 fra et transistor perspektiv. 2070 er en chip på 445 mm2 og 1070 er 314 mm2. Dvs. tæt på 50% større chip. Naturligvis er den højere oppe i produktstakken. Samme for 2080 kontra 1080 med 314mm2 kontra 545 mm2. 1080 Ti kommer tættere på 2080 med 470 mm2, men her har vi også en 2080 Ti på 754 mm2.
Men det er jo rent psykologisk i forhold til, at man som person definerer sig som en køber af et prissegment defineret af x060, x070 eller x080 eller måske endda som Ti bruger. De er rykket op i takt med, at chippen er blevet større. Markedet er der for det, og om man som person vil rykke med navnet, det må være op til den enkelte.
Hvis man skal være efter NVIDIA for 2000 serien, så gør det for at bruge så mange transistorer på andet end klassisk gaming ydelse (RT + tensor), og dermed gå imod de historiske forbedringer på pris/ydelseskurven med en ny serie. Men at være efter dem for at af 60, 70 og 80 navnene steg i pris, er lidt ensidet i min optik. For nogen er de to et og samme spørgsmål, men i min optik er det æbler og pærer.
Så hvis A100 kommer i første hug som Geforce kort, ja så får du en ualmindelig dyr startpris for topmodellen. Lad os sige 1799-1999 USD. Det ændrer konkurrence fra AMD ikke på. En A100 model vil have store dele af sit marked udenfor gaming uanset om det hedder Geforce eller ej.
Markedet for færdigbyggede OEM PC'ere med add-in grafikkort er i øvrigt ikke så stort længere. Hvor mange virksomheder køber PC'er med add-in grafikkort udenfor workstation og nu også ML/training? Ingen. På slutbruger niveau er er det gaming, som i langt højere grad end tidligere er et DYI marked, dvs. komponentsalg. Der er vækst i gaming PCer, men det samlede OEM-salg af desktops er ikke hvad det har været. Jeg kender ingen, som har OEM-PC (tætteste er en "butique" model - dvs. etail model fra Komplett/Proshop/Shark etc), hvorimod min generation og mig selv inklusive startede med en OEM-maskine. AMD kan altså ikke læne sig tilbage og leve af det segment. De skal have fat i DIY salget.
--
Mvh. Thomas Christensen.
https://wccftech.com[...]
LTT WAN nævnte samme spec / pris, formentlig fra samme kilde. Om det er pålidelig kilde ved jeg ikke.
--
Gæstebruger, opret dit eget login og få din egen signatur. #67 Hvad er det du håber er fake? prisen eller at det 3slots str.
--
#67
Det håber jeg godt nok også.
--
ASUS Deluxe II(X99) - i7 6850K - H115i -
64Gb TridentZ 3200Mhz (CL14) - AX860i -
512GB M.2 950 Pro - 1TB S-EVO 850
MSI 1080 Gaming X
Er det ikke lige meget om det er 2 eller 3 slots ?
--
#71
Hvis man har plads i kabinettet er det vel ligemeget.
Tænker dog snart at en yderligere påpladsholdning af disse enorme kort bør blive standard.
--
Ryzen 3700X, Rog Strix 2070 Super, Rog Strix B450-f gaming, 16gb TridentZ 3200C16, Corsair RM750X Gold.
Jeg tror 2000-serien vil blive husket for ikke rigtigt at kunne noget rigtigt godt. Selvom det var en forbedring fra 1000-serien kan de knapt nok trække deres egne ambitioner. Ray tracing, tjoh. Hvis du er klar på et drastisk performance drop. 4K, tjoh. Medmindre du spiller AAA-titler, som ofte er der 4K vil give mest mening. 2000-serien lagde an til en ny gaming æra med Ray tracing og 4K, men kunne ikke bære det performance-wise. Lad os håbe det går bedre med 3000-serien, så det ikke bare er en slags preview på det der kommer i fremtiden, men rent faktisk er fremtiden (eller skal vi vente på 4000-serien?)
--
#73
Jeg er helt enig.
RTX 2000 kunne ikke noget særligt, som gjorde at jeg ville bruge så mange penge på det, når jeg allerede har ok FPS i 1440p, med settings på high.
Jeg venter spændt på RTX 3070 og ser hvad prisen er, men forventer at jeg nok lade være, da jeg forventer en alt for høj pris.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB
Hvis nu et 3080 lander omkring de 6-7000kr så upgradere jeg mit 2070super.
--
#74 Mit 2070 kort klarer lige nøjagtigt skærene ift. at kunne levere omkring 55-80 FPS i 1440p med alt på high eller ultra, uden ray tracing. Det er måske i virkeligheden 2000-seriens claim to fame, at det var anstændige 1440p kort, som dog gerne ville være mere end det. Og selv i helt vilde titler som RDR2 klarer 2070 kortet ikke engang de 60 FPS, hvis man smider alt øjenguf på. Så ligger vi vel nærmere omkring de 38-45 FPS. Hvis man sidder med en 144-165hz skærm, så ryger fidusen bare ligesom. Hvis jeg skal opgradere mit kort og min skærm (fra 1440p til 4K eller Ultra wide), bliver det først når kortene præsterer solide +75 FPS i 4K, Ultra i AAA-titler med ray tracing slået til. Og det tror jeg desværre heller ikke 3000-serien kan præstere.
--
Sidst redigeret 23-08-2020 13:58
#76 tro jeg du har ret i, og selv hvis de kunne levere 60fps med alt på high/ultra i 4k i aaa-titlerne så kommer der jo hele tiden ny aaa-spil på marked og så er det jo ikke sikkert det er nok i 2021
--
#76
Glem alt om 4K, de næste par år.
Spillene vil bare blive tungere og tungere.
Medmindre at du er klar på at købe xx80ti/xx90, når det udkommer, så hold dig til 1440p.
Jeg havde samme problem med elendig fps i RDR2.
Jeg fandt en guide til hvilke settings der ikke gav ret meget godt til øjne, men stadig åd ressourcer og slog det fra.
Det hjalp en hel del.
Jeg tænker stadig at et 3070 i starten af 2021 vil være realistisk. Især hvis AMD kommer med noget der kan hamle op med 2080ti eller som kan mere end det.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB
Jeg køber mit RTX 3090 på Fredag regner jeg med.
--
i7 8700k 4,9 ghz
GTX 1080TI
16 gb ram
#78 Jeg så en lignende guide på hardware unboxed og ja, den hjalp ret meget. Omfattende at sætte sig ind i og der skulle lige foretages nogle valg, men da det så kørte, så kørte det også godt. Nej jeg satser heller ikke på 4K gaming endnu. Men jeg glæder mig til at se performance i spil på de nye kort. Under alle omstændigheder bliver det spændende i direkte sammenligning med 2000-kortene. OG ikke mindst AMDs nye når de kommer. Det kunne være vildt, hvis AMD, måske ikke i denne omgang, men måske næste generation er oppe på siden af Nvidia. Urealistisk? Måske, men de har jo overrasket før.
--
#73 Hvorfor skulle de os huske den?
Det et forbrugs objekt på linje med toiletpapir.
Gamers nexus har jo os påvist at marketing divisionerne fra AMD og Nvidia har ingen problemer med at lyve.
Så det betyder sådan set ikke det store, når de ikke bliver indfriet.
Kunderne er ligeglade, også er investorene derfor os ligeglade.
--
Grafikkort oraklet! Oh, and don't mind the vase.
--
Sidst redigeret 24-08-2020 22:40
#81 du er på hardware forum:-) og hvis du læser hele tråden kan du jo se at rigtig mange (dem der er gamle nok) kan husker 3Dfx voodoo kortene..
--
#82 Ja, det er jeg, og jeg har læst de kommentarer.
Du glemmer bare at der tale om nostalgi for tidsperioden, og ikke kortene.
--
Grafikkort oraklet! Oh, and don't mind the vase.
#82 du glemmer at visse typer i denne tråd ikke ser det som nostalgi men en forbrugsvare. De er her kun for at troll og ik en dyt andet ;) håber det nye hol site får en bloker funktion så man kan undgå alle de mindre begavet :P
Men det er sjovt at huske tilbage til den tid med de kort og hvor meget der er sket siden!
--
#84 vil give dig til dels ret meget af det er sikkert nostalgi men tro også mange er os husker dem og det kan man jo også læse i denne tråd pga det kæmpe performens boost man fik (hvis spillene var optimeret til det :-)
--
det er sjovt, for min start som "pc enthusiast" der kørte vi simplere Matrox kort, eller S3..
3d accel. var noget jeg så med Power VR kortene, og senere 3dFX hvor jeg selv fik et RUSH kort, og senere det rigtige Orchid.. hvor Matrox kortene, tror det hed millenium også havde en form for accelerering, som bare ikke grafisk reelt forbedrede noget...
kan da huske at min første WOW faktisk var den første top down GTA hvor der var en 3dfx accelereret version + Quake..
så Nvidia var i mine øjne slet ikke en spiller dengang.
mit første Nvidia kort jeg kan huske var V3400TNT fra ASUS men har nok haft noget andet, for er sikker på mit orchid rightous ikke holdt så lang tid.
--
Sådan en firkantet dims med en masse ben i en sort box, det er hvad jeg har. og den kan sgu trække hjertefri over Lan.
#87 jep Matrox for dem der havde pengene vi andre måtte nøjes med S3:-)
--
#86 Dengang var de jo os væsentligt større end de typiske 30-35% vi blevet vant til nu om dage.
--
Grafikkort oraklet! Oh, and don't mind the vase.
Linkfix:
https://www.pcgamer.com[...]
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400 3080 er spottet med 10gb ram.
--
#92 Det lyder mere rimeligt. Det andet der er jo bare absurd.
--
#92
Det må være til 4K, at der skal 10 gb ram til.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB
#83 og #95 NVIDIA’s choice to switch from using the standard 8-pin PCIe connector ports to a new and compact 12-pin PCIe connector port.
Citing that the reason for this change was so that the card could be fed more power without compromising the integrity of the card’s PCB.
--
Vi får nok en Super serie om et år, siden der ikke er noget kort imellem 3090 og 3080.
Men det da altid noget at få vi får 3 kort annonceringer imod de sædvanlige 2.
--
Grafikkort oraklet! Oh, and don't mind the vase.
4k, 144hz skræm med alt @ medium
--
Sidst redigeret 27-08-2020 01:22
Nå 3080 kommer åbenbart i en 10gb og 20gb version. 10gb skulle launche først og 20gb når amd kommer med bignavi 16gb varm.
--
Det interessante er jo at man i bund og grund kan ramme en "upper limit" med hvor meget det faktisk giver på grafikken, men ydelsesmæssige spring.
På et tidspunkt vil en forbedring antallet af polygoner på et 3D objekt simpelthen ikke kunne ses, da der i høj grad er aftagende skalaafkast:
http://www.extremetech.com[...]
Compute-mæssigt kan det dog give en del hvis man bare propper mere og mere ydelse i dem, men det har jo ikke så meget med spil at gøre.
--
NZXT H510 Elite med: Dual Xeon E5-2670v3, 128GB RAM, GTX 1650 super, custom vandkøling #100 - har ikke så meget indblik i dette, så hvad tænker du evt. ku`sprænge dine nævnte grænser?
Det ku` lyde som om, det helt store kvantespring ude i fremtiden, bliver 4 D/imentionelt over VR/lignende sanseindput? :)
Bare lidt sci/fi tanker efter at ha` siddet det meste af natten i sommerhus med storm og styrtregn samt bælgmørke - og ikke mindst en nethastighed på 0,8Mbs download samt 1,1Mbs supload - goosh.
Kommer fra 1000/1000 + masser af larm og lys døgnet rundt, så skal ikke downloade noget som helst, da jeg kan lave en hel kande kaffe eller 2 imens hehe..
--
Kun de dumme ser på fingeren, når den kloge peger mod stjernerne...
Er der nogen der kan forklare mig hvordan de nye kort kan få mere strøm ved at benytte et 12 pin stik frem for et 8 pin, hvis det sker gennem de samme kabler som vanligt, blot med en 8pin/12pin adapter sat på? For min primitive hjerne virker det lidt som at sætte en 2 stiks-forlængerledning til et 220v kabel og så forvente 440v i kablet.
--
#102 noget med at det 12 pin kan levere med power end et 8 pin kan. Over 400watt.
Der medfølger dog en adaptor til normal strømforsyninger. Der er også snak om at det måske kun er founders edition kortene som har det 12 pin. Vi får det at se i næste uge.
--
https://videocardz.com[...]
Noget kunne tyde på RTX 3060 kommer tidligere end de plejer.
Palit har ihvertfald lige fået registeret et RTX 3060 hos ECC.
--
Grafikkort oraklet! Oh, and don't mind the vase. Så der sku billeder af Zotac's kort.
https://videocardz.com[...]
Intet mindre end 8 forskellige kort.
Derudover ser det ud til at de benytter TSMC 7nm og ikke 8nm fra Samsung.
https://videocardz.com[...]
--
Grafikkort oraklet! Oh, and don't mind the vase.
--
Sidst redigeret 28-08-2020 21:07
#105
Spændende Og interessant læsning. :)
Husker ikke der var nær så mange ‘leaks’ med 2000-serien?
Kan være det er røget i glemmebogen dog. ;)
--
ASUS Deluxe II(X99) - i7 6850K - H115i -
64Gb TridentZ 3200Mhz (CL14) - AX860i -
512GB M.2 950 Pro - 1TB S-EVO 850
MSI 1080 Gaming X
#106 Jeg har ikke talt dem, så det skal jeg ikke kunne sige.
Har overværet 10 lanceringer over årene, så de glider meget sammen for undertegnet.
--
Grafikkort oraklet! Oh, and don't mind the vase.
--
Sidst redigeret 28-08-2020 22:54
Er der nogen som har spekuleret i hvorfor vi ikke har set et Rtx 3090ti i nogen af alle leaks?
Personligt tror jeg Nvidia venter og ser hvad Big Navi har at byde på. Og hvis AMD lancerer et kort, der er hurtigere end Rtx 3090, så antager jeg at vi ser Nvidia lancere et Rtx 3090ti.
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400
#109 Fordi der ikke findes et RTX 3090Ti.
RTX 3090 er den nye top model, som afløser 2080Ti.
--
Grafikkort oraklet! Oh, and don't mind the vase.
#109 amd kommer ikke med noget kort der er hurtigere end 3090. 3080 kommer i en 10 og 20gb udgave. Men de skulle tilbage holde 20gb udgaven, netop for at se hvad big navi 16gb kan.
--
#111 Det gør de antageligvis ikke, omend hverken du eller jeg ved det med sikkerhed. :)
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400
Går ud fra man ikke for noget ud af at købe et 3080 med 20gb frem for et med 10gb hvis man spiller i en opløsning under 4k eller tager jeg fejl?
--
#113
Det er helt rigtigt.
8 GB ram burde være nok til 1440p.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB
Jeg er vild med Zotac's design på de nye rtx 3000 kort *drool*.
--
Better to reign in Hell, than serve in Heaven
320 watt for et RTX 3080.
Det er da ret tydeligt at Nvidia har haft svært ved at holde føringen, ved at holde sig til det sædvanlige strømforbrug, gældende for de respektive modeller.
xx80 plejer jo at ligge omkring 220 watt og xx80ti ( xx90 ) plejer så at ligge omkring 250 watt.
Så man må virkelig håbe at de giver et gigantisk boost, når de mener at de skal have så meget strøm.
Det ville være sørgeligt, hvis et RTX 3070 havde samme FPS som RTX 2080, dog med bedre Ray Tracing og så med samme strømforbrug eller mere, end RTX 2080.
Jeg kan godt se at jeg ikke skal have RTX 3080, da jeg ikke vil have så meget varme i min PC, da det resulterer i støj.
Jeg kan se at der igen bliver lavet xx70 versioner med kun 2 blæsere.
Men nu er det så bare 220 watt på xx70 serien, som det også var tilfældet med 770, som jeg selv havde et af. Og det larmede en hel del mere, end mit 1080 Strix, som har 3 blæsere ( og derfor også har en større køler ).
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB
#110 endnu engang, noget du ik aner en dyt om, med mindre du arbejder hos Nvidia...
--
#116 Men spiller det nogen rolle?
De fleste af os sidder jo alligevel med oversized strømforsyninger, og 320W er jo cirka det samme som et aib 2080Ti trak.
--
Grafikkort oraklet! Oh, and don't mind the vase.
#116 og #118 Det burde spille en rolle og det er for mig en ret bekymrende trend over de sidste generationer fra NVIDIA. Flere Watt er trods alt mere varme og dermed mere støj (og hvis man går op i det højere elregning).
3000 serien opgøres dog i TGP frem for det sædvanlige TDP, hvad det lige betyder og om det er en måde at pynte på tallene på ved jeg ikke, da vi ikke ved hvor mange af disse watt der skal flyttes af kølingen (er hvad jeg forstår forskellen på TDP og TGP som, men ret mig hvis jeg tager fejl).
Hvis vi tager samme segment er det gået således fra 1000 til 3000 serien:
1080: 180W
2080: 215W
2080S: 250W
3080: 320W
(2080TI: 250W)
Det er altså et markant hop i strømforbrug især når 3000 serien er et die shrink fra 12nm til 7nm hvilket alt andet lige skulle betyde lavere strømforbrug for samme ydelse.
Jeg ved godt der er en masse der spiller ind i dette, men at øge strømforbruget så meget ved så markant et die shrink, tja, der må satme være presset meget under hjelmen i form af Tensor og RT cores eller noget tredje.
Hvis vi sammenligner 2080TI og 3080 har de samme antal kerner, TMUs og ROPs, ca. samme mængde ram hvor GDDR6X skulle bruge mindre strøm (11Gb vs 10Gb), ca. samme base clock på coren (1350MHz vs 1410MHz). Dvs de er næsten identiske.
Alligevel bruger 3080, umiddelbart, markant mere strøm end 2080TI. Jeg er virkelig spændt på at se reviews og finde ud af hvorfor dette er tilfældet. Er 3000 serien proppet med meget andet på chippen eller er den mindre effektiv end de tidligere serier?
Dernæst er der så prisen :S Yikes et pris hop vi har taget fra 1070 379$ til 499$ for 2070 og nu 599$ for 3070.
Deres midrange serie 3060 står til at koste 399$ ~ 4000,-!!! Det er fucking galimatias!
De knepper mere eller mindre gaming segmentet udelukkende fordi de kan.
Så kan man tale chipstørrelser og hvad ved jeg herfra og til juleaften men for fanden hvor det efter min mening vanvittigt de kan slippe afsted med det og markedet ikke presser tilbage (= folk køber skidtet alligevel = NVIDIA bliver bekræftet i de ikke gør noget 'forkert').
Levér nu for en gangs skyld AMD!! Fingers crossed :P
--
i7 [email protected]|32GB PC4-25600|MSI Z270 GAMING M6|EVGA 1080TI|Samsung 850 EVO 250GB + 3TB NVMe SSD|Phanteks Enthoo Primo|Vandkølet|Acer XB271HU
--
Sidst redigeret 30-08-2020 21:59
En anden ting:
Jeg kan ikke lade være med at tænke at spændet mellem 3080 (799$) og 3090 (1399$) er alt for stort og de har et 3080TI eller lign de gemmer for at se Big Navi an, men er sikre på at de ikke kan matche 3090.
Så alt efter hvordan Big Navi performer smider de et 3080Ti afsted til ~999$ (hvilket stadigt er latterligt dyrt :P).
Dunno, bare mine tanker :)
--
i7 [email protected]|32GB PC4-25600|MSI Z270 GAMING M6|EVGA 1080TI|Samsung 850 EVO 250GB + 3TB NVMe SSD|Phanteks Enthoo Primo|Vandkølet|Acer XB271HU
--
Sidst redigeret 30-08-2020 22:18
Vi er nogen der er blevet skuffet ang. AMDs grafikkort serier, senest deres Vega 56 & 64. Synes dog at Navi er nogle fine kort, og så har AMD lovet at RDNA2 vil yde ca. dobbelt så godt som de nuværende kort.
Men lad os nu se, bliver spændende!
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400
Phoenix GeForce RTX 3080 and RTX 3090Phoenix GeForce RTX 3090 which will get 5248 CUDA cores, 24GB GDDR6X 19.5 Gbps memory and 350W total graphics power. The RTX 3080 indeed gets 4352 CUDA cores, 10GB GDDR6X 19 Gbps memory and 320W TGP
https://www.guru3d.com[...]
--
#122 Mr. WoLF tak for link der reposter hvad linket i #105 viser.
Dit link skriver tydeligt sitet i #105 er kilden.
Meget brugbart, hvis man ikke forstod informationerne første gang, eller er så senil at man har behov for at få dem gentaget efter 2-3 dage.
--
Gæstebruger, opret dit eget login og få din egen signatur. Altid så sjovt at se dem der kun tør være hård i tonen nå de ikke er lukket ind på deres bruger og kan gemme sig som gæst..
--
#119 Jeg har også haft underlige tanker omkring at der er gået ned i nm men op i strømforbrug.
Må være fake tal som er oplyst, noget galt hos NVIDIA eller det bliver nogle powerhuse af en anden dimission
--
#125
Det er da bare tydeligt, at de intet nyt har under hjelmen til denne serie.
De har fået sig et die shrink, men har haft brug for meget mere ray tracing, og så skal de have et større headroom, så de kan clocke højere op.
Det er underligt, at de har samme antal cores og samme Mhz og så bruger mere strøm. På et die shrink.
Der foregår noget underligt her.
Gad vide om TGP er et mere præcist tal for den optagne effekt og ikke et gummi-tal for køleren designmæssige varmeafledning.
For hvis det er tilfældet, så hilser jeg det velkommen.
Det giver et klart bedre billede af hvor meget varme der skal flyttes væk fra kortet og flyttes ud af kabinettet, samt hvad det koster i penge at bruge.
Med de priser, der er opgivet, så håber jeg sgu at AMD kommer med noget der virkelig rykker, for jeg bruger ikke så mange penge på et 3070 og jeg giver heller ikke 4000 kr for et xx60 serie kort.
Jeg kan huske at GTX 970 kostede cirka 2700 kr og var ret nyudkommet, da jeg gav 1300 kr for mit GTX 770.
Det skulle ikke undre mig, hvis et RTX 3060 kun yder 20% mere end mit GTX 1080.
Og når 3000 serien udkommer, så kan jeg sikkert få 17-1800 kr for mit 1080 og så smide 60% ekstra penge oveni, for at få 20%. Med samme strømforbrug. Nej tak.
Så må mine unger lide med deres 1060 6GB og 1660ti, for jeg skal ikke have noget nyt, til den pris.
Jeg ser frem til midt oktober, hvor der nok er danske priser på det meste.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB
Link til Twitch stream som virker:
https://www.twitch.tv[...]
#127 - Det går galt når du markerer linket med fed :D
--
- Indsæt signatur - Sidder klar med pengepungen :D
Hvad siger i..? Vil i smide
15-18.000,- efter et 3090 kort?
--
Sidst redigeret 01-09-2020 11:37
#129 VIL DU? :O
Vil du så ikke også smide et efter mig? <3
--
#130: Ikke 15k .. det kan jeg simpelthen ikke få mig selv til.. tror jeg :D Finder jeg ud af i aften haha.
Men 10-12k !
Er allerede begyndt at sælge ud af ting i hjemmet for at dække smertegrænsen :P Nogle som står og mangler en dame og herre cykel? :D
--
#119 Det er mere strøm og varme, men det jo ikke noget som vi ikke kan deal med.
Vi har jo haft adskillige 350W++ kort fra både AMD og Nvidia, og det var før alle de fancy køleløsninger som vi har nu.
Derudover i kraft af at SLI og Crossfire praktisk talt er død, så kan du jo lave kortet så stort som overhovedet muligt, da størstedelen ikke skal bruge den ekstra plads.
Så jeg kan ikke se problemet i et tørstigt 3090.
Det er lidt som at kigge på KML på en Lamborghini Aventador.
Det ikke rigtig pointen.
--
Grafikkort oraklet! Oh, and don't mind the vase.
Jeg køber intet før jeg har set udførlige tests og sammenligninger med de eksisterende kort. Jeg ville gerne kunne vente til AMD laver sit udspil. Selvom jeg tror det bliver temmelig underwhelming i forhold til Nvidia.
Team green bruger også bare mange mange flere marketing penge på at skabe absurd meget hype omkring deres produkter. Nvidia hyper det som om det er noget ALLE skal have, men det ender sikkert med kun 10% af dem der hopper med på hype vognen faktisk køber noget.
Oh well, tror jeg griber et brugt 2080 Ti for en slik hvis prisen er rigtig på 3070/3080 :D
--
- Indsæt signatur -
--
Sidst redigeret 01-09-2020 12:10
Jeg fatter personligt ikke at der er købere til disse kort. De priser jeg har set er 400 $ for et 3060 men 1400$ for et 3090. Det giver ingen mening at give 3½ gang så meget for et kort der formentlig kun er 2X så hurtigt i spil der understøtter Raytracing og 50-80% hurtigere i spil uden.
--
Hilsen Thomas
Chefredaktør på HardwareOnline.dk
#134 Thomas
Du er også en gammel gnier ;-)
En lille ting man lige skal have for øje, når man dømmer et modelnavn, ydelse og strømforbrug kontra samme i 1000/2000 serien er chipstørrelsen. Hvis vi får en A100 model, så bruger den svine meget strøm ligesom V100 (Titan V).
Der er allerede nu en vis skepsis overfor kortene, som grundlæggende bunder i konflikten mellem kravene i gaming kontra de mange nye opgaver GPU'en har overtaget udenfor gaming.
Hvis man ser 3090 med 24GB RAM som et gaming kort, så er man forkert på den.
--
Mvh. Thomas Christensen.
Nvidia kommer helt sikkert til at tærske halm på at deres rtx og dlss er forbedret det dobbelte. Det er da også super fedt hvis nu flere spil brugte det. Jeg er nu mest spændt på ren gaming performance. Jeg tror nu ikke at 3090 er mere end 30-40% hurtigere end et 2080ti, det er sikkert ikke engang så højt.
--
Vandkanden hehe er blevet enig med mig selv om MAX 15.000kr :D
--
#134 Top of the line kortene har jeg også svært ved at forstå man køber, da pris vs. performance er absurd. Men lige nu sidder jeg med et 2070 kort og kæmper for at komme over 58 FPS med alt på ultra i Horizon Zero Dawn. Okay det spil er så også sygt ringe optimeret, men det er sgu alligevel temmelig bizart at sidde med det 5. stærkeste kort på mainstream gamingmarkedet og så stadig ikke kunne trække de nyeste spil ordentligt. Så at folk begynder at få julelys i øjnene over bare en lille opgradering, som måske lige kan svinge sig op på 80 FPS forstår jeg godt.
--
Det er i øvrigt ret imponerende, at vi efterhånden er kommet dertil, hvor der er en snart 140 plus tråd omkring en ny Geforce serie, og på kølvandet står Intel overfor den største CPU-lancering i 5 år, og den har end ikke en note her på siden.
Det er der ikke meget "Roooaaaaaar" Tiger Lake over. Times are indeed changing.
--
Mvh. Thomas Christensen.
#140 Nye grafikkort er vel som udgangspunkt bare mere spændende end nye CPU'er. :o)
--
#140: .. og lige for at smide benzin på bålet.. gad vide om der ville være samme effekt, når/hvis AMD lancerer deres kort? ;P I think NOT.
--
#135>>Det er ser selvfølgeligt noget om :-)
Jeg er enig, problemet er lidt at de ændrer segmentet for de enkelte navne fra generation til generation.
#139>>Jeg er enig i at nogle spil er begyndt at trække absurt på kortene, men til de priser skruer jeg heller lidt ned end at give den slags priser for et grafikkort.
--
Hilsen Thomas
Chefredaktør på HardwareOnline.dk
#142 Vandkanden
Det tør jeg godt sætte mine penge på. Afhænger selvsagt af, hvor meget AMD kontra NV og utilfredshed over NVIDIA's fokus udenfor gaming regi der går i den.
Men AMD'en er lidt mere interessant med mine "jeg køber ikke særlig ofte nyt grafikkort og gamer næsten ikke" briller, da AMD ikke har et datacenter-marked de skal forsvare med separate tensor og RT kerner. Så deres eventyr ud i samme regi kommer nok i højere grad til at ske med nye interne instruktioner og mindre fixed function end NVIDIA. Der er simpelthen et stort hul, som er nemt at indhente for AMD i forhold til gaming. Hence hypen omkring RDNA2.
Sagt på gaming sprog: flere transistorer som kan bruges til gaming ydelse, og mindre opfindelse af nye gaming workloads.
--
Mvh. Thomas Christensen.
Håber på, at 3080 lander på ca 8 k så springer jeg nok på sådan et...
--
I5 8600k - Msi Z370 M5 - Asus Strix 1080ti - 16 GB 3200 MHz - Samsung 960 evo - Intel 600p - Phanteks Enthoo Evolv - Kraken X62 - Asus PG279Q
#145
Håber jeg sgu ikke. Men jeg er nok også optimist. :)
Det skulle ikke komme bag på mig, hvis Nvidia forsøgte med 9000,-
Men det finder vi ud af om en 1t og 35min. ;)
--
ASUS Deluxe II(X99) - i7 6850K - H115i -
64Gb TridentZ 3200Mhz (CL14) - AX860i -
512GB M.2 950 Pro - 1TB S-EVO 850
MSI 1080 Gaming X
Lad os nu se mht. priserne. Vil ikke undre mig at de leaker høje priser, for så at sætte dem til samme niveau som 2000 serien ved launch, så alle synes det er mega billigt og køber en masse Nvidia kort før AMD kommer med deres GPU'er.
Personligt venter jeg til AMD også er på banen. Af hvad rygterne siger så skulle det blive ret fedt denne gang.
--
Ryzen 7 3700X \\ ASUS ROG Strix X570-F Gaming \\ EVGA RTX 2070 XC Gaming Black \\ 2x8GB Patriot Viper Steel 3600MHz 14-14-14-28
Hvis et 3090 kan være i mit Ncase V5 vil jeg reservere en plads til det.. Må så se, om jeg kan få vand på det efterfølgende..
--
Kun de dumme ser på fingeren, når den kloge peger mod stjernerne...
ja,vi skal havde noget pris krig :D
--
Vandkølet I7 2600k@5+GHZ asus p67 maximus iv extreme
4x4GB
ROG STRIX-GTX1070-O8G-GAMING
*147 "næste gang" AMD kommer med deres nye kort så... Og så ender det med én stor skuffelse, som det plejer... Har virkelig ikke den store tiltro, at AMD kommer med noget, som kan hamle op med Nvidias kort...
--
I5 8600k - Msi Z370 M5 - Asus Strix 1080ti - 16 GB 3200 MHz - Samsung 960 evo - Intel 600p - Phanteks Enthoo Evolv - Kraken X62 - Asus PG279Q
ETA: 10 MIN !! Hyyyyype
--
Så må jeg se om far her skal have et RTX 3090 eller må nøjes med RTX 3080. Lad os se om det er Nvidia eller Ngreedia.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
"? Jeg kan huske da jeg købte min første og verdens første rigtige GPU, et GeForce 256 men kan ikke huske om det var til 2600, 3200 eller 3600
mener det var 3200 kr. "
voodoo banchee? havde jeg før geforce 256.
så det vidst bare en lille løgn du fyre der.
--
Gæstebruger, opret dit eget login og få din egen signatur. kanon priser for de nye RTX godt jeg fik solgt mit 2070 super..haha - 3080 here I come
--
Gæstebruger, opret dit eget login og få din egen signatur. Fuck nogen fede priser. Jeg skal have er 3080. Fra 700$ og 3070 fra 500$. Den havde jeg ikke set komme.
--
Ja hvem havde forudset det??? Jeg skal også opgradere, farvel til mit 980 ti!
--
Back in my days the video games were more about the game than the video
Tydeligt at Nvidia er rad for hvad AMD bringer på banen med deres RDNA2 - både hvad ydelse og pris. Derfor ser vi så relative lave priser.
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400
Den launch vil jeg gerne se AMD slå!
--
- Sometimes the only sane answer to an insane world is insanity
Hvor dælen kan man købe skidtet?
--
Er venstrehåndet inde i hovedet.
Tror sgu mit dankort bryder i brand hvis jeg køber 3090. Jeg må "nøjes" med 3080.
--
Back in my days the video games were more about the game than the video
Den launch er jo helt crazy! Hvordan kan man nogensinde slå den, det bliver ikke amd til at slå nvidia i år
--
AMD3600|GTX1070TI|16GB3200MHz
AMD2700X|GTX1070|16GB3200MHz
AMD3300X|GTX980|16GB3200MHz
Det bliver vist en 3080 herfra, hvis den lovede performance holder.
Havde ikke lige set de priser komme. Positiv overraskelse
--
Quotation, n: The act of repeating erroneously the words of another.Ambrose Bierce (1842 - 1914), The Devil's Dictionary
hmm plejer man ikke at kunne købe det via sitet allerede nu? altså forudbestille ?
--
Hvor meget vil I gætte på den danske pris på RTX 3080 og 3070 lander på?
Men hold da op nogle dejlige priser - det havde jeg ærlig talt ikke set komme.
--
Everyone becomes a story, be a good story.
mit dankort er i brand efter et 3090 :D
--
#166 Det som 2070 super og 2080 super ligger på nu. Give or take.
--
Back in my days the video games were more about the game than the video
Danske priser burde være ca:
3070 = 4000 kr
3080 = 5500 kr
3090 = 11600 kr
Men jeg tror bare ikke på det. Har en fornemmelse der kommer yderlige Trump told på
--
Tja jeg har ellerede solgt mit GTX 1080 TI. Så velkommen RTX 3080 som minimum. Ved ikke helt i nu med RTX 3090. Det er jo en fordobling af prisen og 300 USD mere end RTX 2080 TI. Venter til de enelige reviews kommer før jeg bestemmer mig helt. Men risen på 3070/3080 ser ikke så dårlig ud, men 3090 er jeg lidt i tvivl om.
Jeg gad dog godt at Nvidia lige hade smidt 12 GB vram på 3080. Det synes jeg hade været mere tilpas.
Undre mig også over hvorfor nvidia ikke oplyste ting som hvor mange Cuda cores, tensor cores og TDP disse kort får. Ved godt det er leaked men og få en officelt bekræftelse hade været rart.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
3090 SKAL BESTILLEEESSSSSS NUUUUUUU!!! :D
--
Nu må vi se hvad de danske priser ender på i sidste ende, men umiddelbart ser det ud som om brugtmarkedet af 1000 og 2000-serien lige er blevet skudt i smadder ;-) Shit der må sidde nogle 2080ti-ejere som ville ønske de havde fået solgt inden denne launch. Hvad ryger brugtprisen på dem ned på nu de er ringere end et kort til 700 $?
--
#172 haha ja, snooze you lose :P Har ikke ondt af dem. De vidste i lang tid der ville komme noget nyt, som med højst sandsynlighed ville blive bedre
--
Der er blevet solgt masser af 2080 Ti her på siden de seneste måneder for +7k. Av for katten.
--
Er venstrehåndet inde i hovedet.
#170 Du har forhåbentlig ikke tænkt dig at kombinere din i7 980x med et af de kommende Nvidia GPU'er? :P
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400
#169 ahhh rolig nu....plejer man ikke at gange dollar prisen med 10 for at ramme danske priser?
--
I5 8600k - Msi Z370 M5 - Asus Strix 1080ti - 16 GB 3200 MHz - Samsung 960 evo - Intel 600p - Phanteks Enthoo Evolv - Kraken X62 - Asus PG279Q
3 uger næsten yikes
--
1 + 1 = 2
Play the map and map the play?
Muligvis for tidligt at spørge, men har et 2060 Super som jeg skal af med og er helt med på at prisen er markant mindre nu, men hvad tror folk en rimelig brugtpris vil være? Både på det, men også på de andre 20XX modeller?
--
-
#172 Jep smadert indeed. Derfor solgte jeg mit GTX 1080 TI for en lille uges tid siden inden priser ville rasle ned og det ser ud til at det var et klogt træk. Lige nu køre jeg lige på dampene med et GTX 1060, ind til RTX 3080 eller måske RTX 3090 kan føres ud i livet.
#175 Jo for den da. RTX 3090 på X58. Fed kombo. PCIe gen 2 med et PCIe gen 4 kort og masser af CPU bottleneck. Lovely. Nej min plan er også at skal have et AMD Zen 3 baseret system og gerne Aftageren for Ryzen 9 3950X.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
--
Sidst redigeret 01-09-2020 18:57
Husk nu også lige at vente på benchmarks og ikke kun bruge nvidias egen marketing slide til at bedømme hvor hurtig kortene er. Jeg håber at 3070 er lige så hurtig som en 2080ti, alt andet ville virkelig være en skuffelse men det kræver stadig lige noget 3rd parrty testing før det kan siges med sikkerhed.
--
#177
I starten ja. Men falder så når efterspørgsmål falder og udbudet bliver større til 8.5 x msrp. eller mindre.
#179 rip, men tror stadig godt at du kan sælge den for 1800 til 2000 kr på den dba, hvis du heldigt og hardware siderne lader de gamle kort priser kørende til 17. september. Som de højst sandsynligt vil eller de giver 20-30 % rabat udsalg. Skader ikke at forsøge? du mister meget værdi hvis det ikke lykkedes.
--
Hvorfor klør kvinder sig i øjnene,
når de vågner om morgenen?
Fordi de ingen nosser har :O
jeg vil godt gi 1500kr. +- for et 2060 super :-) hit me
--
What the actual F.
RTX 3090 RTX 3080 RTX 3070
NVIDIA CUDA-kerner 10496 8704 5888
Leaked tal cuda core tal ?5248 4352 2944
Er de leaked cuda core antal helt fra den eller med regner Nvidia Tensor og ray tracing core med i samlet cuda core antal. Eller er Ampere et langt større bæst end jeg troede hvor det rent faktisk kun er cuda core med regnet. Bare til sammen ligning så har 2080 TI 4350 cuda cores. Med de antal cuda cores er RTX 3070 hurtigere end RTX 2080 TI.
Hvis det passer med cuda core antal. Så har vi i sandhed med nogle bæster af GPU´er at gøre.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
--
Sidst redigeret 01-09-2020 19:12
#177: 700$ x dagens kurs på 6.2 kr ca = 4346 kr + 25% moms (* 1.25) = 5432 kr.
Priserne vil dog unægteligt været pustet op ved release, som de altidens. Og når det er AIB partners grafikkort, så kommer der sikkert lidt mere oveni, ca. 500-1500 kr tænker jeg, alt afhængig af hvor meget bling man vil have.
--
#150+163 De kan ikke finde ud af deres drivers, eller slå Nvidia med en bedre node.
Så ja, det safe to say at RDNA 2 er dødfødt.
Men det er fandme vildt hvis RTX 3070 er 2080Ti performance.
Det har vi jo ikke set siden Pascal's lancering i 2016(980Ti-1070).
--
Grafikkort oraklet! Oh, and don't mind the vase.
Priserne er slet ikke ringe, men jeg havde godt nok håbet på at 3060 var lanceret også. Så når den ikke er med nu må vi forvente at den først kommer om nogle måneder.
--
Hilsen Thomas
Chefredaktør på HardwareOnline.dk
#177
https://www1.oanda.com[...]
Dollars kursen er i frit fald, hvis det forsætter sådan som efter finanskrisen så kommer dollar ned omkring en spænd imellem 480 til 550 vs idag 625 (ca 701 i marts). Valuta spekulation er mega svært at spekulerer i, men de printer sindsygt mange penge. og en helvedes masser andre ting der sker, som jeg ikke vil kede dig/jer med.
Så vi kunne se lidt lavere priser når dollaren falder.
--
Hvorfor klør kvinder sig i øjnene,
når de vågner om morgenen?
Fordi de ingen nosser har :O
--
Sidst redigeret 01-09-2020 19:18
Elsker at han kalder 3090 for: bfgpu :-)
--
sjovt at se alle de rtx kort som er blevet sat tilsalg idag på dba
--
#190: Hehe er der et godt tilbud?
--
ikke noget jeg ville købe, men jeg er også en tålmodig person ;)
--
#190 Ja, og det ender bare dårligt for dem.
Brugt markedet herhjemme er jo så småt, så de ender med overflyde markedet.
Hvilket så tvinger priserne ned..
Men godt for brugt køberne.
--
Grafikkort oraklet! Oh, and don't mind the vase.
Hvornår kommer der benchmarks?
--
Digital Foundry - Nvidia GeForce RTX 3080 Early Look: Ampere Architecture Performance - Hands-On!
https://youtu.be[...]
--
Sidst redigeret 01-09-2020 20:18
Jeg har set at 3080 skal koste 649 GBP i England. Kan det bare regnes lige over til danske, og forvente t det koster omkring 5k?
--
Taget fra Nvidias side:
GEFORCE RTX 3090
PRISER FRA 12.000,00 KR
Founders Edition
12.000,00 kr
GEFORCE RTX 3080
PRISER FRA 5.650,00 KR
Founders Edition
5.650,00 kr
GEFORCE RTX 3070
PRISER FRA 4.050,00 KR
Founders Edition
4.050,00 kr
--
#77 Nu skriver de om 3080: Designed for 4K it's up to 2X faster than 2080 and consistently delivers more than 60FPS at 4K, with RTX ON.
Hvis det holder stik med AAA-titler i ultra, til den pris de annocerede, så er det langt over forventningerne. Men nu må vi se både endelig pris og performance i praksis.
--
Hvordan fan kan der være så stor en pris forskel fra 3080 til 3090?! :O
--
#200 3090 er Titan erstatningen - det er faktisk en lille prisforskel i den kontekst.
--
Ja, så er et 2080ti jo ikke mere værd end 2500 kr, når det 3070 til 4000 kr er bedre.
--
Gæstebruger, opret dit eget login og få din egen signatur. #202 Præcis.
https://www.hardwareonline.dk[...]
Og et 1080ti er vel omkring 1200 kr. værd.
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400 #203
Nok lidt for tideligt af sige. Hvad så med kort længere nede af rangstigen! Skal de foræres væk :-D ? Lad os se rigtige bench. Men brugt priser er vel også ret irellevant medmindre man skifter konstant.
--
#200, det er for de rige der skal have noget at bruge deres penge på, og for de fattigfine at have noget at stræbe efter.
--
Activate Windows
Go to Settings to activate Windows
#195 Er du sindsyg et performance uplift!
--
Grafikkort oraklet! Oh, and don't mind the vase.
Hvilke producenter giver mere end 2 års garanti? Er FE udgaverne gode eller er custon altid bedre og billigere?
--
#197+198 tak!
3080 here I come! :D
--
Så godt at mit 2080ti røg ud af døren for 14 dage siden ;D
--
i9 9900K - MAXIMUS XI FORMULA Z390 - 32 GB RAM - ZOTAC 2080TI AMP
er et 3080 80-100% kraftigere end 2080 i gaming eller er det bare ray tracing?
--
Hedder sebastian og Leder efter en Gtx 780 eller r9 290 :)
10496 Cuda kerner til 3090.
Hvis det er ren cuda cores har de seneste leaks godt nok været langt fra (også på 3070 og 3080).
Måske nVidia har "bedt" om disse leaks med lavere core count så når de rigtige tal kom ud blev folk blæst bag over (hvilket jeg er set i forhold til prisen).
--
Projekt RAW v2.0; Custom ITX kabinet i 3mm aluminium
http://hwt.dk[...] #210 Det ser ud til at det er i normal gaming performance.
Så ja, det fucking sindsygt.. Tjek digital's foundry video med Doom eternal.
--
Grafikkort oraklet! Oh, and don't mind the vase.
Mon ikke folkene hos AMD lige har fået kaffen galt i halsen :-)
--
I5 8600k - Msi Z370 M5 - Asus Strix 1080ti - 16 GB 3200 MHz - Samsung 960 evo - Intel 600p - Phanteks Enthoo Evolv - Kraken X62 - Asus PG279Q
Nye RTx kommer til at bruge strøm, og netop der vil RDNA2 komme tilgode, pga det kan scales op og ned......vent og se.
Der er sgu nok en grund til både ps5 og xbox bruger rdna2.
--
#212 lækkert
--
Hedder sebastian og Leder efter en Gtx 780 eller r9 290 :)
JaysTwoCents: You know what that means? That means we could have a 3060 card that is the same speed as a 2080ti or a 2080S for less than 500$
https://www.youtube.com[...]
--
#214 De vinder vidst by default, da Nvidia har sagt at margins var for lave til de gad konsoller.
De levere dog gpu til den Nintendo switch, så kan være de har budt på opgaven med ps5 og xbox.
Vi har dog intet hørt i den stil, så tvivler på det sket.
Men RDNA 2 er nok dødfødt hvis RTX 3070 er så kraftfuldt som et 2080Ti.
Det er jo et sindsyg spring på bare en generation.
#216
Det bliver lavere end det.
Nok nærmere de 400 dollar, eller prisen på et RX 5700XT.
--
Grafikkort oraklet! Oh, and don't mind the vase.
--
Sidst redigeret 01-09-2020 21:55
Så jeg tænker jeg har mit næste setup planlagt nu.
AMD Zen 3 Ryzen 9 4950X maybe? og RTX 3080. Med tanke på #195 link tænker jeg RTX 3080 bliver rigelig kraftig til mit brug og kommer fra et GTX 1080 TI, som ikke just er sløvt kort i sig selv, det ligger lige mellem RTX 2070 Super og RTX 2080 super.
Selv om RTX 3090 uden tvivl bliver et monster, så kan jeg bare ikke rigtig retfærdig gøre en pris lap på ca. 12000 kr. eller det dobbelte RTX 3080.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
Hopper også på 3080, smider ikke 12k for et kort, selv om jeg kommer fra 2080 Ti
--
Er venstrehåndet inde i hovedet.
--
Sidst redigeret 01-09-2020 22:10
Hnnnnng, feriepenge og 3090......tror jeg venter til 4090 :D
--
Evolv mATX | ax860i | 9900k | 4x8gb trident z rgb 3200mhz | Asus z390m tuf | RTX 2080 ti | 1tb evo 970 | 1tb crucial mx500 | Acer X34A
Bliver spændende at se, hvad Asus 3080 strix og MSI 3080 Gaming X kommer til at koste?
--
I5 8600k - Msi Z370 M5 - Asus Strix 1080ti - 16 GB 3200 MHz - Samsung 960 evo - Intel 600p - Phanteks Enthoo Evolv - Kraken X62 - Asus PG279Q
Så er det lige hvordan fe køleren er og om lagerbeholdning er god
--
De her kraftige kort kommer til at ramme AMD cpuerne når vi taler gaming.
Før var det primært i 1080p med et 2080 TI at man så forskellen på Intel og AMD i gaming.
Med så meget kraftigere grafikkort, vil forskellen i også 1440p begynde at blive tydeligere, da det nok ikke længere kun er i 1080p at man bliver limited af cpuen.
Det bliver spændende at se hvor meget mere AMD falder bagud i forhold til 10700k/10900k i 1440p opløsningen.
--
Gæstebruger, opret dit eget login og få din egen signatur. Nogen der har en ide om hvad der ville gå "bedst" til 3080 ? I9-9900k eller i9-10900k. Der er forholdsvis høj merpris i forskellen.
--
Har vi en ide om en 750w PSU er nok til et 3080? :P
--
#224
Det vil 10900K.
10700K slår en 9900K med en anelse.
--
Gæstebruger, opret dit eget login og få din egen signatur. #222
+1
Jeg er også spændt på at se hvordan deres køling performance er, håber det er forbedret.
--
Everyone becomes a story, be a good story.
#225
Asus anbefaler minimum en 750 Watt til RTX 30xx serien i deres press release.
3x 8pin PCIe på Strix serien af RTX 30xx
400 watt forbrug på kortet.
https://rog.asus.com[...]
--
Gæstebruger, opret dit eget login og få din egen signatur. #1
nej
kort foer geforce256 var simple pixels fillrate enheder dvs de spytte blot texture ud.
opsaettel af polygoner og andet 3d var stadigvaek lavet paa cpu'en
med gefroce 256 fik ve hvad der blev kadlet Tnl elere transform and lighting hvilket betoed at selve 3d modelernes polygoner blev render paa graffikkort ligesaa
#2
ikke helt korrekt
de var en hel del forskelle paa opgavende som graffikort overtoeg med geforce kortene kornte 3d kort foer geforce som skrevet ovene for.
Der var en helt teknisk grund til navnet
#3
ikke helt korrekt
MDA CDA er ikke noget med 3dfx korten at goere og er betegnelser der er langt foer disse kom paa markedet
MDA og CDA omhandler "grafikkort" som udelukkende var framebuffers og en ramdac storset. dvs der var ikke noget 3d acceleration. Nogle kort havde lidt windows 2d acceleration paa sig
3dfx voodoo og TNT kortene havde texture acceleration i 3d. og altsaa ikke det samme som det du skriver
Matrox Mystique og Matrox Millennium er ikke fuld ud 3d og slet ikke paa hoejde med de acceleration muligheder som der var med TNT kortne 3df eller geforce 256
Selv mange simpel filerings mulighed ( bland billiniaer) som selv tidliget TNT kort havde var ikke der ikke support paa paa matrox mystique
Saa matrox millinium/mystique klassen hoere til foer klassen af kort der kom foer gefoce 256. Naeppe "fulde enheder med 3d"
De heder ikke en GPU fordi det ren tekkisk slet ikke bar taet paa de functioner som en gpu har
Please vaer paapaselige med at sprede misinformation
--
Sven Bent - Dr. Diagnostic
www.TechCenter.[...] - Home of Project Mercury #8
Der er NTFS komprimering saa det bruges skam mange stedet
ntfs komprimering er mere optimalt for disk hastighed end de gamle stacker metoder da
ntfs komprim virker ved at kigge over en block der er 4 cluster tror jeg det er.
hvis dne kan komprimering den block til ned unde 3 cluster blive den gemt komprieret. hvis ikke bliver den block gemt raat da der alligevel ikke er spare noget
I Windows 95 kunne du ogsaa komprimere ram men det var sjaeldent et godt resultat quaterdeck maxmem havde tools til dette
Sjovt nok er denne technologi nu tilbage i windows 10 helt indbygget
--
Sven Bent - Dr. Diagnostic
www.TechCenter.[...] - Home of Project Mercury #12
tnt1/2 + matrox voodoo 2 12mb kort
det sjove var at der var storset ingen forskekel paa 8mb og 12mb kortende da de fleste spil slet ikke havde brug for de 4 extra mb texture ram
voodoo kort er ogsaa special paa sin maade at en hvis dle af RAM'ev var reserver til frembuffer
voodoo = 2 mb framebuffer + 2mb texture cache
voodoo2 = 4mb framebuffers + 4 eller 8mb texture cache
Hvor tnt korten havde total flydene omraade saa var der ikke blevet brugt af en framebuffer kunne bruges til texture cache
--
Sven Bent - Dr. Diagnostic
www.TechCenter.[...] - Home of Project Mercury #229 jeg tror du har misforstået mine indlæg.
nVidia opfandt GPU terminologien.
Du har ret i at de gamle kort kun var framebuffers men blev kaldt grafikkort af alle.
Jeg har på intet tidspunkt nævnt noget om 3dfx kortene, selvom du skriver jeg skrev om dem. Prøv at læs igen ;)
Hvad jeg mente med Matrox kortene som "fulde enheder" var at de ikke brugte addon kort til 3D men at det sad på et enkelt kort.
Jeg har ikke spredt misinformation efter egen mening :)
--
Activate Windows
Go to Settings to activate Windows
@20
geforce kortende var banebrydende i det de accellerations en storre del af byrden
problmmet var at DX ikke understoettede TnL aka polygon accleration spill spil koder i DX kunen ikke udnytte det.
OpenGL spil havde dog support for det fordi polygon acceleration havde vare brug i lang tid inde fonr professionelt brug.
id udgave specielle settings du kunn bruge i quake3 til at foroege polygon antallet og faa lidt bedre graffikort som men eller ikke ville kunne med et TNT kort
lidt ligesom da S3 savage bragte S3tc komprimering paa banene. igen kom der special udgave ud til quake3 med nue hoej kvalitest texture som kun kunne bruge af folk med S3 kort da det eller ville suge for meget ram
--
Sven Bent - Dr. Diagnostic
www.TechCenter.[...] - Home of Project Mercury #219
Tror du skal forvente en slat mere end de 12k. 80’serien plejer da ikke at ligge under 6500,- på udgivelsesdagen hvis jeg husker rigtigt? 3090 er dobbelt op i pris i dollars. Tænker 13-14.000,- er mere realistisk.
--
ASUS Deluxe II(X99) - i7 6850K - H115i -
64Gb TridentZ 3200Mhz (CL14) - AX860i -
512GB M.2 950 Pro - 1TB S-EVO 850
MSI 1080 Gaming X
699 dollars og samme start pris som non TI 2080 så .. er det vist på tide at skifte 1080ti´eren ud.
stadig lidt en underlig test digital foundry laver, med locked til 60fps, og relative performance, og hans konklusion at man lige skal vente på bredere tests af kortet, før man tager springet..
virker som om han ikke helt selv har været 100% ok på test metodikken.
--
Sådan en firkantet dims med en masse ben i en sort box, det er hvad jeg har. og den kan sgu trække hjertefri over Lan.
#235. De efterfølgende teste med %-forskellen er ikke låst ved 60 FPS. Han må ikke vise FPS-forskellen så derfor er han nødt til at vise forskellen i %. Jeg synes faktisk det illustrerer forskellen mellem kortene rigtig fint. Han siger desuden at han ikke ved hvad der bliver sagt til nVidias reveal igår (hans er optaget forud) så derfor er der mange ting han ikke kan gå i dybden med.
Det er klart, at der skal flere tests og rigtige priser (ikke bare MSRP) til før vi kan sige med sikkerhed, at 3000-serien er en god deal. Som tingene ser ud nu ser det dog rigtig lovende ud! :-)
--
Karl, schieß dem fenster!
Kan man udnytte et 3080 fuldt ud med pcie 3.0? Eller skal man have nyt mobo?
--
#237 Umiddelbart vil jeg mene, at det ligger på grænsen af om der er nok båndbredde. Prøv at kigge på Youtube, her har Hardware Unboxed taget emnet op for kort tid siden.
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400
Ved ikke om det er blevet lagt ud i tråden, men så får i den dog bare igen. ;)
Danske priser fra Nvidia (FE):
3070: 4050,- kr.
3080: 5650,- kr.
3090: 12.000,- kr.
https://www.nvidia.com[...]
Ganske fornuftige priser.
--
ASUS Deluxe II(X99) - i7 6850K - H115i -
64Gb TridentZ 3200Mhz (CL14) - AX860i -
512GB M.2 950 Pro - 1TB S-EVO 850
MSI 1080 Gaming X Spørgsmål da jeg ikke lige kan finde noget om det men måske en her har et godt svar. Jeg kom til at tænke tilbage på 2080 vs 1080ti, hvor 2080 var hurtigere i 1080p og derfor spået til at være hurtigere end 1080ti.. men når det kom til 1440p så vandt 1080ti nærmest. Netop pågrund memory bus hastigheden var en 256bit på 2080 og 352 på 1080ti. Det var vidst først noget vi så da det kom ud til test hos diverse sites
Så jeg kan ikke lade hver med at tænke at alt dette er for godt til at være sandt? 3070 har en langsommere memory bus end 2080ti, så når vi taler om 1440/4k, hvor hurtig vil den så reelt være? Men selvom 3070 eksempelvis kun er 5% hurtigere generelt end 2080ti, er det stadigvæk flot + en flot pris til den ydelse :)
Ret mig endelig, jeg husker sikkert forkert. Jeg ser hvertfald frem til at kortene kommer i review og vi kan se hvad de i virkeligheden kan :)
--
#236 LARMY85
Lille krølle på halen. Det er ikke fordi, at det han kun må vise procenttal. Det er fordi han kun må vise NVIDIA tal, og de kommer i procent af åbenlyse årsager.
#237 Wildmann
Medmindre du går op i syntetiske benchmarks som kun er lavet til at vise båndbredde via PCI-e, så nej. Det har absolut ingen betydning til gaming. PCIe 4.0 x16 slots kan fortsat kun levere 75 watt, så der bør heller ikke være en begrænsning der. Er dog sikker på, at der nok er en Youtuber som nok skal finde en eller anden vinkel, hvor vedkommende påstår det er et issue.
#241 AjsCold
Det er ikke bus vidden der er interessant, men den båndbredde der er til rådighed. Her er der en relativ lille forskel i båndbredde imellem 2080 og 1080 Ti. Forskellen ligger derimod i højere grad i deres texture throughput, som desuden er båndbredde intensiv. Så når du kigger på 3070 og 256-bit kontra 1080 Ti og 384-bit, så bliver spørgsmålet ikke bare besvaret i, hvor bred RAM bussen er, men hvor meget throughtput den har i de forskellige kategorier (herunder RAM båndbredde) kontra de krav spillet stiller.
Ved godt det ikke er et endegyldigt svar på dit spørgsmål. Men svaret ligger et andet sted end det du kigger på.
--
Mvh. Thomas Christensen.
Kan jo ikke lade vær med at tænke om man skulle sælge og skifte til 3080, men når jeg så kigger på mine skærme der begge stadig er 1080p, så giver det vidst ikke meget mening at skifte mit 2070 Super ud der er lidt over et år gammelt. Jeg har ingen planer om at skifte til 4K i den nærmeste fremtid.
Ville nok have en lidt sur smag i munden havde jeg givet 10.000+ for et 2080 ti, men nu holdt jeg mig i det mindste til et 2070 Super til 4000 :)
--
AIB priser (UK).
https://wccftech.com[...]
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400 #242 så beholder jeg mit 450 :D
--
#242. Du har ret - jeg så lige hans video igen hvor han ganske rigtigt nævner det du skriver :-)
--
Karl, schieß dem fenster!
#247 sweet. Lur mig om vi så ikke også ser et rtx 3080 ti med 16 gb eller 20 GB vran på et tidspunkt.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
#248 Mener at have læst på videocardz at der gik rygter om en 3080 med 20gb på et tidspunkt. Det kunne jo være den er forbeholdt en 3080ti/super
--
Sidst redigeret 02-09-2020 14:14
#249 ja det er det jeg tænker. Et rtx 3080 ti med 20 GB vram ville lukke et hul mellem 3080 og rtx 3090. Også pris mæssigt er der plads til 3080 TI vil jeg mene. Der er tråsalt et stort gab mellem 3080 og 3090.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
Selvfølgelig kommer der også et 3080ti/Super, med 16-20gb vram. Det er jeg slet ikke i tvivl om.
--
# 251 men hvornår? :-)
--
I5 8600k - Msi Z370 M5 - Asus Strix 1080ti - 16 GB 3200 MHz - Samsung 960 evo - Intel 600p - Phanteks Enthoo Evolv - Kraken X62 - Asus PG279Q
Jeg har godt nok ikke lige læst 253 indlæg for det er fanme mange :D
3Dfx kom først, og derefter kom nVidia med deres TNT som så værre ud end 3Dfx. AMD lavede slet ikke 3D grafikkort dengang. Kun CPU'er, og senere købte AMD så ATi som var egentlig mere interesseret i video-redigering dengang.
Nu vil alle mainstream producenter lave 3D grafikkort. Hvem har så overtaget ATi's HQ video-redigerings interesser?
3090? 4090 og 5090 har vi inden 2030 er jeg ret sikker på.
--
Status på B/W-listen: 2+/0-
--
Sidst redigeret 02-09-2020 16:53
Jeg er virkelig spillet om jeg skal gå all in og tá et 3090 da jeg spiller i 3440x1440 og 3090 står til at kunne klare 8k med 60fps? Fremtidssikret much I guess med et 3090? Hmmm..
--
#256 Tænker at et 3080 sagtens burde kunne klare den opløsning et stykke tid endnu.
--
#256 håber ikke 3090 er et "Krav" for den opløsning, da jeg selv har 3080 i tankerne til samme opløsning D:
--
#259
Den video er bare universel hahaha
--
Everyone becomes a story, be a good story.
#256
https://www.youtube.com[...]
Du behøver slet ikke RTX 3090.
Se lige hvad et RTX 3080 kan i 4K med alt på max.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB Nu spørger nooben her lige... Jeg skal have opgraderet mit grafikkort og jeg havde længe tænkt på at købe et 2080 eller lignende. Men vil det ikke være smartest at sparke penge efter et 3080?
Jeg spiller lige nu med et 1060 6gb, så uanset hvad, burde det være en kæmpe forbedring.
--
Mvh. elalso
#263 Jo. Hvis pengene er til det, får du et kæmpe spark opad :D
Jeg skal selv fra 1070 til 3080
--
#264 pengene er der... Jeg får et kæmpe spark opad ja, men gør jeg også det i forskellen fra 2080 til 3080?
--
Mvh. elalso
spiller selv i 3440*1440 med HDR slået til.
havde et 2080ti indtil for nogle dage siden, og med det kunne jeg ikke køre mere end 60-80 fps i AAA spil med alt på max (HDR er rimelig krævende).
Har en 200 hz skærm, så en 3080 vil IKKE være nok til at køre 3440*1440.
Derfor skal jeg også ud og have mig en 3090 :D
--
#265. 3080 er ca dobbelt så god som en 2080. Så du burde kunne mære forskel ;)
--
Dobbeltpost
--
Sidst redigeret 03-09-2020 16:33
Vil en rtx 3080 være for meget til 1440p 144hz, med en 10700k?
--
Gæstebruger, opret dit eget login og få din egen signatur. #269 det er svært at sige precis. Men selv hvis rtx 3080 bliver lidt overkill nu, så er det nu også rart at have noget overskud på gpu siden til fremtidige spil som uden tvivl bliver mere krævende.
Selvfølgelig spiller du bare counter strike, så er rtx 3080 overkill. Spiller du der i mod spil som metro exodus som virkelig trækker tænder ud når du skruer op for settiings eller Microsoft flight simulator det kræver virkelig noget gpu power. Så synes jeg ikke RTX 3080 er overkill.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
--
Sidst redigeret 03-09-2020 16:56
#270
Spiller Warzone...så er 3080 nok bedre køb end en brugt 2080ti til de magiske 144fps i 1440p;)
--
Gæstebruger, opret dit eget login og få din egen signatur. #271 med mindre du kan finde et rtx 2080 ti til max 2500-3000 kr. Vil jeg slet ikke overveje det kort. Hverken som nyt eller brugt.
Rtx 3080 er en bedre investering.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
#266 Jeg tror der er mange der bare sidder og skal have de her nye kort, fordi de er så vilde, uden at tænke over om de har en skærm der passer til, eller hvad prisen er på en skærm der passer til. Umiddelbart virker det åndssvagt at købe en 4K 60hz skærm til et 3070 eller 3080 kort, især hvis man i forvejen kommer fra f.eks. en 1440p 144hz skærm. Ift gaming vil det være en halv opgradering og en halv nedgradering og vil sandsynligvis FØLES ringere, fordi man går ned i hz, mens det vil være svært for mange at se forskellen på 2K og 4K i mange titler.
Skal man op i en 4K 144hz skærm taler vi pludselig 6500-7000,- kr for en skærm, og så går fidusen lidt af at 3080 kortet er relativt billigt og 3070 kortet er vanvittigt billigt.
Ultra wide er nok den bedste løsning prismæssigt hvis man vil have høje hz og udnytte de nye kort optimalt, men det kræver for mange stadig et skærmskifte, så vi er oppe i minimum 9000 kr for et skifte til 3080 + ultra wide monitor (minus det man kan sælge sit gamle for) og så satse på at resten af ens system kan følge med også, så man ikke skal til at skifte PSU, mobo, CPU eller kølesystem.
Alt i alt er det en pænt heftig pris for en upgrade som man i sidste ende måske kan have svært ved at se i praksis, medmindre man sidder decideret og kigger på FPS counter.
--
jeg kører med et 2070s og en lg 27gl850 monitor. Spiller primært cs og en smule vr.
Vil opgradering til 3070 give et spark?
--
Har i set andre forhandlere (i Danmark), udover Komplett, med de nye grafikkort?
Synes ikke selv at jeg kan finde andre, der er klar til launch
--
AMD 2600X - MSI GTX 970 - ASUS B450 Prime - 16GB Corsair Vengeance 3000 MHz - Cooler Master Silent Pro Gold 80+ 550W
Hvornår plejer man at kunne bestille fra Nvidia? Først på launchday?
--
#276 Ja. De kører ikke med pre-order konceptet.
--
Fandt det her over på techpowerup.com. Spec på RTX 3070 TI og RTX 3080 TI.
https://www.techpowerup.com[...]
https://www.techpowerup.com[...]
Det RTX 3080 TI ser godt nok sweet ud, hvis de spec holder vand.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD #278 Tror jeg slår koldt vand i blodet og venter et par mdr nu med at bestille. Det lader til det 3080ti bliver lanceret i år, som flere og flere steder hævder efterhånden.
--
#278 Kunne være genialt hvis de så kom med et 3080Ti SUPER om et års tid.
--
Grafikkort oraklet! Oh, and don't mind the vase.
#280 Tvivler på Ti super ligefrem..
--
#279 Ja min fornuft siger mig også at jeg ikke skal bestille et RTX 3080 alt for hurtigt i vært fald. Men det her er ikke officelt, så det kan også bare være en fiktiv GPU og forblive ved det.
Men igen tvivl, er det sandt. Så skal jeg have RTX 3080 TI. Dansk pris bliver ca. 8000 kr., hvis den angivede pris på 999 USD + dansk moms passer.
#280 Jeg tvivler der kommer et super. Men RTX 3080 TI må gerne komme snarest. RTX 3080 TI er mere det jeg søger af en GPU. Det bedste mix mellem RTX 3080 og 3090. Godt med Vram og cuda cores men stadig en god slat billigere end RTX 3090 som koster 120000 kr. for billigste kort.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
#282 et 3080ti er vel også bedre "gaming wise" vs. 3090 ? :S Hvis man ser bort fra prisen helt.
--
#283 Rent rå spil power er RTX 3090 den bedste, hvis prisen ses bort fra. Men spiller pris og spec ind, har RTX 3080 TI det bedste mix af det hele efter min mening. Specielt hvis det er et 4K GPU man er ude efter.
Her hentyder jeg til at RTX 3080 kun 10 GB vram, mens RTX 3090 prisen er svær at sluge på 12000 kr.
Der koster RTX 3080 8000 kr. Også lægger jeg vægt på med 10240 cuda core som er meget tæt på RTX 3090 og sam tiddig har det 20 GB vram som er mere end nok til 4K. Også med så mange cuda cores, har 3080 TI også meget tæt på samme antal tensor og ray tracing cores som 3090 har. Bag siden bliver at 3080 TI kun har sammen ram båndbredde som RTX 3080. Men efter som RTX 3080 stadig har højere ram båndbdredde end RTX 2080 TI, ser jeg ikke det som et problem til 4K gaming.
Alt in all er RTX 3080 TI det bedste mix af det hele og det kort som bedst lever op til det jeg søger i en ny GPU.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
#285... så hvis du ser bort fra pris - 3080 ti eller 3090 hvis du frit ku vælge?
--
#286 Skulle jeg ikke selv betale, så blev det da uden tvivl RTX 3090.
Skal jeg selv betale blev det RTX 3080 TI.
--
I7 980X @ 4.42 GHz|ASUS P6X58D Premium|12 GB ram 1600 MHz|GTX 1080 TI|2 x Samsung 950 PRO 256 GB M.2 SSD|CRUCIAL MX300 2 TB SSD|WD RED 4 TB HDD
Jeg tror ikke på et 3080 TI der lægger sig SÅ tæt op af 3090.
3080 TI ja meget muligt, men ikke SÅ tæt på i 10240 vs 10496 shaders enabled.
--
Gæstebruger, opret dit eget login og få din egen signatur. Er i tvivl om jeg skal tage 3080 FE eller et custom. Har FE også har 36 mdr reklamationsret? Plejer FE at være factory OC'et?
Hvor mange dages levering plejer Nvidia at have efter release?
--
Sidst redigeret 07-09-2020 17:06
Ja også lidt spændt på om de datoer der er sat på diverse sites altså 17/9 for 3080 om det er den dato de har dem på lager og man som kunde kan forvente at modtage det.
--
#292 Kan det ikke tænkes de første kort på lager ryger med det samme og der står mange tilbage med en lang næse og kontanter i hånden?
--
#293
De bliver sat til salg til overpris, hvis der ikke kommer ret mange på lager.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB
Det skulle ikke undre mig hvis vi kommer til at se opskruede priser på Nvidia kommende kort, for Samsungs yield af 8 nm node er ikke videre gode. Så mit gæt er at de bliver forholdsvis svære at få fat på - og der deraf kommer opskruede priser.
--
Corsair Carbide 275R | Ryzen 3400G
XFX 5500 XT 8GB | Dark Rock Pro 4| MSI B450M
16 GB Corsair LPX 3200 MHz
Corsair CV550 | 480 GB Kingston A400
#295
Det kan du sagtens have ret i og det vil AMD sikkert tjene godt på.
Men på papiret, så har Nvidia jo stadivæk føringen. Også selvom at der faktisk ikke er ret mange kort på markedet, til at holde føringen.
Så hvis det du siger ender med at blive en realitet, så vil vi se en masse OEM PCere ( Legion osv ) blive bygget med AMD kort.
--
Asrock Z370 Extreme4 - I5-8600K - NZXT Kraken X62
Ripjaws 2x8gb 3200Mhz CL14
Asus 1080 Strix A8G - Acer XB271HU
Adata XPG SX8200 Pro 1TB
AMD har sat en pris der er laver en på 3080,med et kort med 16GB,men lige som Nividia,ser man igen ydelse,pris krig før disse kort er på market ;D ;D
--
Vandkølet I7 2600k@5+GHZ asus p67 maximus iv extreme
4x4GB
ROG STRIX-GTX1070-O8G-GAMING
#282 Ifgl de seneste leaks, så skulle der komme TI og SUPER.
TI skulle være efter Big Navi og Super engang om et års tid.
https://videocardz.com[...]
--
Grafikkort oraklet! Oh, and don't mind the vase. 3070ti og 3060 er også blevet leaked :S hvorfor kan de ik bare annoncere deres lineup til at starte med.
--
#300
Fordi vi har ikke råd til at købe det hele på engang og så skal der være noget at glæde os til
Du har jo trods alt de næste ca 2 år til at kan vælge og vrage imellem alle kortene, desuden så er den her woow jeg fået et super fedt kort glæde, over inden der gået en månede, så det blevet hverdag og du er for 1 månede siden blevet ca 6000kr fattigere, men er du blevet dygtigere til det nyeste spil eller fortnite,pubg eller mincraft
Nej men det ser da flottere ud FEDT ikke
--