Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Nyheder

PhysX og Geforce Med Et Nyt NVIDIA Grafikkort

Skrevet af Thomas Christensen | 22-10-2009 22:51 | 3437 visninger | 16 kommentarer, hop til seneste

Ideen om at genbruge det gamle Geforce grafikkort til PhysX, og lade det nyeste og hurtigste Geforce grafikkort om at udregne grafikken har aldrig slået til, men om en uge frigiver NVIDIA et grafikkort, som kan tage sig af begge dele på samme tid.

EVGA har kastet en lille teaser op på deres hjemmeside, hvor de inviterer brugerne til en produktlancering fredag den 30. november. EVGA forsikrer, at det ikke bygget på Fermi arkitekturen, men at de sammen med NVIDIA har designet et nyt produkt, der kan tage PhysX til det næste niveau.

Med gåden "Riddle me this, riddle me that... this card does more than render a bat." prøver EVGA at fange opmærksomheden med den klare reference til Batman Arkham Asylum, som er et af de første spil, der indbygger PhysX i gameplayet, og er mere promoveret af NVIDIA end Fermi arkitekturen.

Grafikkortet kan man andre ord udregne grafikken og PhysX udregningerne på samme tid, og ifølge BSN er der tale om et grafikkort med en GTX275 og GTS 250 chip bygget på et PCB. De to forskellige chips udelukker egentlig SLI brug, da arbejdsfordelingen vil være for vanskelig at optimere for NVIDIA's driverudviklere, men det giver derimod mulighed for, at det beskedne GTS 250 kort kan klare PhysX udregningerne, som har nok hestekræfter til PhysX selv i de mest krævende titler.

Det kunne ligne et røgslør mod AMD's fortsatte strøm af Radeon HD 5000 grafikkort, men dual chip implementeringen kræver en længere udviklingsperiode, og projektet er startet allerede inden Radeon HD 5800 serien så dagens lys i september.

EVGA nævner i samme forbindelse, at nok er det ikke Fermi baseret, men at disse detaljer er ved at blive løst. Et lille tegn på, at Fermi arkitekturen kommer til desktopmarkedet og Geforce i år.

#1
OVRKLL
Giga Nørd
23-10-2009 02:04

Rapporter til Admin
Måske skulle de bare erkende, at der er behov for dedikerede fysikkort.
--
http://insultsondemand.com[...]
#2
gQrgh
Mega Supporter
23-10-2009 08:17

Rapporter til Admin
Tjae .. Ved ikke om det er helt nok før de kan konkurrerer bare lidt mod ATI efter lancering af HD5870 og lillebroderen HD5850. Har på fornemmelsen det ikke bliver helt godt, når man bygger de to ting sammen på den måde .. Men bare lige min umiddelbare tanke omkring det, Syntes det var bedre hvis de lavede en bedre chip med Physx så er blev et single kort med Physx. Så man også ville kunne benytte sig af SLI .. ( Såvidt jeg forstod var det ikke muligt at brude SLI med det kort )
--
Mvh. gQrgh "Never under estimate the predictability of stupidity"
#3
Gripen90
Guru
23-10-2009 09:28

Rapporter til Admin
#1/2:Hvorfor skulle de gå tilbage til Ageia løsningen med et PhysX board ? så bliver der jo mere data latency når det skal køres igennem med PCI mv istedet for at arbejde direkte i samspil m. GPU'en. SLi med et physX kort giver ingen mening IMO. Det er da smartere at bruge GTS250 chippen og så f.eks bruge dem som dedikeret physx udregner på en stribe kort indtil de måske så bruger, hvad ved jeg gtx285 chippen som physx kalkulator på næste kort.
--
#4
Sun-Ce
Elitebruger
23-10-2009 10:02

Rapporter til Admin
#1/2 Been there, done that... Not impressed!
--
Bemærk: Der tages forbehold for taste og stave -fejl, ironi og sarkasme. Firefox! // Google er din ven! ;) HOLD JER FRA ZEPTO! www.ioh.dk[...]
#5
Ronnie192
Bruger Aspirant
23-10-2009 11:21

Rapporter til Admin
#1 kan ikke helt forstå at ati HD 5870 er så meget bedre end nvidia, for de benchmarks som jeg har set der ligge nvidia markant i toppen, med deres GTX 295.
--
#6
Gripen90
Guru
23-10-2009 11:28

Rapporter til Admin
#5: Det er fordi det er et Dual GPU kort. Man kigger på ydelsen ved en Single GPU løsning og her vinder HD5870 stort iforht. nVidia's stærkeste single GPU pt (GTX 285).
--
Running with:•AMD Phenom II X4 955•Asus M4N82 Deluxe•3x GTX 280 3Way-SLi•8GB C.BallistiX DDR2-800•TT 1500w•CM690 nVidia ed.•
#7
Ronnie192
Bruger Aspirant
23-10-2009 11:49

Rapporter til Admin
okay på den måde heh. så kan jeg bedre forstå det.
--
#8
Ronnie192
Bruger Aspirant
23-10-2009 11:57

Rapporter til Admin
kom så også til at tænke på om man kunne smide et HD 5870 på et bundkort hvor der kun er PCI E. 1.0 x16 fordi kunne godt snart trænge til et nyt grafikort, men gider ikke til at skifte bundkort. Det bliver først når min cpu er ved at være forældet.
--
#9
(FIH) The Don
Ultra Nørd
23-10-2009 13:13

Rapporter til Admin
#8 ja kan du sagtens
--
ASUS Rampage II Gene/i7 920/6 GB Kingston HyperX 1600mhz CL8/2*1TB HD/Inno3D GTX-295 /http://www.youtube.com[...]
#10
OVRKLL
Giga Nørd
23-10-2009 14:46

Rapporter til Admin
Jeg mener, at hele den grundlæggende pc-arkitektur burde have en opdatering. En PPU (Physics Processing Unit) på fysikkort til direkte tilkobling på motherboardet via egen højeffektive port burde indføres som så tæt som muligt på direkte udvidelse af CPU'ens domæne. Synergien mellem GFX og fysik er syntetisk og derfor principielt ikke ideel, hvilket kommer til udtryk ved manglende effektivitet og fleksibilitet. Uden at vide noget som helst dybdegående om hardware er det altså ret ligetil at konkludere, at et fysikkort er den teoretisk bedste løsning, når CPU'en alene ikke slår til. Hvordan det ville fungere i praksis skalerer i høj grad med graden af interesse fra producenternes side, og når den af økonomiske årsager er lav, er det klart, at vi ikke tidligere har set overbevisende resultater.
--
http://insultsondemand.com[...]
#11
HenrikM
Elite Supporter
23-10-2009 16:11

Rapporter til Admin
#10: Hvis vi nu bruger en anden PPU forkortelse (parallel processing unit), så er det jo der vi i høj grad er på vej hen. Problemet med physx i den sammenhæng er at dets formål ikke er få hurtig fysik, men derimod at sælge geforce kort (i batman har de dog en ordentlig cpu implementering, der gør at hurtige cpu'er bliver hurtigere end når den i forvejen grafikbelastede gpu skal lave det hele). Både intel og amd er imho på vej mod en mere assymetrisk multiprocessing model, hvor vi kommer til at se et antal "gpu kerner" integreret på cpu'en. Vi ser fx amd's roadmap, der ikke snakker om meget mere end 4 kerner (for mainstream), men til gengæld også et antal "APU" kerner. Nogen opgaver er naturligt sekventielle og skal derfor have nogle få, hurtige (cpu) kerner at køre på, mens andre er massivt paralle, og derfor kan køre på mange, langsomme (gpu) kerner. Det sidste har den klart højeste beregningsdensitet, men er kun relevant til et begrænset antal opgaver. Og fysik er som du også siger en mere naturlig cpu opgave, og ii modsætning til grafik er der også nogle latency krav, men dog også en opgave, hvor (dele af den) kan paralleliseres massivt. Med med en lille parallelprocesser på cpu'en (som samtidigt er den eneste GPU for ikke-gamere), vil denne være det naturlige sted at afvikle fysikken, mens det store dedikerede kort afvikler grafikken.
--
#12
OVRKLL
Giga Nørd
23-10-2009 20:52

Rapporter til Admin
Lad mig se, om jeg forstår dig korrekt: Så vi skal have CPU'er, der ikke bare består af flere af samme type kerner men i stedet også kerner med specifikke anvendelsesområder? Det lyder umiddelbart væsentligt mere fornuftigt end efter forgodtbefindende at redefinere specialiserede komponenter som grafikkortet. "Problemet med physx i den sammenhæng er at dets formål ikke er få hurtig fysik, men derimod at sælge geforce kort [...]" Det var det, jeg mente med, at de økonomiske aspekter sætter en stopper for effektiviseringen af fysikberegninger; grafikkortsproducenterne får meget mere ud af at integrere dem i eksisterende produkttyper.
--
http://insultsondemand.com[...]
#13
HenrikM
Elite Supporter
23-10-2009 23:48

Rapporter til Admin
Måske ikke ligefrem specifikke, men blot de 2 grundlæggende typer: sekventiel hhv parallel. Snakker vi flops/krone (eller pr watt), så er de massivt paralelle (dvs gpu style) langt overlegne(*), men det er kun en begrænset mængde opgaver der giver mening at løse på den slags systemer. Der må man istedet ofre det det koster at lave en kerne der bruger en masse logik og strøm på at afvikle een tråd mange gange hurtigere end de små simple gpu kerner kan. Derfor giver 8+ kernede (symmetriske) cpu'er heller ikke meget mening (til desktop brug, på servere med et større antal samtidige opgaver er det noget andet). HVIS en opgave kan paralleliseres ud på mange kerner vil det være smartere at bruge "gpu" kerner til formålet, fremfor "ineffektive" sekventielle kerner. Derfor kan vi naturligvis stadig til hardcore spil og andre knapt så mainstream formål have et grafikkort (en ekstra stor parallelprocessor) ved siden af, både af varmehensyn, og det kan jo heller ikke betale sig, at alle kontorbrugere skal slæbe på al denne parallelregnekraft. Det frigiver så parallel delen af cpu'en til andre opgaver, fx fysik. (*) Her er en graf over rå beregningseffektivitet (og det er endda for double precision, for single er forskellen større!): http://www.cupidity.f9.co.uk[...] (den er naturligvis forenklet, en cpu vil normalt kunne køre meget tættere på sin peak performance end gpu'erne)
--
#14
crucial-kid
Nyhedsredaktør
24-10-2009 01:15

Rapporter til Admin
#3 Gripen90 Jeg er ganske enig i din betragtning mht. PhysX kort, men når det kommer til stykket, er der ikke den stor forskel på, om der køres parløb mellem de tre enheder på et eller to grafikkort PCB'er. Hovedproblemet er nemlig ikke grafikenhed til fysikenhed kommunikationen (dermed ændringen fra PCI-e til PCI-e motherboard til PCI-e til PCI-e onboard kommunikation), men fra og til CPU'en. #11 HenrikM Jo bevares, men med meget små og forsigtige skridt, og ikke just noget, der står på dagsordenen i forhold til fysik de næste par år. Dels tager AMD, som er pt. er ene om at fremføre ideen om selvstændige enheder (det AMD kalder APU'er under Fusion ledestjernen) og dels bliver det i en helt andet målestok end noget der er relevant i forhold til egentlig fysik - eller i hvert fald den PhysX eller ej snak, der er udgangspunktet. Vi snakker groft sagt om at benytte en pumpet IGP til andre formål end grafik. APU'en debuterer sjovt nok også som notebook, ikke desktop eller server. Intel er ej heller hoppet på APU vognen, og satser i stedet på udvidelser af instruktionssættet. Man behøver ikke tænke alt for langt ud i fremtiden og tage Terascale og Larrabee med i betragtningerne for at regne ud, at dette på et eller andet tidspunkt smelter sammen med CPU'en enten ved at lade deres parallelle x86 enheder overtage deres IGP eller ved at adskille det som AMD. Min pointe er, at fysikkampen ikke kommer til at stå mellem GPU'en og PhysX i den ene lejr og AMD's APU i den anden. Når de kommer frem, er den fysikkrig i snakker om uddebatteret og afklaret. Slagsmarken kommer i stedet til at stå imellem, hvor parallel og output fokuseret fysikudregningerne bliver samt om udviklerne vil tillade en ekstern udregningsenhed, der står for noget, som gør koden langt mere kompliceret. Med en ekstra ekstern enhed til fysik, er der nemlig ikke længere samme føder-til-udregningsenheds forhold, der ellers er mellem CPU'en og GPU'en. Fra at være fra punkt a (CPU) til b (grafikkort) til c (skærm) bliver det et værre rod fra a (CPU) til b (grafikkort) + c ("PPU"), hvor b samtidig er afhængig af c og a på en og samme tid, før det kan sende data videre til skærmen. CPU'en skal med andre ord både sætte grafikarbejdet op og sætte fysikarbejdet op til PPU'en mens GPU'en data fra CPU'en er afhængig af det data der kommer ud af PPU'en. #12 Som sagt et par gange de sidste par år, kerne-krigen døde næsten inden den startede. Fra 2012 vil det blive tydeligt. Netbook'en er også et glimrende eksempel. Den hamrer jo det grundlæggende spørgsmål fast, hvad skal du med flere hestekræfter, og hvor placeres de bedst? Forskellen på hidtil er grundlæggende set, at hvor du før så at diverse SIMD udvidelser var nok (SSE osv.), bliver ændringerne for store, og bliver egentlige acceleratorer som spiser noget at transistor budgettet på bekostning af en lineær kerne eller frekvens skalering. Du vil fortsat få flere egentlige sekventielle kerner, men der kører pt. en meget vigtig kamp om, hvordan fremtidens udregningsenheder skal se ud. Det er i øvrigt essensen af alt hvad NVIDIA laver pt. fra Fermi til deres SoC designs i Tegra, og årsagen til at Intel fandt på Larrabee (deres motivation har intet med gaming at gøre). Beklager at der blev kastet alt for mange bolde ind i den sidste del, som ikke har noget med de forrige indlæg eller mine to andre kommentarer.
--
Mvh. Thomas Christensen.
#15
timx0474
Megabruger
24-10-2009 01:19

Rapporter til Admin
nogen der ved hvad "dyret" kommer til at hede ?
--
#16
OVRKLL
Giga Nørd
24-10-2009 02:23

Rapporter til Admin
#13+14 Jeg kunne følge med i #13 og det meste... af starten... af 14... Uh. Men det er da rart at vide, at der faktisk sker noget - jeg havde forventet, at PhysX og lignende var den eneste aktive innovation mht. håndtering af store spil- og simuleringsrelaterede beregninger i øjeblikket. Hvad enten man går op i eyecandy eller ej, giver bedre fysikhåndtering nye muligheder fjernere grænser for gameplay.
--
http://insultsondemand.com[...]

Opret svar til nyheden: PhysX og Geforce Med Et Nyt NVIDIA Grafikkort

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning