Forum
Køb & Salg
Forum
Køb & Salg
RTX 3090 - NVLink mål
Af CP_ Bruger Aspirant
Hej
Da jeg vil supplere min maskine med endnu et RTX 3090 og linke det via NVLink til mit Zotac RTX 3090 Trinity (altså dermed 2 stk. RTX 3090), er jeg interesseret i at høre andre ejere af RTX 3090 (alle mærker) om de gider at måle afstanden fra PCIe bøjlen til start af NVLink edge konnektoren, da jeg ikke er sikker på at afstanden er ens for alle mærker.
Man kan godt linke forskellige mærker af RTX 3090, forudsat at NVLink porten sidder lige ud for hinanden.
Jeg er særligt interesseret i RTX 3090 Founders Edition, men alle andre der gider, vil være fedt hvis i lige gider sætte en linial på.
På mit Zotac RTX 3090 Trinity OC får jeg afstanden til ~ 17 mm (se billede).
Tak :)

Selvom jeg aldrig fik et svar, så er her en lille opfølgning.
Nvidia RTX 3090 FE, har ca. 31 mm fra af bøjlen og hen til NVLink porten.
Det betød dog ikke det store. Jeg valgte at supplere med et 3090 FE fordi kortet var signikant bredere end Zotac 3090 Trinity OC.
Faktisk lige akkurat nok til at jeg kunne bruge et PCI 4.0 x16 riser kabel med 90 graders stik på, bøjet 180 grader og dermed skabe afstand mellem de 2 kort, svarende til 4 slots NVLink (dvs. 2 slots mellemrum).
Det var stadig fleksibelt nok til at jeg kunne øge afstanden fra PCI bøjlen, med en lille hjemmelavet bøjle, så de 2 korts NVLink port er korrekt placeret ud for hinanden.
Andre har løbet ind i problemet med at det er svært (umuligt) at finde et motherboard med 2 slots mellemrum mellem PCIE 4.0 konnektorene.
Alternativet var så at bruge et RTX A6000, 3 slots NVlink bridge og montere vandkøling på det ene kort og dermed måske får det til at passe.
Nå men hermed at tippet givet videre, hvis der er andre der roder med at køre AI modeller lokalt på optil 48 GB VRAM.
Jeg bruger forøvrigt et Z690 Meg Unity MB, med i9-13900K og begge PCI 4.0 slots er sat til x8. Kabinet Lian Li Lancool 216.
Den højste temperatur jeg er nået på GPU'erne er 73 grader indtil videre, så det ser ud til at fungere ganske fornuftigt.
Her er lige et billede også (kan åbenbart ikke vedhæfte)
https://ibb.co/3mBkr6vz
hvor mange ekstra fps har det givet dig
Det ved jeg ikke, da jeg storset ikke spiller (og slet ikke noget der trækker så mange kræfter).
Men sandsynligvis vil performance til de fleste spil være bedre med kun 1 kort, da du så kan køre PCI 4.0 x16.
Der er da sikkert nogle få spil optimeret til dual 3090 med NVLINK (56,248 GB/S mellem kortene), det kan være jeg bliver nød til at prøve det en dag :)
Lyder spændende
Hvad er det for Ai modeller du roder med
Jeg tegner 3D og visualiser uden Ai
Har kun et alm 3090
Vil gerne høre nærmer om dette
på forhånd tak
Det er bla. DeepSeek-R1, OpenTinker mm.
De er tilgængelige gennem f.eks. Ollama her https://ollama.com/search
Pt. kører jeg med en distilleret udgave af DeepSeek-R1 med 70 milliarder parametere (deepseek-r1:70b), den bruger ca. 44 GB VRAM når den kører.
Jeg har lagt lidt flere billeder og beskrivelser op her (godt nok på engelsk), hvis det har interesse: https://www.spinpoint.org/2025/02/2...
Godt være jeg har levet under en sten de sidste par år vedr AI.. men hvad er formålet? Troede AI var det samme som deepseek / chatgpt? som får alt info fra ekstern servere (producenten af AI'en)
Sorry for dumb-ass'en her :D
Normalt går trafikken mellem din chat prompt (browser) og deepseek/chatgpt's servere, som kører AI modellerne på tonsvis af kraftige gpu'er.
Når du kører en model lokalt på din egen hardware, så er der ingen trafik over internettet.
Hvad er så formålet, ja for de fleste er der ikke noget formål, medmindre man ikke vil dele sine data over nettet.
Men ellers er der masser af muligheder for folk der bruger AI til anden udvikling (automation, support, programmering, billed behandling osv)
Man kan træne/fin tune modeller med egne data, lave egne implementioner, f.eks. er der nu "Janus Pro 7B" model der kan bruges til billed indeholds identifikation mm.
Det er stortset kun fantasien (og evnerne!) der sætter grænserne.
Alternativt kan man bruge et API til de store servere og betale for adgang.
fair nok :) tak for svar :)