Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Forum \ Hardware \ Generel hardware
Denne tråd er over 6 måneder gammel

Er du sikker på, at du har noget relevant at tilføje?

Byg selv NAS - hvad gør I?

Af Bruger Aspirant Caspertofte | 01-01-2018 17:13 | 5056 visninger | 51 svar, hop til seneste
Jeg går med tankerne om at bygge en storage-server (større end den nuværende Qnap TS-453, så jeg søger lidt inspiration til, hvordan I andre har strikket jeres hjemme-server sammen - og evt. hvad I bruger den til. *Har I købt en færdig (HP, Lenovo etc...) eller bygget den selv? *Hvad hardware har I brugt? *Kender I kabinetter der egner sig godt til ren storage (6+ diske)? *Hvad strømforbrug har I på maskinen i idle/load?
--
Sidst redigeret 01-01-2018 17:13
#1
Helmer
Monster Supporter
01-01-2018 17:24

Rapporter til Admin
Hvilke udfordringer skal den løse?
--
#2
Rodael
Semibruger
01-01-2018 17:30

Rapporter til Admin
Jeg købte et Ryzen setup med 32gb ecc ram, 2x ssd til cache og n diske til storage :D Smid unraid ind, og done! ;)
--
#3
Defterdar
Monsterbruger
01-01-2018 17:34

Rapporter til Admin
Min hjemmestrikkede server kører Ubuntu, da jeg havde en masse opgaver, som hverken unraid eller freenas kunne klare for mig. Til nas delen bruger jeg blot ZFS
--
#4
Rodael
Semibruger
01-01-2018 17:37

Rapporter til Admin
#3 Bare af ren nysgerrighed, hvad kræver at du kører bare-metal? ;o Jeg har et par VMs og nogle dockers kørende i unraid, og performance er meget tæt på bare-metal med CPU-pinning. Der er selvfølgelig typisk ~5% overhead.
--
#5
SShadowS
Guru
01-01-2018 17:37

Rapporter til Admin
Jeg bruger en jeg selv har samlet: 6700T 32GB Ram Windows Server 2016 512GB SSD 4*8TB HDD 4*4TB HDD Havde samme overvejelser som #3, så holdte mig til baremetal.
--
6700K|Maximus VIII Extreme|32GB RAM Gainward1080-GS|XL2410T|U28D590D Samsung840 EVO 500GB|Samsung 850 PRO 256GB Samsung850 EVO 500GB|Corsair AX860i
--
Sidst redigeret 01-01-2018 17:39
#6
Defterdar
Monsterbruger
01-01-2018 18:06

Rapporter til Admin
Kører et par spilservere og nogle scripts som jeg ikke ville kunne køre afvikle på førnævnte dists :)
--
#7
Caspertofte
Bruger Aspirant
01-01-2018 18:16

Rapporter til Admin
#1 - For nuværende er det ren storage, så til at lagre backup og til streaming gennem KODI. Overvejer dog PLEX og har typisk et par samtidige streams. Jeg vil gerne kunne sætte flere diske i end de nuværende 4, for at øge fleksibiliteten og eventuelt køre storage pools til forskellige formål. Dertil er jeg lidt på bar bund mht. bundkortet og kabinettet specielt, ift. at understøtte mange diske. Planen er imidlertid at køre UnRaid og så bruge dens software raid.
--
Sidst redigeret 01-01-2018 18:17
#8
millenium
Ny på siden
01-01-2018 18:33

Rapporter til Admin
Har selv lige opgraderet til: i3 7100 (ville egentlig have valgt en G460 men fik et godt tilbud på i3'eren) 8GB RAM (skal opgraderes da min backup server er RAM tørstig) 30GB SSD (styresystem) 2x8TB RED 2x4TB RED 3x3TB RED De "små" diske bliver løbende skiftet ud med 8TB eller 10TB Rack kabinet: Inter-Tech IPC 4U-4098-S, med to IcyDock MB455SPF-B hdd skuffer med plads til 5 diske hver. For at have SATA kanaler nok har jeg tilføjet et Dell Perc H310 SATA / SAS HBA RAID kort flashed med IT firmware. Det hele køre Debian (har kørt linux server i snart 20 år) med MHDDFS. Bliver mest brugt som filserver, men er også backup server, overvågninsstation og andre småting. Strømforbrug må jeg være svar skyldig, dette har jeg ikke målt endnu.
--
#9
cakke
Giga Supporter
01-01-2018 18:38

Rapporter til Admin
har du overvej og gå på Xpenology vej
--
Define Mini~Noctua~AX750 I5-3570K-H105~Asus 780ti ASUS MAXIMUS V GENE~Vengeance 1866mhz 16GB 2xSamsung 840 Pro~Ubiquiti~Synology 414 19TB
#10
MadsFerguson
Monster Supporter
01-01-2018 19:26

Rapporter til Admin
Ryzen 7 32 GB ram VMware 6 x 4tb disk 2 x SSD Fedora VM med RDM diske i et BTRFS RAID1 setup bagved 2 SSD cache diske. Det giver god hastighed, fleksibilitet og sikkerhed. Alt efter dine krav kunne du overveje om ZFS eller BTRFS er det rigtige for dig. Med ovenstående setup er Xpenology ikke 'besværet' værd længere.
--
-- Drifter og udvikler 24/7 Datacenter operations om dagen, er supermand om aftenen.
--
Sidst redigeret 01-01-2018 19:26
#11
Caspertofte
Bruger Aspirant
01-01-2018 19:47

Rapporter til Admin
Tak for jeres indslag indtil videre - og bliv endelig bare ved :-) #5 & #8 - Hvilket bundkort kører I med? #8 - Kører du med hardware eller software raid, med din raid controller? #9 - Nej jeg har ikke haft Xpenology (Synology) i overvejelserne, da jeg helst ikke vil være bundet af deres definition af, hvad jeg kan/ikke kan installere out-of-the-box - lidt ala min Qnap i dag. Tænker at UnRaid vil være mere fleksibelt på det plan. Hvis jeg tager fejl, må du endelig rette mig :-) #10 - så vidt jeg har kunnet forstå, så er ZFS ekstremt krævende mht. ram og typisk gerne vil have 1GB pr. TB HDD. Det er noget jeg skal have undersøgt dybere, så hvis du har noget "læse-vejledning" på hånden, der kan linkes til, vil det være super fint.
--
Sidst redigeret 01-01-2018 19:47
#12
MadsFerguson
Monster Supporter
01-01-2018 20:07

Rapporter til Admin
#11 inline dedupe kan godt spise RAM, men 1GB/TB tallet er en gammel skrøne, udregningen er noget mere involveret end som så. Hvis du skal fylde din kasse op med musik og film er det en nytteløs feature (på et 24tb volume vinder jeg 400GB ved dedupe, så det er småting formet film/musik setup) Hvis du skal lagre VM's osv s mer dedupe og CoW ikke en god idé uanset. Jeg har desværre kun tømmermænd på hånden lige nu, men mit råd ville nok være. Keep it simple. BTRFS er godt.for fleksibilitet, men raid5/6 har ikke bevist sig stabilt endnu. ZFS har bevist sig stabilt og du får nem SSD caching med i pakken. Det er ikke særligt fleksibelt hvis du skal skifte diske senere hen.
--
-- Drifter og udvikler 24/7 Datacenter operations om dagen, er supermand om aftenen.
#13
millenium
Ny på siden
01-01-2018 20:08

Rapporter til Admin
#11: Jeg bruger et ASUS Prime B250-Plus. Ikke noget specielt. Min SAS/SATA controller er er flashet med IT firmware der gør til en helt almindelig SAS/SATA controller uden RAID funktion. Jeg købte den på ebay, da jeg kunne læse mig frem til at det er den bedste måde at få 8 SATA porte mere, som også fungere uden problemer i Linux. Jeg køre ingen form for RAID, hverken software eller hardware. Har en komplet backup af mine data ude i byen. Håber det besvarer dine spørgsmål.
--
#14
Rodael
Semibruger
01-01-2018 20:09

Rapporter til Admin
Imo er unRAID i hvert fald et godt valg. Du får ikke hastigheden fra et striped setup(du får cirka 1 disks performance), men det er bare så convenient ikke at behøve at planlægge ens storage - og du kan tilføje diske af forskellige størrelser. Det eneste er bare at parity disken(e) skal være samme størrelse, eller større end data diskene. Jeg har quickbox.io kørende i en VM, der hoster diverse apps og plex. Har også en windows VM kørende med passthrough af mit nVidia grafikkort (tester med HW acceleration af Plex). Fulde setup: AMD Ryzen 7 1700 Samsung 16 GB - DDR4-2400MHz ECC ASRock Fatal1ty X370 Gaming X MSI GeForce GT 1030 LP OC Corsair CX450 BitFenix Nova - Kabinet 2x 250GB SSD jeg havde liggende som cache/vm storage 4x 4TB WD RED (fra en tidligere NAS) Valgte Ryzen fordi jeg gerne ville have en del CPU power til at køre diverse ting, samt understøttelse for ECC ram :)
--
Sidst redigeret 01-01-2018 20:10
#15
sorhol
Supporter
01-01-2018 20:13

Rapporter til Admin
Jeg har en AIO løsning med ESXI, ZFS (Napp-It) samt diverse VMs (Pfsense, Ubuntu, Windows server, Plex). Den har 6xHDD i Raid-Z2 samt 7XSSD, 1xRaid-Z1 (WMs), 1xStriped (speed) samt 1 bootdisk. Napp-It håndterer alt storage foruden bootdisken. Xeon E5-2686v3 ES 96GB EEC RAM Fractal Define R4 Seasonic Platin 660W PSU
--
#16
Heylel
Supporter
01-01-2018 21:43

Rapporter til Admin
Jeg lægger en stemme på unRaid også. Har brugt unRaid de sidste 5-6 år og det er et umådeligt stabilt og robust setup. Man kan køre dockers og VMs ovenpå. Det er korrekt at man "kun" får een disks hastighed men din netværksforbindelse hjemme maxer formentlig ud inden alligevel. Så medmindre dit hjem er meget krævende, tror jeg ikke det er et problem. Et absolut plus er at community omkring unRaid er enormt aktivt, dygtigt og hjælpsomt. Jeg har endnu ikke oplevet at gå forgæves når jeg er stødt på nogen ting jeg ikke forstod eller skulle have hjælp til. Udover at det er dejligt at kunne udvide "as-you-go" som Rodael skriver, er unRaid en god løsning da den er ret robust ift at flytte mellem platforme. Jeg har flyttet mit setup henover 4 forskellige mobo og cpu kombinationer uden dikkedarer. Sidst men ikke mindst er unRaid god til at økonomisere og lukke ned for ting der ikke bruges - diske spinnes ned ved inaktivitet og CPU + RAM krav er ikke afsindige - min tidligere server med Octacore Atom C2750 og 11 diske idlede omkring 40W. Min nuværende med samme antal diske men Xeon E3, Supermicro bundkort og en ekstra disk controller idler ved 66W. Med den slags forbrug kan man godt have serveren på 24/7 uden at smadre budgettet.
--
#17
LeetDonkey
Junior Nørd
02-01-2018 08:56

Rapporter til Admin
Jeg har bygget selv: Jeg startede med: Kabinet: HFX Powernas (Passivt kølet kabinet med plads til 5 diske) Bundkort: Asus Z87i-pro CPU: Intel I7-4770t RAM: 2 x 8 GB Operativsystem: Windows med Flexraid installation 5x4TB WD RED i Flexraid opsætning med paritet til 1 disk failure. Når diskene var spinned ned brugte det 15-20w i idle Jeg var ikke super tilfreds med Flexraid samt jeg gerne samtidig ville køre noget linux, så jeg besluttede mig for at bygge et setup der havde overskud til ESXI: Kabinet: Lian Li PC-A17 + 3 x IcyDock MB155SP-B (Giver 15 hotswap skuffer) Bundkort: Supermicro X10SRi-F CPU: Intel Xeon E5-2675v3 RAM: 128GB ECC RAM Indstiksskort: 2 x LSI 9211-8i, 1 x Mellanox ConnectX 3 (LSI kortene er passthrough til Freenas, Mellanox kortet er 10Gbit til hosten) Harddiske: 8 x WD RED 4TB samt 2 stk SSD. ESXI med følgende guests: pfSense, CentOS, Freenas og Windows. Den bruger ca. 60watt idle og ca. 100w når diskene kører Et setup jeg er rigtigt godt tilfreds med, det er nok svært at få samme ydelse og lavere strømforbrug, så jeg har bare accepteret at det koster lidt at have kørende.
--
#18
Caspertofte
Bruger Aspirant
02-01-2018 14:24

Rapporter til Admin
#12 Tak for opklaringen :-) Der er lidt videre at læse op på. #13 Det gør det bestemt. Hvordan forholder det sig hvis en af dine sata porte dør - kan dit storage pool fortsat køre videre, eller ødelægger det hele storage pool'en med det samme? #14 Har du kunnet få noget performance ud af HW accelerationen med Plex - nok til at det kan betale sig? Den hurtigste forbindelse herhjemme er 1Gbit, så én disks performance skulle ikke være et issue for nuværende. Jeg tænker det er mere praktisk i det daglige, ikke at være afhængig af én fastlagt storage setup og løbende udvide storage pool'et som jeg får behov. #15 Hvordan har du fået plads til de mange diske i et Define R4? #16 Er det mere eller mindre "plug-and-play" at skifte systemet ud, når der køres med UnRaid? I tilfælde af opgradering eller døde komponenter. #17 Hvad var det ved flexraid, der ikke var optimalt? Og kunne du ikke have lavet nogen VMs ovenpå, ift. at få linux funktionaliteten? Kan se flere af jer har valgt at køre Ryzen - og "almindelige bundkort". Er det jeres opfattelse, af understøttelsen i softwaren er god nok til at den kan køre stabilt som server? Og kører I typisk med Hotswap? Den eneste forskel er vel at det er nemmere at holde kabinettet "rent" og nemmere at skifte en død disk.
--
#19
sorhol
Supporter
02-01-2018 14:35

Rapporter til Admin
#18 Mener jeg har: 6xHDD raid-Z2 i 6 af de 8 tilgængelige 3.5" slots. 2xSSD raid-Z1 i de sidste 2 af de 8 tilgængelige 3.5" slots. 4xSSD striped i en lille adapter i de øverste 2.5" slots: 1xSSD boot på bagsiden af pladen til Motherboardet Tror egenlig godt man kunne få plads til yderligere 2xSSD, ved at køre 2xSSD i 2 stk 3.5" slots.... http://i67.tinypic.com[...]
--
Sidst redigeret 02-01-2018 14:39
#20
LeetDonkey
Junior Nørd
02-01-2018 15:00

Rapporter til Admin
#18 Det var bare ikke robust op, jeg oplevede bl.a. det ikke gav lyd fra sig hvis en disk fejlede, derudover har jeg oplevet at data bare 'forsvandt' - pludseligt var der filer med 0KB i størrelse uden nogen forklaring fra FlexRAID. Det skal dog siges at det efterhånden er mange år siden jeg kørte det, og problemerne kan sagtens være løst i mellemtiden. Jeg kunne godt have kørt Linux i et VM - men det var et ITX board begrænset til 16GB RAM så de fik hurtigt ben at gå på. Hele idéen med min upgrade var - efter nøje overvejelse - at gå over til FreeNAS. FreeNAS er meget ram sultent, og skal have ECC ram hvis man skal følge deres anbefalinger, så mine 16GB non-ecc RAM var bare ikke godt nok.
--
#21
sorhol
Supporter
02-01-2018 16:33

Rapporter til Admin
#18 - jeg mente i de øverste 5.25" slots. Se link til pic af adapter
--
#22
Stroyer
Monster Nørd
02-01-2018 16:50

Rapporter til Admin
0# Nu da mit behov for storage ikke er så stort længere har jeg dette setup: 1x (ESXi) HP Microserver Gen8 m. XEON E3-1220Lv2(17w tdp), 16GB ECC RAM, HP P222 RAID Controller, 4x Samsung EVO 850 250GB, ILO Pro 1x (Windows Server 2016) HP Microserver Gen8 m. XEON E3-1220Lv2(17w tdp), 16GB ECC RAM, HP P222 RAID Controller, 4x Seagate 8TB, ILO Pro Til min Windows Server har jeg bestilt en XEON E3-1265Lv2(45w tdp) med Intel QuickSync samt et par cores mere for bedre transcoding i Plex. Skulle gerne komme hjem om et par uger :-) Jeg har altid været super glad for HP Microserver gen8 og håbede at de ville forsætte i nogenlunde samme stil med Intel CPU'er og måske mulighed for 32GB RAM men nej. Sådan skulle det åbenbart ikke være og de har endda været så frække at fjerne ILO muligheden :S Venter sådan set bare på at der kommer noget tilsvarende eller måske en gen11 hvor de har rettet ind og igen levere med Intel og ILO. /mvh
--
IDGAF!
#23
Heylel
Supporter
02-01-2018 18:36

Rapporter til Admin
#18: "#16 Er det mere eller mindre "plug-and-play" at skifte systemet ud, når der køres med UnRaid?I tilfælde af opgradering eller døde komponenter." Stort set - rygraden er diskene og opsætning som ligger på den USB-nøgle du booter fra. Jeg flyttede senest fra flg.: AsRock C2750D4I med onboard CPU og 12 SATA porte, samt DDR3 ECC til: SuperMicro X11SSM med Xeon E3-1230V6 med DDR4 ECC og en reflashet DELL PERC H310 SATA controller (fordi der ikke var nok native porte på mobo) Da al BIOS og firmware mv. var opgraderet og testet på det nye mobo og BIOS indstillet til at boote fra USB, flyttede jeg alle diske over og satte USB nøgle til. UnRaid fandt selv ud af resten med hvilke disk-id'er der havde hvilken position i array mv.
--
#24
Caspertofte
Bruger Aspirant
02-01-2018 20:58

Rapporter til Admin
#19 Ah, naturligvis. Havde ikke lige tænkt på at en adapter fra 5.25" kunne bruges :-) Det lader til at være et fornuftigt kabinet ift. storage muligheder. Synes generelt ikke der er mange kabinetter (som jeg har kunnet finde), der egner sig til 6+ diske, uden at komme over i et decideret rackmount. #20 Jeg har godt set på HP Microserver tidligere - men er de ikke relativt låste ift. at opgradere senerehen? Nu kan jeg se du er ved at opgradere CPU, men hvordan med ram eller lign? #21 Hvordan forløber det sig så, i tilfælde af at USB disken skulle ske at gå til? Kan der laves en backup deraf, så det er til at genskabe hele konfigurationen og starte påny med en ny USB? Det lyder bestemt som en brugbar løsning med unRAIDgrundet dens fleksibilitet. Om ikke andet, så kan der senerehen udskiftes til et andet system, hvis det skulle være nødvendigt. Jeg har dog fulgt en del med på LinusTechTips og set at unRAID håndterer VM's ret fornuftigt, og i forvejen har nogen indbyggede "moduler" der kan klare det meste.
--
#25
Heylel
Supporter
02-01-2018 21:31

Rapporter til Admin
#24: Hvis man sørger for at have kopi af sin USB stick (hele installationen med OS og konfig filer fylder omkring 300MB) kan denne lægges på en ny USB nøgle og så kører du videre. Eneste krølle er at man lige skal have en ny licensnøgle fra Limetech da den er bundet til USB-nøglens GUID. Det kan faktisk omgåes ved at bruge en USB-baseret SD card reader og så have UnRaid på SD-kortet. På den måde er licensen bundet til readeren og det "slid" der nu er (antallet af læsninger/skrivninger), foregår på SD kortet. Går det til, er det i med en kopi og du kører videre.
--
#26
Stroyer
Monster Nørd
02-01-2018 21:36

Rapporter til Admin
24# Altså - Gen8 her kan du skifte RAM(16GB MAX), CPU og montere RAID Controller/HBA og hvis du ikke har brug for mere end 16GB RAM er det også fint. /mvh
--
IDGAF!
#27
Caspertofte
Bruger Aspirant
03-01-2018 19:54

Rapporter til Admin
#25 Super fint - så er det ikke værre end som sådan. Tænker ikke det er besværet værd at køre gennem en kortlæser, når det ikke er værre end det :-) # 26 De 16 GB kan godt blive et problem i længden, men det er da noget der skal opvejes med prisen på maskinen. Hvis nogen stadig har lyst til at dele deres erfaringer, så endelig skyd løs - kabinetter til storage brug - at bruge "almindelig hardware" til serverdrift (eller hvordan Ryzen understøttes ift. stabilitet m.m.) - Har I oplevet noget, I blev trætte af - eller ville have gjort om, hvis I skulle bygge igen?
--
#28
Heylel
Supporter
03-01-2018 21:49

Rapporter til Admin
#27: Jeg bruger et Fractal Design Node 804 som kabinet. Der er plads til 10 stk 3.5" diske i rammer + 1 stk 3.5" i bunden og 2 stk 2.5" under frontpanelet. Det er pænt og diskret og til at betale. Med den udvikling der er i diskstørrelser tror jeg ikke at jeg nogensinde kommer i bekneb da jeg bare opgraderer diske. Købte på et tidspunkt et Norco med backplanes med plan til 24 stk 3.5" diske - det var et stort skrummel og jeg kom aldrig i nærheden af at bruge alle slots.
--
#29
United
Junior Nørd
03-01-2018 22:24

Rapporter til Admin
#22 - Stroyer Nu bliver jeg lidt nysgerrig angående din Microserver og køb af en Xeon med quicksync - uden at være 100% sikker tror jeg ikke det kommer til at virke med quicksync - da det indbyggede matrox kort ikke kan slås fra - Derved starter din din igpu ikke og derved heller ingen quicksync. Hvis jeg skulle tage fejl må du meget gerne fortælle(jeg tror det dog ikke).
--
´66 WAS A GREAT YEAR FOR ENGLISH FOOTBALL. ERIC CANTONA WAS BORN.
#30
bRi
Elitebruger
03-01-2018 23:13

Rapporter til Admin
Tjah, jeg har selv følgende: 1 x HP Proliant Microserver NEO AMD, med 8gb ram 1 x 250gb (Den fulgte med :) ) 1 x 2TB 1 x 4TB Af software kører der lige pt en xponology 4.1 (ja den burde blive opdateret, men med mit arbejde så er tiden der bare ikke ). Den bruges til torrent, filserver og ikke så meget andet. Vi købte så hus i april, og har med hjælp af min lillebror, trukket kabler (strøm og net) og forbundet netværket i et 19" rackskab der hænger på væggen i kælderen. Med tiden, så er det planen at der istedet for Hp'en, skal installeres et rackserver kabinet med hardware kraftig nok til at køre virtuelle maskiner.
--
Nej til CENSUR af brugere på hol.
#31
DeXTer_DK
Supporter
03-01-2018 23:37

Rapporter til Admin
AIO løsning sat op i et proxmox HA - begge servere kører med ZFS :) services køres i lxc containere. 1- Supermicro Xeon D-1521 32 GB ram 2x Intel Enterprise 400GB SSD + 2x3TB i raid 1 (main node) 10gbit nic 2 - Celeron J1900 med 8 gb ram - 2 x 160 GB consumer SSD (failover node) ZFS, er genialt og jeg kan kun anbefale du går den vej, Hvilket OS du vælger er op til dig, så længe det er linux/BSD - så ingen Windows eller Synology hvis du vil bruge zfs :) Proxmox er efter min mening en mere fleksibel løsning, Freenas er zfs pakket pænt ind og er en rigtigt fin mulighed, Ubuntu er også et godt valg men kræver du kan begå dig på terminalen. Proxmox kan køre en lxc container eller en vm i ren ram uden at røre dine disk. - Jeg lover dig det går stærkt med at servere statiske websites :) """MEN, ZFS er ikke uden sine mangler, fordi det er copy on write, kan du opleve skyhøje iowaits, hvis du arbejder med filer som ikke er seq også er der hele historien om ikke at køre med ECC ram, er det til en filserver er det et must. hvilket også gør de fleste synology ikke kan tages seriøst hvis det handler om datasikkerhed. Ved valg af diske vil jeg på det kraftigste fraråde dig at bruge consumer ssd til cache eller til zfs generelt. f.eks Samsung Evo diske er elendige til zfs. Hvis du vil køre zfs skal det være på mekaniske diske eller på enterprise ssd. Husk aldrig at fylde dem mere end 80%
--
"Always bear in mind that your own resolution to succeed, is more important than any other one thing."
#32
Stroyer
Monster Nørd
04-01-2018 08:50

Rapporter til Admin
29# Tak for info - Det er jeg med på :-) MEN vil prøve at se om jeg ikke igennem ESXi kan lave noget passthrough af en eller anden art eller på anden vis se om jeg ikke kan få det til at slå igennem. Om ikke andet så har jeg da i hvert fald nogle flere cores med højere hastighed uanset :-) /mvh
--
IDGAF!
#33
MadsFerguson
Monster Supporter
04-01-2018 09:41

Rapporter til Admin
#29 lav passthorugh på Matrox'en til et ligegyldigt VM.
--
-- Drifter og udvikler 24/7 Datacenter operations om dagen, er supermand om aftenen.
#34
Stroyer
Monster Nørd
04-01-2018 10:04

Rapporter til Admin
33# Kan du uddybe ? :-) /mvh
--
IDGAF!
#35
Peden666
Bruger Aspirant
04-01-2018 12:25

Rapporter til Admin
Kører ligeledes et G8 setup med 4 diske, og en helt banal Win 10 ovenpå. Alle de gode erfaringer i tråden med UnRaid gør mig dog nysgerrig :) #34: Har du en god leverandør af Xeon LV CPU'er du kan anbefale? Kunne godt være lun på en 1220lv2!
--
#36
United
Junior Nørd
04-01-2018 13:42

Rapporter til Admin
#32 Nu har jeg ikke lige et bundkort med et matrox men med aspeed grafikkort og der får jeg i hvert fald på ingen måde lov til at bruge igpu - det er slået fra med det samme maskinen bliver startet. Så tvivler på et passthorugh vil betyde noget. Men fortæl gerne hvis det skulle lykkes :) Ja plex kan godt få en cpu til at svede, hvis der ikke er nok kerner :) #35 Lad være med at se dig blind på de der L cpu'er, så stor forskel er der ikke på strømforbruget på dem og de almindelige ikke - Gå efter noget sjovere f.eks. en E3-1230 v2 (den fungere også perfekt i en G8.
--
´66 WAS A GREAT YEAR FOR ENGLISH FOOTBALL. ERIC CANTONA WAS BORN.
--
Sidst redigeret 04-01-2018 13:42
#37
Heylel
Supporter
04-01-2018 15:02

Rapporter til Admin
Det lader til at man i ESXi 6.5 kan lave passthrough af Xeon iGPU https://forums.servethehome.com[...]
--
#38
ph0ton
Bruger
04-01-2018 17:21

Rapporter til Admin
Min server: - Chenbro SR-30169 kabinet: http://www.chenbro.com[...] - Asus P10S-I bundkort - Intel E3-1220 V5 CPU - 8 GB kingston ECC ram. - 2 x WD red diske - Seasonic 300 W SFX Idle strømforbrug 13W / 20W med diskene spundet op Jeg kører Debian - Snapraid til redundans af min BR/DVD samling - Plex til at serve BR/DVD samlingen, samt diverse optagelser fra kabeltvnettet - Diverse docker images til list test af forskellige services. Jeg har været en del "Nas" løsninger igennem, men jeg synes det nemmeste at vedligeholde er en simpel Debian install, og så lære at bruge Linux' guid og uuid.
--
lorem ipsum et dolores
#39
Caspertofte
Bruger Aspirant
04-01-2018 20:37

Rapporter til Admin
#28 - Heylel Fint kabinet - og samtidig ét der er til at "gemme væk" uden at det fylder som et almindeligt case. God pointe mht. det store kabinet - jeg havde kort overvejet et rack-kabinet, alene for at kunne udvide, men omvendt så er der nok også lang vej at gå med ét. Så hellere tage den løbende, hvis det overhovedet skulle blive aktuelt med så mange pladser. #30 - bRi # 31 - DeXTer_DK Mine planer er at køre det linux-baseret, om det lige er Freenas eller UnRaid, er jeg ikke helt afklaret med endnu - men hælder imidlertid mest til UnRaid, netop fordi kravene ikke er nær så høje. Kan du uddybe hvad et "proxmox HA" dækker over? Kan se flere af jer kører med XEON processorer. Har de nogen egenskaber (udover flere kerner), som er værd at se efter?
--
#40
Stroyer
Monster Nørd
04-01-2018 21:02

Rapporter til Admin
39# Den primære årsag til at vælge en Xeon CPU er at der er understøttelse for ECC ram og så er det jo givet at en rigtig server CPU er bygget til at køre 24/7 - ikke at andre CPU har noget videre problem med det :-) /mvh
--
IDGAF!
#41
thomsen48
Junior Supporter
05-01-2018 10:08

Rapporter til Admin
Kører det helt simpelt, ikke så meget "hokus pokus". Bruger det primært til Plex og backup. Kabinet: Nanoxia Deep Silence 4 (plads til 6 stk. 3.5" + mulighed for udvidelse i 5.25" bay) CPU: i7-3770 (genbrugt fra min gamle gamer pc) MB: Et eller andet tilfældigt billigt RAM: 16GB SSD: 120 GB til system HDD; 2x 3TB WD Green + 1x 6TB WD Red pro OS: Windows 7 Strømforbrug: omkring 30W idle
--
ASUS Z370-G | i7-8700k @ 5Ghz, H115i | ASUS 1080ti Strix | Corsair 32GB 3200MHz | Samsung 960 Pro + 2 x 850 Pro | Asus 27" G-Sync PG278Q
#42
MadsFerguson
Monster Supporter
05-01-2018 10:30

Rapporter til Admin
#34 Hvis du ikke kan 'slippe' af med dit Matrox kort på det VM, så lav Passthrough til et andet VM, så er den ikke med i stacken under VM'et længere. Evt. så kan du sende iGPU direkte igennem. beklager det korte svar, fang mig i PM hvis det er (du har vidst også mit telefonnummer et sted i dine PM's) så skal jeg se om jeg kan grave frem hvordan jeg selv fik ESXi og Handbrake/Plex til at blive en god oplevelse.
--
-- Drifter og udvikler 24/7 Datacenter operations om dagen, er supermand om aftenen.
#43
Heylel
Supporter
05-01-2018 12:17

Rapporter til Admin
#40: "Den primære årsag til at vælge en Xeon CPU er at der er understøttelse for ECC ram og så er det jo givet at en rigtig server CPU er bygget til at køre 24/7 - ikke at andre CPU har noget videre problem med det :-)" Med Ryzen Pro og et velvalgt mobo er der også ECC understøttelse (selvom AMD ikke ligefrem skilter med det er det ikke låst i CPU'en - det er mobo implementering der afgør om det kan anvendes). Ex. vis AsRock AB350 Pro4 understøtter ECC sammen med Ryxzen Pro. "Problemet" er at der ikke er så mange deciderede server boards med fx. IPMI, dual Intel NIC osv. Men hvis et consumer grade board er "nok", slipper man noget billigere om et mobo (AsRock'en ovenfor koster 650,-) og man kan få ECC understøttelse.
--
#44
DeXTer_DK
Supporter
05-01-2018 22:04

Rapporter til Admin
#39 Det kan du tro, Det fungerer på den måde at man har minimum 2 -til et uendeligt antal servere bundet sammen på en måde sådan at de styres fra samme interface. De kan i større eller mindre grad (alt efter opsætning) replikere containere/vm's på tværs af noderne i realtime som du kan få den ene server til at tage over hvis den anden fejler. eller bare med et klik flytte en vm til den anden, det er fantastisk smart hvis man f.eks vælger at køre en virtuel firewall eller har services som er kritiske. Det kan også lade sig gøre med filservere, det kræver dog du har meget plads i begge servere, hvilket self ikke er helt så pratisk, :) Du kan læse en masse om det på https://www.servethehome.com[...] de kører hele deres miljø på proxmox, som faktisk bare er nogle pakker over på debian. (så alt hvad du kan i debian kan du her) Kan se der er skrevet en del om ESXI - Bare lige til info så er der noget med at hvis man har mere end 8 kerner i vmware esxi skal man vist op med pengepungen. " for gratis versionen" er begrænset.
--
"Always bear in mind that your own resolution to succeed, is more important than any other one thing."
#45
sorhol
Supporter
06-01-2018 00:01

Rapporter til Admin
#44 - det er kun hvis du ønsker mere en 8 vCPU pr VM
--
Sidst redigeret 06-01-2018 00:05
#46
Zune
Ultra Supporter
06-01-2018 01:19

Rapporter til Admin
ASUS ROG Strix X99 Gaming i7 5960x 64GB Ram 512GB SSD 5*8TB HDD Seagate ironwolf pro raid 5 2*2TB HDD wd RE raid 0 Intel quad pro 1000 pt 4U 19" kabinet NZXT X42 Proxmox VE strømforbruget ligger på ca 130-150w idle, og meget ved load, men den tøffer bare stille og roligt afsted. den kan kører ca alt jeg smider efter den. Jeg overvejer kraftigt at smide intel x520 i den og i mine desktops og købe en unifi US-16-XG til at drive det.
--
punktummer, store bogstaver og kommaer kan selv sættes efter behov;)
--
Sidst redigeret 06-01-2018 01:23
#47
Rodael
Semibruger
06-01-2018 13:21

Rapporter til Admin
#40 Min Ryzen 1700 kører skam også med ECC (2400mhz) ddr4. Det er ikke kun xeon der understøtter det :)
--
#48
Stroyer
Monster Nørd
06-01-2018 13:28

Rapporter til Admin
47# Yes :-) Der er AMD ikke så "vanskelige". Men i forhold til Intel CPU'er så er det desværre blokkeret for andre end XEON :-/ selvom der egentligt ikke er nogen grund til dette lige umiddelbart. /mvh
--
IDGAF!
#49
Stroyer
Monster Nørd
06-01-2018 13:32

Rapporter til Admin
44# Der ville man jo så typisk binde det sammen med et SAN eller hvis man er til vmware vSAN hvor din løsning med diske i de enkelte servere ville være løsningen :-) Meeeen - så er man over i Enterprise segmentet og ikke "Byg selv NAS - hvad gør I?" - SOHO segmentet. Der var engang hvor jeg ikke kunne få nok "Enterprise" udstyr hjem i stuen og stå. Nu er jeg blevet noget ældre og er gået en helt del ned på udstyr. De sjove ting sker nu i stedet på jobbet hvor man endda bliver betalt godt for at "lege" og har det VILDESTE udstyr tilrådighed uden at skulle betale for hverken hardware eller strøm :-) /mvh
--
IDGAF!
--
Sidst redigeret 06-01-2018 13:33
#50
Caspertofte
Bruger Aspirant
06-01-2018 15:54

Rapporter til Admin
#44 - DeXTer_DK Det giver rigtig god mening, og kan være interessant at følge op på. Jeg tror dog, at det for nu, er overkill at køre over på et node-setup, når det er ren storage (som det primære). #46 - Zune Det må være en af de "tungere drenge" du sidder med som hjemmeserver. Hvad bruger du den primært til, siden du har valgt en så kraftig løsning? Nu med Meltdown & Spectre, er det måske værd at se, hvor slemt performance hit de reelt får i server-opgaver, og om AMD så i sidste ende er lige så fin at bruge. Det er vel ikke sådan at AMD har en pandang til Intel XEON?
--
#51
DeXTer_DK
Supporter
08-01-2018 00:10

Rapporter til Admin
#50 - du har fuldstændigt ret :) - det er rent overkill til et fil-server.
--
"Always bear in mind that your own resolution to succeed, is more important than any other one thing."

Opret svar til indlægget: Byg selv NAS - hvad gør I?

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning