Hvilke udfordringer skal den løse?
--
Jeg købte et Ryzen setup med 32gb ecc ram, 2x ssd til cache og n diske til storage :D
Smid unraid ind, og done! ;)
--
Min hjemmestrikkede server kører Ubuntu, da jeg havde en masse opgaver, som hverken unraid eller freenas kunne klare for mig. Til nas delen bruger jeg blot ZFS
--
#3
Bare af ren nysgerrighed, hvad kræver at du kører bare-metal? ;o
Jeg har et par VMs og nogle dockers kørende i unraid, og performance er meget tæt på bare-metal med CPU-pinning. Der er selvfølgelig typisk ~5% overhead.
--
Jeg bruger en jeg selv har samlet:
6700T
32GB Ram
Windows Server 2016
512GB SSD
4*8TB HDD
4*4TB HDD
Havde samme overvejelser som #3, så holdte mig til baremetal.
--
6700K|Maximus VIII Extreme|32GB RAM
Gainward1080-GS|XL2410T|U28D590D
Samsung840 EVO 500GB|Samsung 850 PRO 256GB
Samsung850 EVO 500GB|Corsair AX860i
--
Sidst redigeret 01-01-2018 17:39
Kører et par spilservere og nogle scripts som jeg ikke ville kunne køre afvikle på førnævnte dists :)
--
#1 - For nuværende er det ren storage, så til at lagre backup og til streaming gennem KODI.
Overvejer dog PLEX og har typisk et par samtidige streams.
Jeg vil gerne kunne sætte flere diske i end de nuværende 4, for at øge fleksibiliteten og eventuelt køre storage pools til forskellige formål.
Dertil er jeg lidt på bar bund mht. bundkortet og kabinettet specielt, ift. at understøtte mange diske.
Planen er imidlertid at køre UnRaid og så bruge dens software raid.
--
Sidst redigeret 01-01-2018 18:17
Har selv lige opgraderet til:
i3 7100 (ville egentlig have valgt en G460 men fik et godt tilbud på i3'eren)
8GB RAM (skal opgraderes da min backup server er RAM tørstig)
30GB SSD (styresystem)
2x8TB RED
2x4TB RED
3x3TB RED
De "små" diske bliver løbende skiftet ud med 8TB eller 10TB
Rack kabinet: Inter-Tech IPC 4U-4098-S, med to IcyDock MB455SPF-B hdd skuffer med plads til 5 diske hver.
For at have SATA kanaler nok har jeg tilføjet et Dell Perc H310 SATA / SAS HBA RAID kort flashed med IT firmware.
Det hele køre Debian (har kørt linux server i snart 20 år) med MHDDFS. Bliver mest brugt som filserver, men er også backup server, overvågninsstation og andre småting.
Strømforbrug må jeg være svar skyldig, dette har jeg ikke målt endnu.
--
har du overvej og gå på Xpenology vej
--
Define Mini~Noctua~AX750
I5-3570K-H105~Asus 780ti
ASUS MAXIMUS V GENE~Vengeance 1866mhz 16GB
2xSamsung 840 Pro~Ubiquiti~Synology 414 19TB
Ryzen 7
32 GB ram
VMware
6 x 4tb disk
2 x SSD
Fedora VM med RDM diske i et BTRFS RAID1 setup bagved 2 SSD cache diske.
Det giver god hastighed, fleksibilitet og sikkerhed.
Alt efter dine krav kunne du overveje om ZFS eller BTRFS er det rigtige for dig.
Med ovenstående setup er Xpenology ikke 'besværet' værd længere.
--
--
Drifter og udvikler 24/7 Datacenter operations om dagen, er supermand om aftenen.
--
Sidst redigeret 01-01-2018 19:26
Tak for jeres indslag indtil videre - og bliv endelig bare ved :-)
#5 & #8 - Hvilket bundkort kører I med?
#8 - Kører du med hardware eller software raid, med din raid controller?
#9 - Nej jeg har ikke haft Xpenology (Synology) i overvejelserne, da jeg helst ikke vil være bundet af deres definition af, hvad jeg kan/ikke kan installere out-of-the-box - lidt ala min Qnap i dag. Tænker at UnRaid vil være mere fleksibelt på det plan.
Hvis jeg tager fejl, må du endelig rette mig :-)
#10 - så vidt jeg har kunnet forstå, så er ZFS ekstremt krævende mht. ram og typisk gerne vil have 1GB pr. TB HDD. Det er noget jeg skal have undersøgt dybere, så hvis du har noget "læse-vejledning" på hånden, der kan linkes til, vil det være super fint.
--
Sidst redigeret 01-01-2018 19:47
#11 inline dedupe kan godt spise RAM, men 1GB/TB tallet er en gammel skrøne, udregningen er noget mere involveret end som så. Hvis du skal fylde din kasse op med musik og film er det en nytteløs feature (på et 24tb volume vinder jeg 400GB ved dedupe, så det er småting formet film/musik setup)
Hvis du skal lagre VM's osv s mer dedupe og CoW ikke en god idé uanset.
Jeg har desværre kun tømmermænd på hånden lige nu, men mit råd ville nok være. Keep it simple.
BTRFS er godt.for fleksibilitet, men raid5/6 har ikke bevist sig stabilt endnu.
ZFS har bevist sig stabilt og du får nem SSD caching med i pakken. Det er ikke særligt fleksibelt hvis du skal skifte diske senere hen.
--
--
Drifter og udvikler 24/7 Datacenter operations om dagen, er supermand om aftenen.
#11:
Jeg bruger et ASUS Prime B250-Plus. Ikke noget specielt.
Min SAS/SATA controller er er flashet med IT firmware der gør til en helt almindelig SAS/SATA controller uden RAID funktion. Jeg købte den på ebay, da jeg kunne læse mig frem til at det er den bedste måde at få 8 SATA porte mere, som også fungere uden problemer i Linux.
Jeg køre ingen form for RAID, hverken software eller hardware. Har en komplet backup af mine data ude i byen.
Håber det besvarer dine spørgsmål.
--
Imo er unRAID i hvert fald et godt valg.
Du får ikke hastigheden fra et striped setup(du får cirka 1 disks performance), men det er bare så convenient ikke at behøve at planlægge ens storage - og du kan tilføje diske af forskellige størrelser. Det eneste er bare at parity disken(e) skal være samme størrelse, eller større end data diskene.
Jeg har quickbox.io kørende i en VM, der hoster diverse apps og plex. Har også en windows VM kørende med passthrough af mit nVidia grafikkort (tester med HW acceleration af Plex).
Fulde setup:
AMD Ryzen 7 1700
Samsung 16 GB - DDR4-2400MHz ECC
ASRock Fatal1ty X370 Gaming X
MSI GeForce GT 1030 LP OC
Corsair CX450
BitFenix Nova - Kabinet
2x 250GB SSD jeg havde liggende som cache/vm storage
4x 4TB WD RED (fra en tidligere NAS)
Valgte Ryzen fordi jeg gerne ville have en del CPU power til at køre diverse ting, samt understøttelse for ECC ram :)
--
Sidst redigeret 01-01-2018 20:10
Jeg har en AIO løsning med ESXI, ZFS (Napp-It) samt diverse VMs (Pfsense, Ubuntu, Windows server, Plex). Den har 6xHDD i Raid-Z2 samt 7XSSD, 1xRaid-Z1 (WMs), 1xStriped (speed) samt 1 bootdisk. Napp-It håndterer alt storage foruden bootdisken.
Xeon E5-2686v3 ES
96GB EEC RAM
Fractal Define R4
Seasonic Platin 660W PSU
--
Jeg lægger en stemme på unRaid også.
Har brugt unRaid de sidste 5-6 år og det er et umådeligt stabilt og robust setup. Man kan køre dockers og VMs ovenpå. Det er korrekt at man "kun" får een disks hastighed men din netværksforbindelse hjemme maxer formentlig ud inden alligevel. Så medmindre dit hjem er meget krævende, tror jeg ikke det er et problem.
Et absolut plus er at community omkring unRaid er enormt aktivt, dygtigt og hjælpsomt. Jeg har endnu ikke oplevet at gå forgæves når jeg er stødt på nogen ting jeg ikke forstod eller skulle have hjælp til.
Udover at det er dejligt at kunne udvide "as-you-go" som Rodael skriver, er unRaid en god løsning da den er ret robust ift at flytte mellem platforme. Jeg har flyttet mit setup henover 4 forskellige mobo og cpu kombinationer uden dikkedarer.
Sidst men ikke mindst er unRaid god til at økonomisere og lukke ned for ting der ikke bruges - diske spinnes ned ved inaktivitet og CPU + RAM krav er ikke afsindige - min tidligere server med Octacore Atom C2750 og 11 diske idlede omkring 40W. Min nuværende med samme antal diske men Xeon E3, Supermicro bundkort og en ekstra disk controller idler ved 66W. Med den slags forbrug kan man godt have serveren på 24/7 uden at smadre budgettet.
--
Jeg har bygget selv:
Jeg startede med:
Kabinet: HFX Powernas (Passivt kølet kabinet med plads til 5 diske)
Bundkort: Asus Z87i-pro
CPU: Intel I7-4770t
RAM: 2 x 8 GB
Operativsystem: Windows med Flexraid installation
5x4TB WD RED i Flexraid opsætning med paritet til 1 disk failure.
Når diskene var spinned ned brugte det 15-20w i idle
Jeg var ikke super tilfreds med Flexraid samt jeg gerne samtidig ville køre noget linux, så jeg besluttede mig for at bygge et setup der havde overskud til ESXI:
Kabinet: Lian Li PC-A17 + 3 x IcyDock MB155SP-B (Giver 15 hotswap skuffer)
Bundkort: Supermicro X10SRi-F
CPU: Intel Xeon E5-2675v3
RAM: 128GB ECC RAM
Indstiksskort: 2 x LSI 9211-8i, 1 x Mellanox ConnectX 3 (LSI kortene er passthrough til Freenas, Mellanox kortet er 10Gbit til hosten)
Harddiske: 8 x WD RED 4TB samt 2 stk SSD.
ESXI med følgende guests: pfSense, CentOS, Freenas og Windows.
Den bruger ca. 60watt idle og ca. 100w når diskene kører
Et setup jeg er rigtigt godt tilfreds med, det er nok svært at få samme ydelse og lavere strømforbrug, så jeg har bare accepteret at det koster lidt at have kørende.
--
#12 Tak for opklaringen :-) Der er lidt videre at læse op på.
#13 Det gør det bestemt. Hvordan forholder det sig hvis en af dine sata porte dør - kan dit storage pool fortsat køre videre, eller ødelægger det hele storage pool'en med det samme?
#14 Har du kunnet få noget performance ud af HW accelerationen med Plex - nok til at det kan betale sig?
Den hurtigste forbindelse herhjemme er 1Gbit, så én disks performance skulle ikke være et issue for nuværende. Jeg tænker det er mere praktisk i det daglige, ikke at være afhængig af én fastlagt storage setup og løbende udvide storage pool'et som jeg får behov.
#15 Hvordan har du fået plads til de mange diske i et Define R4?
#16 Er det mere eller mindre "plug-and-play" at skifte systemet ud, når der køres med UnRaid?
I tilfælde af opgradering eller døde komponenter.
#17 Hvad var det ved flexraid, der ikke var optimalt?
Og kunne du ikke have lavet nogen VMs ovenpå, ift. at få linux funktionaliteten?
Kan se flere af jer har valgt at køre Ryzen - og "almindelige bundkort".
Er det jeres opfattelse, af understøttelsen i softwaren er god nok til at den kan køre stabilt som server?
Og kører I typisk med Hotswap? Den eneste forskel er vel at det er nemmere at holde kabinettet "rent" og nemmere at skifte en død disk.
--
#18 Mener jeg har:
6xHDD raid-Z2 i 6 af de 8 tilgængelige 3.5" slots.
2xSSD raid-Z1 i de sidste 2 af de 8 tilgængelige 3.5" slots.
4xSSD striped i en lille adapter i de øverste 2.5" slots:
1xSSD boot på bagsiden af pladen til Motherboardet
Tror egenlig godt man kunne få plads til yderligere 2xSSD, ved at køre 2xSSD i 2 stk 3.5" slots....
http://i67.tinypic.com[...]
--
Sidst redigeret 02-01-2018 14:39
#18
Det var bare ikke robust op, jeg oplevede bl.a. det ikke gav lyd fra sig hvis en disk fejlede, derudover har jeg oplevet at data bare 'forsvandt' - pludseligt var der filer med 0KB i størrelse uden nogen forklaring fra FlexRAID.
Det skal dog siges at det efterhånden er mange år siden jeg kørte det, og problemerne kan sagtens være løst i mellemtiden.
Jeg kunne godt have kørt Linux i et VM - men det var et ITX board begrænset til 16GB RAM så de fik hurtigt ben at gå på.
Hele idéen med min upgrade var - efter nøje overvejelse - at gå over til FreeNAS.
FreeNAS er meget ram sultent, og skal have ECC ram hvis man skal følge deres anbefalinger, så mine 16GB non-ecc RAM var bare ikke godt nok.
--
#18 - jeg mente i de øverste 5.25" slots.
Se link til pic af adapter
--
0#
Nu da mit behov for storage ikke er så stort længere har jeg dette setup:
1x (ESXi) HP Microserver Gen8 m. XEON E3-1220Lv2(17w tdp), 16GB ECC RAM, HP P222 RAID Controller, 4x Samsung EVO 850 250GB, ILO Pro
1x (Windows Server 2016) HP Microserver Gen8 m. XEON E3-1220Lv2(17w tdp), 16GB ECC RAM, HP P222 RAID Controller, 4x Seagate 8TB, ILO Pro
Til min Windows Server har jeg bestilt en XEON E3-1265Lv2(45w tdp) med Intel QuickSync samt et par cores mere for bedre transcoding i Plex. Skulle gerne komme hjem om et par uger :-)
Jeg har altid været super glad for HP Microserver gen8 og håbede at de ville forsætte i nogenlunde samme stil med Intel CPU'er og måske mulighed for 32GB RAM men nej. Sådan skulle det åbenbart ikke være og de har endda været så frække at fjerne ILO muligheden :S
Venter sådan set bare på at der kommer noget tilsvarende eller måske en gen11 hvor de har rettet ind og igen levere med Intel og ILO.
/mvh
--
IDGAF!
#18: "#16 Er det mere eller mindre "plug-and-play" at skifte systemet ud, når der køres med UnRaid?I tilfælde af opgradering eller døde komponenter."
Stort set - rygraden er diskene og opsætning som ligger på den USB-nøgle du booter fra.
Jeg flyttede senest fra flg.:
AsRock C2750D4I med onboard CPU og 12 SATA porte, samt DDR3 ECC
til:
SuperMicro X11SSM med Xeon E3-1230V6 med DDR4 ECC og en reflashet DELL PERC H310 SATA controller (fordi der ikke var nok native porte på mobo)
Da al BIOS og firmware mv. var opgraderet og testet på det nye mobo og BIOS indstillet til at boote fra USB, flyttede jeg alle diske over og satte USB nøgle til. UnRaid fandt selv ud af resten med hvilke disk-id'er der havde hvilken position i array mv.
--
#19 Ah, naturligvis. Havde ikke lige tænkt på at en adapter fra 5.25" kunne bruges :-) Det lader til at være et fornuftigt kabinet ift. storage muligheder.
Synes generelt ikke der er mange kabinetter (som jeg har kunnet finde), der egner sig til 6+ diske, uden at komme over i et decideret rackmount.
#20 Jeg har godt set på HP Microserver tidligere - men er de ikke relativt låste ift. at opgradere senerehen? Nu kan jeg se du er ved at opgradere CPU, men hvordan med ram eller lign?
#21 Hvordan forløber det sig så, i tilfælde af at USB disken skulle ske at gå til? Kan der laves en backup deraf, så det er til at genskabe hele konfigurationen og starte påny med en ny USB?
Det lyder bestemt som en brugbar løsning med unRAIDgrundet dens fleksibilitet. Om ikke andet, så kan der senerehen udskiftes til et andet system, hvis det skulle være nødvendigt.
Jeg har dog fulgt en del med på LinusTechTips og set at unRAID håndterer VM's ret fornuftigt, og i forvejen har nogen indbyggede "moduler" der kan klare det meste.
--
#24: Hvis man sørger for at have kopi af sin USB stick (hele installationen med OS og konfig filer fylder omkring 300MB) kan denne lægges på en ny USB nøgle og så kører du videre. Eneste krølle er at man lige skal have en ny licensnøgle fra Limetech da den er bundet til USB-nøglens GUID. Det kan faktisk omgåes ved at bruge en USB-baseret SD card reader og så have UnRaid på SD-kortet. På den måde er licensen bundet til readeren og det "slid" der nu er (antallet af læsninger/skrivninger), foregår på SD kortet. Går det til, er det i med en kopi og du kører videre.
--
24#
Altså - Gen8 her kan du skifte RAM(16GB MAX), CPU og montere RAID Controller/HBA og hvis du ikke har brug for mere end 16GB RAM er det også fint.
/mvh
--
IDGAF!
#25
Super fint - så er det ikke værre end som sådan. Tænker ikke det er besværet værd at køre gennem en kortlæser, når det ikke er værre end det :-)
# 26
De 16 GB kan godt blive et problem i længden, men det er da noget der skal opvejes med prisen på maskinen.
Hvis nogen stadig har lyst til at dele deres erfaringer, så endelig skyd løs
- kabinetter til storage brug
- at bruge "almindelig hardware" til serverdrift (eller hvordan Ryzen understøttes ift. stabilitet m.m.)
- Har I oplevet noget, I blev trætte af - eller ville have gjort om, hvis I skulle bygge igen?
--
#27: Jeg bruger et Fractal Design Node 804 som kabinet. Der er plads til 10 stk 3.5" diske i rammer + 1 stk 3.5" i bunden og 2 stk 2.5" under frontpanelet. Det er pænt og diskret og til at betale. Med den udvikling der er i diskstørrelser tror jeg ikke at jeg nogensinde kommer i bekneb da jeg bare opgraderer diske.
Købte på et tidspunkt et Norco med backplanes med plan til 24 stk 3.5" diske - det var et stort skrummel og jeg kom aldrig i nærheden af at bruge alle slots.
--
#22 - Stroyer
Nu bliver jeg lidt nysgerrig angående din Microserver og køb af en Xeon med quicksync - uden at være 100% sikker tror jeg ikke det kommer til at virke med quicksync - da det indbyggede matrox kort ikke kan slås fra - Derved starter din din igpu ikke og derved heller ingen quicksync.
Hvis jeg skulle tage fejl må du meget gerne fortælle(jeg tror det dog ikke).
--
´66 WAS A GREAT YEAR FOR ENGLISH FOOTBALL.
ERIC CANTONA WAS BORN.
Tjah, jeg har selv følgende:
1 x HP Proliant Microserver NEO AMD, med 8gb ram
1 x 250gb (Den fulgte med :) )
1 x 2TB
1 x 4TB
Af software kører der lige pt en xponology 4.1 (ja den burde blive opdateret, men med mit arbejde så er tiden der bare ikke ). Den bruges til torrent, filserver og ikke så meget andet.
Vi købte så hus i april, og har med hjælp af min lillebror, trukket kabler (strøm og net) og forbundet netværket i et 19" rackskab der hænger på væggen i kælderen. Med tiden, så er det planen at der istedet for Hp'en, skal installeres et rackserver kabinet med hardware kraftig nok til at køre virtuelle maskiner.
--
Nej til CENSUR af brugere på hol.
AIO løsning sat op i et proxmox HA - begge servere kører med ZFS :)
services køres i lxc containere.
1- Supermicro Xeon D-1521 32 GB ram 2x Intel Enterprise 400GB SSD + 2x3TB i raid 1 (main node) 10gbit nic
2 - Celeron J1900 med 8 gb ram - 2 x 160 GB consumer SSD (failover node)
ZFS, er genialt og jeg kan kun anbefale du går den vej, Hvilket OS du vælger er op til dig, så længe det er linux/BSD - så ingen Windows eller Synology hvis du vil bruge zfs :)
Proxmox er efter min mening en mere fleksibel løsning, Freenas er zfs pakket pænt ind og er en rigtigt fin mulighed, Ubuntu er også et godt valg men kræver du kan begå dig på terminalen.
Proxmox kan køre en lxc container eller en vm i ren ram uden at røre dine disk. - Jeg lover dig det går stærkt med at servere statiske websites :)
"""MEN, ZFS er ikke uden sine mangler, fordi det er copy on write, kan du opleve skyhøje iowaits, hvis du arbejder med filer som ikke er seq også er der hele historien om ikke at køre med ECC ram, er det til en filserver er det et must. hvilket også gør de fleste synology ikke kan tages seriøst hvis det handler om datasikkerhed.
Ved valg af diske vil jeg på det kraftigste fraråde dig at bruge consumer ssd til cache eller til zfs generelt. f.eks Samsung Evo diske er elendige til zfs.
Hvis du vil køre zfs skal det være på mekaniske diske eller på enterprise ssd.
Husk aldrig at fylde dem mere end 80%
--
"Always bear in mind that your own resolution to succeed, is more important than any other one thing."
29#
Tak for info - Det er jeg med på :-)
MEN vil prøve at se om jeg ikke igennem ESXi kan lave noget passthrough af en eller anden art eller på anden vis se om jeg ikke kan få det til at slå igennem.
Om ikke andet så har jeg da i hvert fald nogle flere cores med højere hastighed uanset :-)
/mvh
--
IDGAF!
#29 lav passthorugh på Matrox'en til et ligegyldigt VM.
--
--
Drifter og udvikler 24/7 Datacenter operations om dagen, er supermand om aftenen.
33#
Kan du uddybe ? :-)
/mvh
--
IDGAF!
Kører ligeledes et G8 setup med 4 diske, og en helt banal Win 10 ovenpå. Alle de gode erfaringer i tråden med UnRaid gør mig dog nysgerrig :)
#34: Har du en god leverandør af Xeon LV CPU'er du kan anbefale? Kunne godt være lun på en 1220lv2!
--
#32
Nu har jeg ikke lige et bundkort med et matrox men med aspeed grafikkort og der får jeg i hvert fald på ingen måde lov til at bruge igpu - det er slået fra med det samme maskinen bliver startet.
Så tvivler på et passthorugh vil betyde noget.
Men fortæl gerne hvis det skulle lykkes :)
Ja plex kan godt få en cpu til at svede, hvis der ikke er nok kerner :)
#35
Lad være med at se dig blind på de der L cpu'er, så stor forskel er der ikke på strømforbruget på dem og de almindelige ikke - Gå efter noget sjovere f.eks. en E3-1230 v2 (den fungere også perfekt i en G8.
--
´66 WAS A GREAT YEAR FOR ENGLISH FOOTBALL.
ERIC CANTONA WAS BORN.
--
Sidst redigeret 04-01-2018 13:42
Min server:
- Chenbro SR-30169 kabinet:
http://www.chenbro.com[...]
- Asus P10S-I bundkort
- Intel E3-1220 V5 CPU
- 8 GB kingston ECC ram.
- 2 x WD red diske
- Seasonic 300 W SFX
Idle strømforbrug 13W / 20W med diskene spundet op
Jeg kører
Debian
- Snapraid til redundans af min BR/DVD samling
- Plex til at serve BR/DVD samlingen, samt diverse optagelser fra kabeltvnettet
- Diverse docker images til list test af forskellige services.
Jeg har været en del "Nas" løsninger igennem, men jeg synes det nemmeste at vedligeholde er en simpel Debian install, og så lære at bruge Linux' guid og uuid.
--
lorem ipsum et dolores #28 - Heylel
Fint kabinet - og samtidig ét der er til at "gemme væk" uden at det fylder som et almindeligt case.
God pointe mht. det store kabinet - jeg havde kort overvejet et rack-kabinet, alene for at kunne udvide, men omvendt så er der nok også lang vej at gå med ét. Så hellere tage den løbende, hvis det overhovedet skulle blive aktuelt med så mange pladser.
#30 - bRi
# 31 - DeXTer_DK
Mine planer er at køre det linux-baseret, om det lige er Freenas eller UnRaid, er jeg ikke helt afklaret med endnu - men hælder imidlertid mest til UnRaid, netop fordi kravene ikke er nær så høje.
Kan du uddybe hvad et "proxmox HA" dækker over?
Kan se flere af jer kører med XEON processorer.
Har de nogen egenskaber (udover flere kerner), som er værd at se efter?
--
39#
Den primære årsag til at vælge en Xeon CPU er at der er understøttelse for ECC ram og så er det jo givet at en rigtig server CPU er bygget til at køre 24/7 - ikke at andre CPU har noget videre problem med det :-)
/mvh
--
IDGAF!
Kører det helt simpelt, ikke så meget "hokus pokus".
Bruger det primært til Plex og backup.
Kabinet: Nanoxia Deep Silence 4 (plads til 6 stk. 3.5" + mulighed for udvidelse i 5.25" bay)
CPU: i7-3770 (genbrugt fra min gamle gamer pc)
MB: Et eller andet tilfældigt billigt
RAM: 16GB
SSD: 120 GB til system
HDD; 2x 3TB WD Green + 1x 6TB WD Red pro
OS: Windows 7
Strømforbrug: omkring 30W idle
--
ASUS Z370-G | i7-8700k @ 5Ghz, H115i | ASUS 1080ti Strix | Corsair 32GB 3200MHz | Samsung 960 Pro + 2 x 850 Pro | Asus 27" G-Sync PG278Q
#34 Hvis du ikke kan 'slippe' af med dit Matrox kort på det VM, så lav Passthrough til et andet VM, så er den ikke med i stacken under VM'et længere.
Evt. så kan du sende iGPU direkte igennem. beklager det korte svar, fang mig i PM hvis det er (du har vidst også mit telefonnummer et sted i dine PM's) så skal jeg se om jeg kan grave frem hvordan jeg selv fik ESXi og Handbrake/Plex til at blive en god oplevelse.
--
--
Drifter og udvikler 24/7 Datacenter operations om dagen, er supermand om aftenen.
#40: "Den primære årsag til at vælge en Xeon CPU er at der er understøttelse for ECC ram og så er det jo givet at en rigtig server CPU er bygget til at køre 24/7 - ikke at andre CPU har noget videre problem med det :-)"
Med Ryzen Pro og et velvalgt mobo er der også ECC understøttelse (selvom AMD ikke ligefrem skilter med det er det ikke låst i CPU'en - det er mobo implementering der afgør om det kan anvendes).
Ex. vis AsRock AB350 Pro4 understøtter ECC sammen med Ryxzen Pro. "Problemet" er at der ikke er så mange deciderede server boards med fx. IPMI, dual Intel NIC osv.
Men hvis et consumer grade board er "nok", slipper man noget billigere om et mobo (AsRock'en ovenfor koster 650,-) og man kan få ECC understøttelse.
--
#39 Det kan du tro, Det fungerer på den måde at man har minimum 2 -til et uendeligt antal servere bundet sammen på en måde sådan at de styres fra samme interface.
De kan i større eller mindre grad (alt efter opsætning) replikere containere/vm's på tværs af noderne i realtime som du kan få den ene server til at tage over hvis den anden fejler. eller bare med et klik flytte en vm til den anden, det er fantastisk smart hvis man f.eks vælger at køre en virtuel firewall eller har services som er kritiske. Det kan også lade sig gøre med filservere, det kræver dog du har meget plads i begge servere, hvilket self ikke er helt så pratisk, :)
Du kan læse en masse om det på
https://www.servethehome.com[...] de kører hele deres miljø på proxmox, som faktisk bare er nogle pakker over på debian. (så alt hvad du kan i debian kan du her)
Kan se der er skrevet en del om ESXI - Bare lige til info så er der noget med at hvis man har mere end 8 kerner i vmware esxi skal man vist op med pengepungen. " for gratis versionen" er begrænset.
--
"Always bear in mind that your own resolution to succeed, is more important than any other one thing." #44 - det er kun hvis du ønsker mere en 8 vCPU pr VM
--
Sidst redigeret 06-01-2018 00:05
ASUS ROG Strix X99 Gaming
i7 5960x
64GB Ram
512GB SSD
5*8TB HDD Seagate ironwolf pro raid 5
2*2TB HDD wd RE raid 0
Intel quad pro 1000 pt
4U 19" kabinet
NZXT X42
Proxmox VE
strømforbruget ligger på ca 130-150w idle, og meget ved load, men den tøffer bare stille og roligt afsted.
den kan kører ca alt jeg smider efter den.
Jeg overvejer kraftigt at smide intel x520 i den og i mine desktops og købe en unifi US-16-XG til at drive det.
--
punktummer, store bogstaver og kommaer kan selv sættes efter behov;)
--
Sidst redigeret 06-01-2018 01:23
#40
Min Ryzen 1700 kører skam også med ECC (2400mhz) ddr4. Det er ikke kun xeon der understøtter det :)
--
47#
Yes :-) Der er AMD ikke så "vanskelige".
Men i forhold til Intel CPU'er så er det desværre blokkeret for andre end XEON :-/ selvom der egentligt ikke er nogen grund til dette lige umiddelbart.
/mvh
--
IDGAF!
44#
Der ville man jo så typisk binde det sammen med et SAN eller hvis man er til vmware vSAN hvor din løsning med diske i de enkelte servere ville være løsningen :-)
Meeeen - så er man over i Enterprise segmentet og ikke "Byg selv NAS - hvad gør I?" - SOHO segmentet.
Der var engang hvor jeg ikke kunne få nok "Enterprise" udstyr hjem i stuen og stå. Nu er jeg blevet noget ældre og er gået en helt del ned på udstyr.
De sjove ting sker nu i stedet på jobbet hvor man endda bliver betalt godt for at "lege" og har det VILDESTE udstyr tilrådighed uden at skulle betale for hverken hardware eller strøm :-)
/mvh
--
IDGAF!
--
Sidst redigeret 06-01-2018 13:33
#44 - DeXTer_DK
Det giver rigtig god mening, og kan være interessant at følge op på.
Jeg tror dog, at det for nu, er overkill at køre over på et node-setup, når det er ren storage (som det primære).
#46 - Zune
Det må være en af de "tungere drenge" du sidder med som hjemmeserver.
Hvad bruger du den primært til, siden du har valgt en så kraftig løsning?
Nu med Meltdown & Spectre, er det måske værd at se, hvor slemt performance hit de reelt får i server-opgaver, og om AMD så i sidste ende er lige så fin at bruge.
Det er vel ikke sådan at AMD har en pandang til Intel XEON?
--
#50 - du har fuldstændigt ret :) - det er rent overkill til et fil-server.
--
"Always bear in mind that your own resolution to succeed, is more important than any other one thing."