Kommer jo an på hvad den skal bruges til, hvis det er til at opbevarer gamle danskstile så de billigste SATA du kan finde.
--
2600K|Maximus IV Extreme-Z|16GB Ram
2xGainward460GTX GS SLI|BenQXL2410T&M2700HD
OCZ Vertex2&3 120GB|CorsairGT 120GB
2xSamsung830 128GB|4x1TB&4x2TB
oh sorry det skal bruges til alt hvad du gemmer på din computer, backup, og vm ca 15stk.
--
Hvad med WD Red fx? De er lavet til NAS/Raid og koster mindre end de "rigtige" enterprise diske.
--
http://www.l0rn.nu[...] ja men der er jo ikke kun prisen det handler også om performance
--
jeg har læst mig frem tager sas
--
#5 Godt valg når du også skal køre virtuelle maskiner.
--
*GA-Z68X-UD7-B3*i7-2600K*ASUS 580 directcuii*ForceGT*
*8GB 1600Mhz HyperX*Corsair HX850W*Corsair H100i
*Filco Majestouch 2*
Lidt off-topic:
Jeg synes dog det er lidt synd at du bruger så utroligt mange penge på performance dele, såsom bundkortet, ram, cpu'er osv osv osv.. og så bruger du hot-swap bays i kabinettet som kun understøtter SATA-2/SAS1.0 ?????
Kan også anbefale at bruge ZFS i stedet for hardware raid, det har nogle fordele som hardware raid ikke har.
--
Kæmpe oprydnings salg: http://salg.ssdata.dk[...]
All-around linux blog: http://dev-random.net[...] jeg har set det med kassen skifter den ud hvad fordele har zfs? har tænkt på at bruge freenas
--
Får du nogle sinde sat gang i nogle af dine vilde projekter eller er det udelukkende drømme?
--
Bazinga!
Problemer med en Admin/Moderator? Spørgsmål vedr. en tråd/et indlæg? - Send en mail til undertegnede.
FFHAU!
#10 ofc jeg har en del server hardware efter hånden
--
ZFS kan du bla. bruge SSD'er som cache, hvilket giver et kæmpe performance boost.
Eller hvis strømmen går, eller din server på en måde crasher skal hardware raid til at rebuilde hele raided (Tjekke om alt data er som det skal være), og dette kan tage tid især nu hvor du har 10TB rå data, i den tid serveren gør det er performance langt oppe i røven.
ZFS skal ikke rebuilde ved crash og performance er som det altid har været lige fra når du er startet op igen.
Hvis din server går HELT i knæ, lad os sige der går ild i bundkortet og begge CPU'er, RAM osv går i stykker også. eller måske disken hvor OS'et og alt konfiguration ligger på går ned og du har ingen backup af det (Dog diskene med data ikke fejler noget), så kan du:
1. Tage alle diskene med data ud som køre i dit ZFS raid
2. Sætte dem i en hvilken som helst anden server der har ZFS installeret (Rækkefølgen er ligegyldig) det behøver heller ikke være samme hardware eller samme raid controller, bare de bliver sat til alle sammen.
3. lave en "Import" af dit ZFS raid, og WUPTI så har du det hele kørende igen men på nyt hardware, ZFS finder selv ud af at finde de rigtige diske igen ved at læse noget data på alle diskene og importere raided ud fra det
Bare de 3 ting har gjort at jeg valgte ZFS raid i stedet for hardware eller anden software raid.
Har selv en FreeNAS 8 boks kørende, med 8x500GB i ZFS "raid 10" med 2 SSD'er til cache, har her 7 VM's kørende på, både windows og linux, og andre småting uden problemer. Det er på en gammel dual-core maskine med 8GB ram.. og den idle næsten kun, den laver intet og diskene er kun hårdt belastet når der bliver taget backup om natten.
Eneste ulæmpe jeg lige har kunne finde ved ZFS er at det bruger en del RAM.. en tommelfinger regel siger "1 GB RAM til system. og +1GB pr 1TB rå diskplads."
Men come on, RAM er sgu så billigt at det kan næsten være ligegyldigt :)
--
Kæmpe oprydnings salg: http://salg.ssdata.dk[...]
All-around linux blog: http://dev-random.net[...] http://www.youtube.com[...]
kunne ikke lade vær :P
--
Acer Aspire V5-471PG
|Windows 7 64-bit|Intel Core i3 @1.5GHz|
|8GB DDR3 @665MHz|500GB Western Digital|
|Intel HD 3000|NVIDIA GeForce 710M| #13
Det er endda en meget gammel version han køre det på. de er ved version 28 nu som er stable efter hvad jeg kan huske.. mener det han demonstrere der er version 13, hvilket ikke har ssd cache eller andet fancy gøjl.
Tilføjelse til #12
En anden god ting jeg lige kom til at tænke på med ZFS da jeg var til frokost, er at der kan ikke ske "Silent corruption" med ZFS.
Da ZFS laver et "Scrub" engang imellem for at tjekke om data er som det skal være på alle diske, dette gør den ikke på alt displadsen, men kun på det der er brugt så det tager for det meste ikke lang tid. mit setup gør det med 300 MB/s og det er på en gammel dual-core.
Ved hardware raid, hvis en bit på en måde bliver flipped, altså at noget data bliver ugyldigt, vil det blive skrevet til alle diskene i raided og det vil ikke blive opdaget før du prøver at læse filen men får noget udgyldigt data.
Det er lidt bøvlet at forklare i en kort besked, men prøv at læs lidt om det på nettet, der er et hav af informationer om det :)
--
Kæmpe oprydnings salg: http://salg.ssdata.dk[...]
All-around linux blog: http://dev-random.net[...] tilføjelse til #14
Kom til at tænke på en ting mere :)
Hvis en disk brænder af i hardware raid, og du skifter den. skal den genskabe alt data INKL. pladsen der ikke er brugt fra dens andre diske..
I ZFS, skal den kun genskabe det plads der er brugt = at skifte en disk går hurtigere.
--
Kæmpe oprydnings salg: http://salg.ssdata.dk[...]
All-around linux blog: http://dev-random.net[...] GlusterFS ser også ret spændende ud.
SAS skal kun bruges hvis du vil op i 10k+ RPM harddiske, ellers er det SATA.
Afhængig af hvilket software du vil køre, kan det være en fordel at købe SATA controllere i stedet for en RAID controller, da du alligevel vil lade f.eks. GlusterFS eller ZFS styre dit RAID.
Mht CPU, er det helt overdrevet, medmindre du planlægger at køre en masse applikationer direkte fra serveren?
--
Reference salgstråde:
http://www.hardwareonline.dk[...]
http://www.hardwareonline.dk[...] #0
Må man spørge hvad du bruger alt dit udstyr til? for det er da næppe til privat ?:)
--
´66 WAS A GREAT YEAR FOR ENGLISH FOOTBALL.
ERIC CANTONA WAS BORN.
privat test lab bliver det brugt til kan i komme op med noget det er næsten lige så godt men billiger?
--
Skal du bruge så meget storage plads?
Hvorfor ikke købe en controller med mulighed for ssd cache evt.?
Hvad med at lave et raid 10 setup til dine vm filer og et raid 5 eller 6 til dit backup/storage - det plejer normalt ikke at kræve ligeså meget throughput som vm's gør.
hvor mange vm hosts har du? - har du overvejet infini band i stedet?
Er det ikke lidt overkill med RAM? - Burde 32gb ikke være fint?
Overvej at køb et supermicro motherboard i stedet med IPMI. Det vil du blive glad for i længden.
--
:)
jeg har besluttet mig for at køre freenas med zfs jeg vil gerne have vide nogen flere muligheder om det skal være raid controller eller sata controller hvad vil være bedst regner med at gå efter raid 50
--
processoren understøtter da kun en processor, eller hvad?
--
Hvis du alligevel vil køre ZFS, så kan du ligeså godt bruge en disk controller i stedet for raid
--
:)
#21 ved ikke helt hvad du taler om?
--
okay nogen der vil linke nogen gode sas/sata controllere?
16port+
--
35k for et build hvor du hverken aner hoved eller hale?
Du skal ikke bruge 2 fysiske CPUer til lidt software raid/NAS/SAN build. Nymodens CPUer kan klare paritetsberegning med næsten intet kraft.
Når du kører ZFS, så behøves du ikke at spilde penge på RAID controllers, du skal bare bruge nogle SATA controllere. Det gode her er også at med software raid så kan du smide diskene i hvilket som helst setup på hvilke som helst controllere, det kan du ikke med HW (som kan blive dyrt/besværligt hvis din RAID controller failer).
Nu er det lidt uskarpt her i tråden om hvilke diske du vælger, men mht. RAM så lær følgende om ZFS:
4 GB skal bruges som standard til systemet, derudover skal du have 1 GB ram for hver 1 TB storage, dvs. et givent setup i raid 5 med 12 diske (11 TB) skal du bruge 15 GB ram. Folk der underdimensioner RAM har kæmpe performance problemer, specielt hvis de gør brug af deduplication m.m. Men der er heller ingen grund til at smide 64 GB i maskinen nu, hvis du kun skal bruge 1/5 af det.
Er der en grund til at du vil køre RAID 50? Hvis du er interesseret i performance ville jeg langt hellere over på RAID 10.
--
på r710 skal der køre en vm som er min pfsense box
--
monster400
Det ser ud til at du skifter som vinden blæser, uden hverken at læse eller besvare kommentarer.
Jeg, inkl. mange andre, kan nok slet ikke forsvare at blive ved med at pege dig i den rigtige retning, da vi helt sikkert vil føle en hvis uansvarlighed ved at lade en person med din manglende viden indkøbe udstyr til SAN/NAS for så mange penge, som både er fuldstændigt overdimensioneret men også helt forkert.
Jeg undskylder på forhånd, men jeg vil ikke længere hverken kommentere eller følge denne tråd.
Held & lykke.
PS. Du kan ikke købe Server 2012 R2 endnu, det er kun ude for Technet subscribers osv., jeg har en Hyper-V host med det og det spiller bare.
--
For fanden Monster400, køb en 12-bay Qnap og en stak WD SE diske. Den er rimelig kraftig og understøtter iSCSI til din VM server, du spilder totalt tiden med at rode med byg selv.
--
Du vil brænde 35k af til et VMware lab til 15 VM's? Du har for mange penge og bruger dem helt forkert kære ven. Jeg ville selv ringe til diverse leverandøre og få et tilbud. De har noget mere ekspertise inde for området og flere resourcer at trække på.
Hvis du endelig er stædig og stadig vil sammensætte en server selv, vil jeg sige det er uklogt. Du kan ikke lave de samme beregninger der skal til, for at bygge en gennemtænkt server. Så du vil derfor sammensætte hardware i blinde og kan risikere at stå med et flop eller betale for meget for for lidt ydelse.
Held og lykke med projektet :)
--
3GHz i3 540, 8GB DDR3, 64GB SSD, 16TB @ Highpoint 2680 controller, Samsung 24' FullHD LED + Lenovo Edge 11 lappy