Seneste forumindlæg
Køb / Salg
 * Uofficiel Black/White liste V3
Login / opret bruger

Forum \ Software \ Generel software
Denne tråd er over 6 måneder gammel

Er du sikker på, at du har noget relevant at tilføje?

Discord unraid ven

Af Supporter sorenwp | 01-06-2019 09:24 | 1751 visninger | 12 svar, hop til seneste
Hay Så kom dagen hvor jeg fandt ud af jeg ikke har venner nok, har åbenbart slet ikke en enest som ved noget om unraid på min venne liste -.- Venner kommer seleføldig ikke gratis, så bytter gerne din info for en masse info om esxi/vcenter - og ellers er jeg HP server mand, så mangler du en iso eller to så det lige mig du skal have fat i ;) Du velkommen til at add mig :P sorenwp#9815 Det små 3 år siden jeg sidst har leget med unraid, og den gang syndes jeg det kørte.. ja for at sige det lige ud skide godt :D men nu dør unraid hvis jeg overføre for mange ting på samme tid, om det via SMB eller NFS er lige meget, lige så snart der kommer load på svinet så stopper "share" med at virke.
--
#1
MadsFerguson
Elite Supporter
01-06-2019 09:49

Rapporter til Admin
Lidt kækt spurgt: Hvad vil du med Unraid. Hvis du har ESXi ved hånden, så byg en host med noget RDM og en ordenligt *nix distro der kan lave noget software storage til dig? Jeg kørte selv med Unraid for år tilbage, men det er en middle of the road løsning, den gør en masse ting, men ingen af dem sådan _rigtig_ godt. Jeg endte med at eksperimentere en del frem og tilbage og er landet på en ESXi hvor jeg kører noget BTRFS på RDM diske, ved siden af dette kører jeg en docker løsning til de forskellige services der bruger shares på BTRFS volume. Hvis du bare skal i mål med et share du kan skrive til, så er der bedre løsninger. FreeNAS, ZoL, BTRFS, BcacheFS (infancy) osv.
--
Large deployment System Engineer, High Performance Computing specialty.
#2
sorenwp
Supporter
01-06-2019 10:02

Rapporter til Admin
Det en media server, som kun skal køre plex, der for tænkte jeg det var smart med den måde unraid "laver diskene på". fx. 10 disk setup med unraid, der er det jo kun den disk som bliver brugt + parity som er aktiv - hvor ved zfs der er det jo "lige på og hårdt" det enten eller enten køre diskene ellers gør de ikke. Til mange ting vil de kun give alt mulig grund, men til en plex media server, så syndes jeg unraid lyder bedst :)
--
#3
MadsFerguson
Elite Supporter
01-06-2019 10:13

Rapporter til Admin
#2 Hvis målet er at spare strøm. Så køb nogle store enkelte diske istedet. Det lyder som streaming data så de skal nok være tilpas hurtige. Det start/stop helvede du får sat igang med Unraid kommer til at slå dine diske ihjel. Unraid har 1 smart feature (hvis jeg husker korrekt) og det er at du kan sætte noget SSD som read/write pool op som så bliver flushed til spinning disk i løbet af natten (f.eks) Hvis jeg må gøre mig en antagelse her, med 10 diske så har du så meget data at du muligvis deler ud af det? Her kan du ikke styre hvilke diske du læser fra, så er PowerDown ideen skudt i sænk. Hvor meget data har du og hvilke hensyn skal der tages? Strøm, slitage, larm, pris, anything ?
--
Large deployment System Engineer, High Performance Computing specialty.
#4
InFerNo
Guru
01-06-2019 10:16

Rapporter til Admin
Jeg har selv en unraid maskine kørende på 2. år. Kan du fortælle lidt mere omkring dit setup, og softwaren du kører, samt dine share indstillinger. jeg havde selv et problem som dit i starten, men efter de nyere versioner af unraid, er de forsvundet. når dine shares forsvinder, hvor meget data er det så du prøver at overføre? Og hvor meget har den faktisk fået overført?
--
Overclocked Broadwell-E/Pascal Inside!
#5
sorenwp
Supporter
01-06-2019 10:22

Rapporter til Admin
Hvor meget data har du og hvilke hensyn skal der tages? Strøm, slitage, larm, pris, anything ? Lige nu er det bare et test setup, så har ingen data som sådan. - men regner med at det på sigt bliver 12x2tb (da jeg har en masse af dem) Strøm koster det som det koster, men når det er sagt så kan man lige så godt spare hvor man kan. slitage, vil sige det på ingen måden giver mening at køre slid på fx 12x2TB diske, hvis jeg kun kunne nøges med at slide på 2 ang. larm så bliver det smidt i skabet sammen med alt andet udstyr, så det ikke et problem. pris gratis.. - det enest jeg vil bruge penge på er på unraid og så som sagt strøm, alt andet udstyr har jeg i gemmerne.
--
#6
sorenwp
Supporter
01-06-2019 10:40

Rapporter til Admin
@InFerNo Det ser enlig ud til det virker bedre i dag, end det gjorte i går. Test setup unraid køre som VM under esxi 6.7u2 med 8core 4gb ram, et HP SC08Ge (passthrough) og så til den første og bedste ledig disk shell i skabet (som lige pt køre med 24x1TB 7k SAS) i mit test setup har jeg taget 2 disk som parity, og pga jeg er doven 2 disk some cache (ved godt det ikke er ssdér) og så der så de 20 diske tilbage.. - mange diske ja, men for at test det hele (hvordan unraid virker i dag) så vil jeg heller have 10 diske for meget end for lidt. Køre SMB og NFS på unraid, og har mount min test share som både SMB og NFS på en win 2016 server. Overføre jeg en fil af gangen er der ingen problem med værken SMB eller NFS, men lige så snart jeg tager en mappe med lets say 100gb og sætter den i gang, så dør baby efter ca 5 min. overføre jeg igemmen SMB, er det kun som dør, NFS'en går ikke ned. - og den anden vej rundt. Man skulle tro det et "for mange request" timeout et eller andet, men får ingen fejl eller noget.
--
#7
Stroyer
Elite Nørd
01-06-2019 11:27

Rapporter til Admin
0# Jeg legede ganske kort med Unraid og besluttede mig for at der måtte være noget bedre på markedet. Mine krav var egentligt ikke særlig store men alligevel blev Unraid for "baah" for mig. Har du overvejet Xpenology som et alternativ til Unraid? /mvh
--
IDGAF!
#8
Rodael
Elitebruger
01-06-2019 11:29

Rapporter til Admin
Har aldrig oplevet at smb går ned på min - men der er en indstilling når du skal lave mange writes: Settings - disk settings - tunable(md_write_method), sæt den til reconstruct write. Sæt den til auto når du er færdig :) Medmindre du har et stort (ssd) cache array foran, giver det væsentlig hurtigere writes.
--
Evolv mATX | ax860i | 9900k | 4x8gb trident z rgb 3200mhz | Asus z390m tuf | RTX 2080 ti | 1tb evo 970 | 1tb crucial mx500 | Acer X34A
--
Sidst redigeret 01-06-2019 11:30
#9
sorenwp
Supporter
01-06-2019 12:14

Rapporter til Admin
Til alle, det som om at efter jeg har givet den 8core i stedet for de 4 jeg havde i starten, så køre det hele enlig meget bedre. - har kun oplevet SMB hoppede af 2 gange i dag. @Stroyer Vil jo bare gerne have den måde unraid laver sit array på :P @Rodael køre som sagt med "cache" på 2 sas diske, ved godt det ikke er "vejen frem", men som test burdte det da virke :P prøver lige at lege med tunable(md_write_method)
--
#10
MadsFerguson
Elite Supporter
01-06-2019 14:06

Rapporter til Admin
Det giver ikke mening at du har brug for 8 cores for at trække smb/nfs. hvordan ser din processliste ud når du presser den på maven ? ps: Hvis cache pool funktionen er det som tiltaler dig, så kig på BcacheFS. Jeg kommer til at migrere mit BTRFS setup derover, du får native tiering og et backend filsystem som er afprøvet (Bcache)
--
Large deployment System Engineer, High Performance Computing specialty.
#11
sorenwp
Supporter
01-06-2019 16:48

Rapporter til Admin
tror heller ikke det de 8 core som gør det, men det, det enest jeg har lavet om siden i går - og det køre som sagt meget bedre i dag XD log: http://oneclickpaste.com[...]
--
#12
Stroyer
Elite Nørd
01-06-2019 17:18

Rapporter til Admin
9# Ja - på papiret ser det da meget smart ud men i praksis synes jeg det er møj hamrende sløvt når der er bedre alternativer tilgængelige. Jeg har testet en smule på det men blev hurtigt træt af det og derfor faldt valgte på en anden løsning for mit vedkommende. /mvh
--
IDGAF!

Opret svar til indlægget: Discord unraid ven

Grundet øget spam aktivitet fra gæstebrugere, er det desværre ikke længere muligt, at oprette svar som gæst.

Hvis du ønsker at deltage i debatten, skal du oprette en brugerprofil.

Opret bruger | Login
NYHEDSBREV
Afstemning