Det skal siges at der sidder 384gb ram i hver maskine og target lager er almindelige 7200 omdrejninger hdd på server 2. Der sættes en ssd som cache i server 2 og der bruges StableBit drivepool.
--
Sidst redigeret 23-12-2022 03:53
Er det nødvendigt at lave en fuld backup hver gang eller kan du måske nøjes med at kun overføre ændringer?
--
#3 - præcis - ellers bliver det jo nærmest umuligt.
Also .. FIRE TERABYTE DATA!? Jeesus, jeg har set ret projekttunge ingeniørhuse med hele filservere fyldt med kundedata, som fylder en fjerdedel af det.
--
"ORK SATME!"
Jeg vil nok kigge på rsync
--
#0
Hvilken slags VM-løsning/Hypervisor anvender du?
--
Hej #0
Du skriver virtuelle servere, men du nævner data og ikke OS
er det et kopi af data eller er det en backup af den virtuelle server med data?
Hvis vi tager at det bare er dataen du er ude efter, så kommer det an på hvilket OS du kører, rsync, robocopy eller andre sync tools er oplagt til dette og så køre det som en task hved x time.
hvis du er ude efter fuld OS backup af host eller VM, så ville en gratis veeam være oplagt, her kan du dog ikke tilgå data på share.
Det er et krav at server 2 tilgås som Shared mappe? Er dette for at du kan lave backuppen eller er det i tilfælde af at server 1 er nede at data skal være tilgængelig?
jeg har lige flyttet en større datamængte i Azure fra en filserver, det tog flere uger for at få data i sync, derefter kører det på få timer da 99% af data ikke ændre sig dagligt/ugentligt.
Så hvis du bare kan få kopien igang, så er det kun til at starte med at de 1GB ikke er nok i hastighed.
/Fido-dk
--
4# 4 TB er altså ikke særlig meget...
--
#8
Det kommer meget an på hvilken slags data vi taler om. 4TB er rigtig meget i de fleste erhvervssammenhæng.
#0
Afhængigt af hvilken hypervisor mm. du bruger, kan du måske kigge på et SAN
Du kan jo kigge på en (Storage Area Network) løsning. Du kan også for sjov, kigge rundt på nettet efter billige FC-kort på 10 til 40Gbit og så lave et direkte peer to peer netværk mellem dine servere. Men jeg ved ikke hvordan dit setup er sat sammen eller hvad du helt specifikt ønsker.
Hypervisors har også indbygget systemer som sørger for at alt data er repliceret korrekt. Hvis man bare kopiere store VM-filer, så bliver det meget svært for f.eks. Windows ikke bare at kopiere alle filer hver gang, da Windows ikke kan se ind i filerne og derfor bare ser en ny fil hver gang der er den mindste ændring.
--
#8 - nej, jeg har da også 4TB SSD plads på min gaming-rig, men hvis det bare er *data* (incl en håndfuld VMs) - så er det pænt meget.
Men det ændrer jo så ikke opgaven. Det virker bare voldsomt at skulle backuppe 4 TB hver dag. Det må jo være fordi der potentielt set er ændringer i de 4TB data *hver dag*. En ting er at der kommer lidt nyt til, men.. forhåbentlig ligger al data på selvstændige drev.
Selv hvis det bare var til hjemme-pirat-film-brug.. og man havde 4 TB gamle actionfilm liggende - så behøver man jo ikke backe de samme film op hver dag. De ligger der jo, og har nok ligget der i årevis. Strømregningen alene giver mig kuldegysninger!
--
"ORK SATME!"
0#
Incremental copy-job via Veeam Backup & Replication
Community Edition (Gratis)
https://www.veeam.com[...]
Der er jo ingen grund til at flytte bits som ikke er blevet ændret.
--
IDGAF!
--
Sidst redigeret 23-12-2022 10:24
Generalt
Der er tale om en fuld backup af både data og vm. Jeg bruger proxmox og denne er istand til at lave en differential backup, men for nemhedens skyld ønsker jeg en fuld backup.
Min backupplan ser således ud :
Fuld backup hver nat i en uge samt jeg gemmer en backup for hver uge i en måned.
Når der er lavet en fuld backup på den lokale maskine laves der en diffential cloud backup fra denne maskine.
Svar
Hver time laves der en backup af ændringer. Den del har jeg styr på - men vil gerne lave en fuld backup af både data og vm's om natten.
Der er tale om hovedsageligt SQL databaser - hvoir de største af dem vokser med 100gb data om dagen.
Jeg tænker at lave en peer to peer forbindelse mellem de to maskiner. Derfor tænkte jeg på en usb 3.2 eller 4.0 løsning. Det er en forholds bilig løsning at lave hvis det fungerer rent teknisk.
--
#13: Køb nogle billige mellanox fiber netkort med 10 Gbit og så nogle dac kabler. Det er vist standard svaret for en billig forbindelse imellem to computere. Må det koste mere, så kan du vel købe to 10 Gbe ethernetkort, og så forbinde dem direkte med et cat6 kabel.
Husk:
https://www.uschamber.com[...]
--
lorem ipsum et dolores
--
Sidst redigeret 23-12-2022 11:44
I Proxmox har du mulighed for Replication, hvis begge server er i samme cluster. Jeg er forholdvis ny til Proxmox, så jeg har ikke større erfaring med hvordan Prox håndtere databaser. Ligesom backup løsningen du køre med, skal den være application aware/eller stoppet/slukket - ellers risikere du at få korrupt database.
Hvordan har du sat din backup op? Er det tilstrækkeligt kun at lave snapshot, eller lukker du serveren helt ned for at lave backup'en (suspend/stop)?
1Gbit giver teoretisk 9 timers overførselstid. Er det nok? Ellers må du opgradere med 2.5Gbit eller 10Gbit. Det afhænger af din servers muligheder.
Hvis det er homelab, kan du evt. købe 2x USB nics. Et 2.5Gbit koster 200, så har du en løsning til 400, der giver 4-5timer overførsel. Da der bruges TCP, er data ok. Men aldrig noget jeg vil anbefale til produktion :)
--
Gæstebruger, opret dit eget login og få din egen signatur. Som #13 er inde på.
Det kan nok gøres for 800-1000 kr i udstyr (2x kort og DAC kabel) 10 Gbps
Hvis portene på begge er USB4/thunderbolt så mener jeg man man tilsluttet de to direkte men hinanden og kan sætte det op til at fungere som "IP/ethernet over thunderbolt" -10 Gbps
Alternativt et "PC-to-PC data transfer cable" med USB3. Koster vel omkring 400 kr. Så vil begge enheder vidst være devices og kablet agerer "host" imellem dem så data kan overføres - ca 5 Gbps
Førstenævnte er nok det bedste og sikreste/gennemtestede. Løsning nr to billigst men kræver enhederne har de rette porte og den sidstnævnte er nok den billigste men også med laveste hastighed.
Eller er der jo billige 2.5 Gbe pcie kort til 600 i alt for to kort og så en 20er for et ok CAT netværkskabel.
--
Sidst redigeret 23-12-2022 12:22
#12 Kører du med ZFS i Proxmox? I så fald kan du bruge ?"zfs send recv" kombineret med zfs snapshots. Det giver en "samlet" kopi af data på din
backup server og ikke en masse inkrementelle backups som skal strikkes
sammen ved restore.
Første overførsel kommer stadig til at tage lang tid, men efterfølgende er det kun nye ændringer som transmitteres -
så 1 gigabit er mere end rigeligt.
Hvis du kører et Proxmox cluster kan det konfigureres i UI under "Replication". Men det kan også
sagtens gøres over SSH til en helt anden maskine eller NAS som kører
ZFS.
--
Gæstebruger, opret dit eget login og få din egen signatur.