For eksempel kan en typisk e-mail-system indeholder 100 forekomster af den samme 1 MB vedhæftet fil. Hvis e-mail-platformen er bakket op eller arkiveret, er alle 100 forekomster gemt, der kræver 100 MB lagerplads. Med data deduplikering, kun én forekomst af den vedhæftede fil faktisk gemt; hver efterfølgende instans blot refereres tilbage til en gemt kopi reducere opbevaring og båndbredde efterspørgsel til kun 1 MB.
De praktiske fordele ved denne teknologi, afhænger af forskellige faktorer som: - Point of Anvendelse: Source Vs målret- ansøgningstidspunktet: Inline vs Post-Proces- nøjagtighed: Fil vs Sub-fil niveau-algoritme: fast størrelse blokke Vs variabel længde datasegmenter Denne artikel er den første i en serie, der vil forsøge at forklare, hvordan hver af disse faktorer definerer succes for et pc-backup. Target Vs Kilde-baserede Deduplication Target-baserede deduplikering virker på målet datalagring medier. I dette tilfælde er klienten er umodificeret og ikke bekendt med nogen deduplikering.
Den deduplikering Motoren kan indlejres i hardware array, der kan anvendes som NAS /SAN enhed med deduplikering kapaciteter. Alternativt kan det også blive tilbudt som en selvstændig software eller hardware apparat, der fungerer som mellemled mellem backup server og storage arrays. I begge tilfælde er det forbedrer kun storageudnyttelsen. Tværtimod Kilde-baserede deduplication virker på dataene ved kilden før dens flyttet. En deduplikering bevidst backup agent er installeret på klienten, der bakker op kun unikke data. Resultatet er forbedret båndbredde og lagring udnyttelse.
Men, dette medfører ekstra beregningsmæssige belastning på backup klient. Blandt de bedre produkter PC backup-software, der bruger source-baserede data deduplication er DruVa InSync. Få en gratis prøveversion i dag på https://www.druva.com/insync/pc-backup