Backup in Wolkenkuckucksheim?

Verfasst von Stefan Schachinger am 02.01.2016 - 08:58

Wenn es in der IT-Abteilung einen Praktikanten gab, war er es früher, der die Sicherungsbänder wechselte und regelmässig zu einem Banktresor fuhr. Backup war mühevoll und aufwändig und immer erst im Nachhinein wichtig. Disk-basierte Sicherungen haben in den letzten Jahren viel an dieser Situation geändert. Die Cloud bietet nun ganz neue Chancen und Optionen - aber nur, wenn man es richtig macht.

Gastbeitrag von Stefan Schachinger, Consulting System Engineer bei Barracuda

Durch Backup-Lösungen, die mit der Cloud vernetzt sind, ist die Sicherung für den Katastrophenfall möglich, ohne dass ein Administrator täglich oder auch nur wöchentlich Hand anlegen müsste. Doch auch die schöne neue Welt des Disk- und Cloud-basierten Backups hat ihre Tücken. Rechtlich ist es in der Schweiz unverzichtbar, einen lokalen Anbieter zu wählen. Die technische Achillesferse ist die Bandbreite: Die in fast allen Unternehmen exponentiell wachsende Datenmenge steigert Kosten bei der Internetanbindung und der Netzwerkinfrastruktur. Üblich ist ausserdem nach wie vor ein Backup über Nacht mit dem Backup-Fenster zwischen Betriebsschluss am Abend und Betriebsbeginn am Morgen. Dieser Zeitraum ist zum Versenden von Backup-Daten in die Cloud oftmals zu knapp.

Wochenlang Daten aus der Cloud zurückholen?

Es ist also nicht so, dass man herkömmliche Backup-Architekturen einfach belassen könnte und den Speicherplatz dafür in der Cloud statt vor Ort bereitstellt. Das wird klar, wenn man den Katastrophenfall durchdenkt: Es würde in vielen Fällen Wochen dauern, um Terabytes von Daten über eine Internet-Verbindung zurückzuholen.

Zunächst ist daher festzuhalten, dass, Cloud hin oder her, für Unternehmen, die auf ihre Datensicherheit und Geschäftskontinuität Wert legen, an einem lokalen Backup auch in Zukunft kein Weg vorbeiführt. Eine lokale Backup-Appliance sorgt für schnelles und bequemes Recovery für Alltagsfälle: Einzelne Daten und Ordner, die versehentlich gelöscht oder überschrieben wurden, lassen sich mit heutigen Appliances innerhalb von wenigen Minuten wiederherstellen. Ein solcher Recovery-Job, der zur Zeit der Backup-Bänder wegen des hohen Aufwands allenfalls murrend für das Top-Management durchgeführt wurde, kann selbst von ungeübten Administratoren mit wenigen Mausklicks durchgeführt werden. Das Cloud Backup kommt erst ins Spiel, wenn Primärdaten und lokale Backup-Daten gleichzeitig verloren gehen, also im "Disaster"-Fall.

Private Cloud on premises oder mit Dienstleister

Wer sich für ein Backup in der Cloud interessiert, muss keineswegs eine Public Cloud nutzen. Man kann sich vielmehr mittels geeigneter Appliances eine Private Cloud selbst aufbauen oder eine geschlossene Cloud bei einem IT-Dienstleister des eigenen Vertrauens nutzen. In beiden Fällen kommen mehrere Backup-Appliances zum Einsatz, die zusammen die Private Cloud bilden. In der Schweiz wählen Unternehmen in der Regel lokale Dienstleister. Das bietet Nähe und Vertrauen und schafft Rechtssicherheit.

Eine Selbstverständlichkeit sollte heute die Datenverschlüsselung sein, zum Beispiel mit HTTPS/SSL bei der Übertragung und AES 265-bit bei der Speicherung. Und damit der Datentransfer in die Cloud nicht die Netzwerk-Performance und die Internet-Konnektivität der geschäftskritischen Applikationen einschränkt, nutzen heutige Lösung inkrementelle Datensicherung und Inline-Deduplizierung.

Inkrementelle Datensicherung bedeutet, dass immer nur die geänderten oder neu dazugekommenen Daten gesichert werden. Nur einmal zu Beginn wird ein Voll-Backup genommen, danach heisst es: „Incremental forever“. Inline-Datenverifizierung stellt sicher, dass alle Daten des Backups vollständig und nutzbar sind, so dass es nicht mehr nötig ist, regelmässig ein Voll-Backup zu nehmen und darauf neu aufzubauen. Dies wäre bei den heutigen Datenmengen und im Rahmen des Cloud Backups auf Dauer nicht mehr praktikabel. Der inkrementelle Ansatz bietet als weiteren Vorteil auch eine Versionshistorie. Das heisst, Backup-Administratoren können ohne Medienbruch auch Daten mit einem Stand von vor mehreren Monaten oder Jahren abrufen.

Deduplizierung – aber bitte inline

Auch Deduplizierung ist ein sehr wirkungsvolles Tool für die Reduzierung der übertragenen Datenmenge von Backups. Auf diese Weise fallen zum Beispiel bei identischen Betriebssystemen auf vielen gesicherten Geräten sehr viele Daten weg. Früher üblich war eine Deduplizierung auf dem Speicherziel. Doch dann sind die Kosten bereits entstanden: Wenn die Daten erst in voller Grösse auf das Speichermedium geschrieben werden, muss ein Unternehmen auch Bandbreite und Speicherplatz wie für die nicht-deduplizierten Daten vorhalten. Dass sich die Datenmenge hinterher wieder reduziert und Platz auf dem Speicher frei wird, ist ein geringer Trost. Zudem dauert es bei Post-Process-Deduplizierung, länger, bis die Daten wirklich bereit für die Data Recovery sind.

Das Konzept der Inline-Deduplizierung sorgt dagegen von vornherein für geringeren Bandbreiten- und Speicherbedarf. Ein Agent auf der Datenquelle, zum Beispiel dem Server, errechnet für jeden Datenblock einen einmaligen Hash-Wert. Diesen sendet der Agent an die lokale Backup Appliance, die ihn wiederum mit den schon vorhandenen und verarbeiteten Daten vergleicht. Wenn der Wert einzigartig ist, fordert die Appliance den Block an; ist er eine Dublette, legt die Appliance nur einen kleinen "Pointer" an. Das Gleiche passiert in der Kommunikation zwischen den lokalen Backup Appliances, die möglicherweise an verschiedenen Unternehmensniederlassungen stehen, und der zentralen Instanz in der Cloud oder Private Cloud. In jeder Aggregationsstufe nehmen nur die neuen und einmaligen Datenblöcke Bandbreite, Backup-Zeit und Speicherplatz in Anspruch. Aktuelle Technologien nutzen für die Datenverifikation ebenfalls den Hash-Wert, so dass Inline-Deduplizierung und Inline-Datenverifikation Hand in Hand gehen.

Cloud-to-Cloud Backup

Doch Cloud Backup hat nicht nur den Aspekt des Backups in die Cloud, sondern auch den, des Backups aus der Cloud. Da immer mehr Unternehmen dazu übergehen, Daten schon als Primärdaten in SaaS-basierenden Cloud-Umgebungen zu verlagern, ist es unabdingbar, auch hier die gleiche Datensicherheit zu gewährleisten und für ein Backup zu sorgen. Dies ist das sogenannte Cloud-to-Cloud Backup.

Einige Hersteller von Backup-Lösungen beginnen, gängige Cloud-Speicher in ihre Lösungen zu integrieren. IT-Administratoren können so zum Beispiel Office-365-Umgebungen über eine sichere Verbindung direkt zum Cloud Backup sichern und unabhängig von Microsoft verlorengegangene Daten wieder zugänglich machen. Ein weiterer Vorteil ist, dass sie dann auch für diese Dateien eine Revisions-Historie besitzen.

Die wichtigste Funktion des Backups in der Cloud, genauso wie jeder anderen Form der Datenreplikation an einem entfernten Standort, ist Disaster Recovery. Wenn Daten sowohl auf dem Primärspeicher als auch auf der Appliance verloren gehen, zum Beispiel wegen einer Naturkatastrophe, eines Brands oder einer Explosion, sind alle Daten aus der Cloud wieder herstellbar. Der Standardprozess ist die Bestellung eines Ersatz-Modells für die lokale Backup Appliance. Im Regelfall trifft in der Schweiz die Ersatz-Appliance am nächsten Werktag ein und fängt dann sofort an, die Daten über das Internet aus der Cloud wieder herunterzuladen und parallel die lokalen Server und Clients wiederherzustellen. Die Appliance ist also das Gateway zwischen der Cloud und den eigentlichen Zielen der Datenwiederherstellung.

Vollständig bespielte Ersatz-Appliance für Disaster Recovery

Alternativ kann der Betreiber der Backup-Cloud das Ersatzgerät zu sich bestellen, die Daten vor Ort auf die neue Appliance spielen und diese dann physisch zum Anwenderunternehmen bringen. Dies kann sich bei sehr grossen Datenmengen lohnen, um schneller wieder alle Daten vollständig vor Ort zu haben. Der Nachteil ist jedoch, dass die Wiederherstellung on Premise pausiert bis die bespielte Ersatz-Appliance eintrifft. Abhängig von der Datenmenge dauert dies in der Regel 48 Stunden bis 72 Stunden.

Um einen solch langen Zeitraum zu überbrücken, kann jedoch eine weitere Option helfen, die nur durch Cloud Backup möglich ist. Kern der Idee: Die Daten werden nicht heruntergeladen, sondern den Anwendern unmittelbar in der Cloud zugänglich gemacht. Hier gibt es im Wesentlichen zwei Möglichkeiten:

1. Der Cloud-Betreiber kann die Daten direkt in ein Enterprise File Sync and Share (EFSS) Angebot einspeisen. Dann können Anwender über das Internet mit ihrem Computer, Tablet oder Smartphone auf Daten zugreifen oder Teile davon synchronisieren. Dies ist unter anderem dann eine interessante Variante, wenn durch das „Disaster“ die Arbeitsplätze im Geschäftsgebäude oder die Clients nicht nutzbar sind, und Mitarbeiter von Ersatzbüros oder von zu Hause arbeiten. Die im EFSS geänderten Dateien werden ebenfalls in der Cloud gespeichert und im Rahmen der Recovery in ihrer aktuellsten Fassung wiederhergestellt.

2. Eine zweite Variante ist die Wiederherstellung und Inbetriebnahme von virtuellen Maschinen direkt in der Cloud. Dies geht bei manchen Cloud-Backup-Systemen mit wenigen Mausklicks und bietet neben der Funktion für Disaster Recovery auch Vorteile für Migrationen und Sandbox Testing. Administratoren können die virtuelle Maschine booten und ihr eine öffentlich zugängliche IP-Adresse zuordnen, so dass sie von aussen verfügbar ist. Mit der Installation eines VPNs kann man Clients einen sicheren Zugang zur virtuellen Maschine geben. Somit stehen Dateien, Verzeichnisse und Applikationen auf dieser Maschine wieder für die Mitarbeiter zur Verfügung. Auch in diesen Fällen werden veränderte Daten direkt in der Cloud gespeichert und beim Recovery der eigentlichen IT-Infrastruktur berücksichtigt.

Katastrophensicheres Backup Management in der Cloud

Backup und Disaster Recovery in der Cloud und aus der Cloud sind spannende neue Trends, doch noch in einem dritten Bereich der Datensicherung bietet die Cloud erhebliche Vorteile - nämlich beim Management der Backups. Klar: Ist das Kontrollzentrum als Weboberfläche oder normale Software auf der lokalen Appliance angesiedelt, wäre es im Katastrophenfall zusammen mit den Backup-Daten zerstört und unzugänglich. Dies ist tatsächlich heute der Regelfall. Durch die räumliche Trennung von Appliance und Management bleibt das Managementsystem dagegen intakt und kann von anderen Orten erreicht werden. Selbst in grossen Unternehmen mit vielen Niederlassungen können einige wenige Administratoren das gesamte Backup weltweit - und nötigenfalls die Recovery an jedem Standort - steuern.

Starke Sicherheitsverfahren

Zu diesem Zweck braucht die Backup-Architektur als weiteren Bestandteil der Wolkenlandschaft ein zentralisiertes, webbasiertes Verwaltungscenter. Um die Sicherheit vor Fremdzugriffen zu gewährleisten, benötigen die Systeme sehr starke Sicherheitsverfahren. Dazu gehören rollenbasiertes Management, eine verschlüsselte Kommunikation durch einen VPN-Tunnel, Multifaktor-Authentifizierung und Einschränkungen der IP-Adressen, die auf das Kontrollzentrum zugreifen dürfen.

Dass Unternehmen beim Backup vollständig auf die Cloud setzen, dürfte aufgrund der Datenmenge und der Recovery-Zeit die Ausnahme bleiben. Die Recovery von einer lokalen Appliance ist schneller und ausserdem bildet diese das Gateway, das für eine effiziente Kommunikation mit der Cloud-Instanz notwendig ist. Für das Backup in der Cloud müssen besonders hohe Sicherheitsstufen gelten. Aber gleichzeitig gilt: Die Verbindung mit anderen Funktionen, wie File Sync and Share, Virtualisierung und VPNs, sorgt für erstaunliche Optionen im Katastrophenfall, mit der heute auch kleinere Unternehmen einen fast unterbrechungsfreien Geschäftsbetrieb erreichen können.