- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Cloud als Backup-Speicher


Mit einem Cloud Storage Gateway die Backup-Daten schnell und sicher in der Cloud ablegen
Werden Daten komplett oder teilweise in die Cloud ausgelagert, spart dies zusätzliche Investitionskosten für Storage-Kapazitäten im Backup-Umfeld

Von Herbert Bild, Solutions Marketing Manager, NetApp

(13.01.16) - Rasant wachsende Datenmengen sowie die steigende Abhängigkeit der Unternehmen von ihren operativen Daten setzen die IT-Abteilung gewaltig unter Druck. CIOs müssen daher ihre Strategie für das Datenmanagement den veränderten Realitäten anpassen. Ein mögliches Werkzeug hierfür sind IT-Ressourcen aus der Cloud, die in die Backup- und Storage-Infrastruktur eingebunden werden.

Die IT-Abteilung kann es sich nicht mehr leisten, auf die Cloud zu verzichten. Immer mehr Unternehmen in Deutschland setzen mittlerweile auf diese Technologie. In der Studie "Cloud-Monitor 2015" von KPMG und Bitkom vermelden die Analysten, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie bis zu 78 Prozent der Befragten berichten.

Der ideale Einstieg in die Cloud ist die Nutzung als Backup-Speicher. Heute ist es wichtiger denn je, die operativen Daten schnell und effizient zu sichern. Eine Umfrage der Initiative "Cloud Services Made in Germany" im deutschen Mittelstand hat ergeben, dass bereits 95 Prozent der Industrieunternehmen ihre Geschäftsprozesse ohne operative Daten nicht mehr in der gewohnten Weise ausführen können. Bei 51 Prozent der Unternehmen droht sogar ein vollständiger Stillstand der Organisation, wenn kein Zugriff mehr auf die IT möglich ist.

Trotz dieser Einsicht muss der CIO immer wieder mit der Geschäftsführung diskutieren, ob die angeforderten Investitionen für das Datenmanagement tatsächlich notwendig sind. In diesem Zusammenhang ist vor allem die Frage relevant, ob das Backup in der vollen Fertigungstiefe weiterhin selbst erbracht werden muss. Mit dem Einzug der Cloud in die Unternehmens-IT sowie ständig steigenden Netzwerkkapazitäten zu günstigen Preisen, wird es immer naheliegender, die Cloud in die Backup-Prozesse zu integrieren. So zählt die Datensicherung mit ihren standardisierten und wiederkehrenden Tätigkeiten zu den IT-Leistungen, die ein hohes Einsparpotenzial versprechen. Zudem tragen Aufgaben rund um das Backup nicht zur Wertschöpfung bei und sollten daher weitgehend automatisiert ablaufen.

Pluspunkte für die Cloud
Werden Daten komplett oder teilweise in die Cloud ausgelagert, spart dies zusätzliche Investitionskosten für Storage-Kapazitäten im Backup-Umfeld. Der Cloud-Speicher ist sehr flexibel und nach Bedarf buchbar und wird auch von Dienstleistern angeboten, die ihr Rechenzentrum in Deutschland betreiben. Der Start gelingt sehr einfach, denn außer dem Integrationsaufwand ist lediglich eine leistungsfähige Internet-Anbindung notwendig.

Dennoch gilt es bei der Cloud Computing-Nutzung einige Rahmenbedingungen zu beachten. So müssen sich beispielsweise die Restore-Zeiten nach einem Datenverlust, und damit verbunden ein eventueller Produktionsausfall, in einem Rahmen bewegen, den das operative Geschäft verkraften kann. Wer auf herkömmlichen Weg Backups in die Cloud speichern würde, müsste im ungünstigsten Fall mehrere Delta-Sicherungen einspielen. Je nach Internet-Anbindung und Datenmenge kann dies Stunden bis Tage dauern und schmerzhafte Umsatzverluste nach sich ziehen.

Darüber hinaus sollten die neuen Cloud Computing-Ressourcen für die gesamte IT-Infrastruktur zur Verfügung stehen. Es ist wenig hilfreich, wenn durch die Cloud-Technologien ein neues Storage-Silo im Unternehmen entsteht.

Per Mausklick in die Cloud
Wie ein weitgehend automatisiertes Cloud-Backup ohne größere Umbauten der IT-Infrastruktur gelingt, zeigen Lösungen auf Basis von Cloud Storage Gateways. Diese sind als physische oder virtuelle Maschine verfügbar und übernehmen den Datentransfer der eigenen Backup-Umgebung mit den Cloud-Providern. Ein solches System speichert die von der Backup-Software gelieferten Daten, die aus beliebigen Anwendungen, Datenbanken oder Speicher-Silos kommen können. Diese werden anschließend dedupliziert, komprimiert, verschlüsselt und in beliebigen Cloud-Ressourcen abgelegt.

Der internen IT-Infrastruktur gegenüber präsentiert sich das Cloud Gateway ähnlich wie ein Fileshare auf einem Serverlaufwerk. Für den Zugriff werden Protokolle wie CIFS (Common Internet File System) und NFS (Network File System) verwendet. Somit kann die IT bestehende Abläufe und Software für die Datensicherung direkt weiterverwenden. Dies sichert bereits getätigte Investitionskosten und beschleunigt die Implementierung. Die Lösung eignet sich ideal für den Einsatz in heterogenen IT-Umgebungen, da sich so verschiedene Datentöpfe anzapfen und über ein zentrales Gateway als Backup in die Cloud sichern lassen. Ein weiterer Anwendungsfall ist die Ablösung von VTL-Clustern (Virtual-Tape-Library) oder von herkömmlichen Tape-basierenden Backup-Umgebungen. (NetApp: ra)

NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?

  • File Sharing im Unternehmen: Strategie gesucht

    Um Daten auszutauschen setzen die meisten Unternehmen noch immer auf die gute alte E-Mail, auch wenn diese Technologie offensichtlich nicht mehr auf dem neuesten Stand der Technik ist. Auch das ebenso veraltete FTP ist noch weit verbreitet, wenn es darum geht größere Dateien zu übermitteln. Den IT-Alptraum perfekt machen, intern oft nicht überwachte, File-Sharing-Dienste in der Cloud a la Dropbox & Co. Um striktere Compliance-Vorgaben zu erfüllen und die offensichtlich nicht gegebene Datensicherheit für ihr Unternehmen zu gewährleisten suchen IT-Verantwortliche suchen händeringend nach eine umfassenden Strategie um die genannten, unzuverlässigen Werkzeuge zu ersetzen und somit die Kontrolle über ihre sensiblen Daten zurückzugewinnen.

  • Privacy Shield und die Folgen

    Am 1. August 2016 trat das neue Privacy Shield-Abkommen in Kraft, das für Kunden und Anbieter von Cloud Computing-Services wieder Rechtssicherheit bieten und den transatlantischen Datenfluss wiederherstellen soll. Ob Privacy Shield die Nutzer besser schützen wird als der Vorgänger Safe Harbor wird von vielen Experten jedoch bezweifelt. Auch Subhashini Simha von Thru zweifelt das Abkommen an. Ihre Einschätzung der Folgen von Privacy Shield für Unternehmen hat sie in diesem Artikel zusammengefasst. Demnach benötigen Unternehmen zukünftig mehr denn je Flexibilität ihre Daten im Notfall auch im eigenen Rechenzentrum zu hosten und sie bei sich ändernder Rechtslage aus anderen Regionen abzuziehen.

  • Herausforderungen im Wissensmanagement

    Der Erfolg eines Projekts hängt von vielen Faktoren ab: Unterstützung durch das Top-Management, entsprechende Organisationsstrukturen sowie qualifizierte Mitarbeiter. Zudem spielt Wissen eine wichtige Rolle im Projektmanagement: Welche Methode eignet sich für das Projekt? Mit welchen Maßnahmen lässt sich das Projektziel erreichen? Wie können die Projektanforderungen erfüllt werden? Diese und weitere Fragen müssen Projektleiter beantworten können. Das Problem: Oftmals sind sich diese gar nicht bewusst, was sie und ihre Mitarbeiter wissen oder eben auch nicht wissen. Ein professionelles Wissensmanagement kann das Projektmanagement wirkungsvoll unterstützen, indem es vorhandenes Wissen bündelt, neue Erkenntnisse aufnimmt und alles für zukünftige Projekte verfügbar macht.

  • Unified Communications & Cloud-Kommunikation

    Den Begriff "Unified Communications" (UC) gibt es schon seit vielen Jahren. Er bezeichnet die Integration von Kommunikationsmedien in einer einheitlichen Anwendungsumgebung. Durch die Zusammenführung verschiedener Kommunikationsdienste soll UC die Erreichbarkeit der Kommunikationspartner verbessern und damit die Geschäftsprozesse beschleunigen.