Sie sind hier: Startseite » Markt » Tipps und Hinweise

Reale Gefahr: Totalausfall eines Cloud-Providers


Bewertung von Cloud-Providern – die wichtigsten Fragen vor der Partnerwahl
Unternehmen sind für ihre Daten und ihre Sicherheit am Ende selbst verantwortlich -Denn sind Daten ungesichert, garantiert der Provider keineswegs, dass er sie nach einem Ausfall vollständig wiederherstellen kann


Der mehrtägige Totalausfall eines Cloud-Providers zeigt, wie eng die IT von Firmen mit der Cloud verknüpft sind und wie wichtig die Wahl des richtigen Providers ist. Denn der Effekt der Datengravitation lässt schnelle und leichte Wechsel nicht zu. Je mehr Daten und Dienste ein Unternehmen eines bestimmten Providers nutzt, desto größer ist die Datenlast und desto langwieriger und träger die Migration zu alternativen Angeboten.

Daher lohnt es sich, vorab einige wichtige Punkte zu klären, bevor man sich ewig bindet: Denn der Wahn ist kurz, die Reu ist lang. Die folgenden Fragen helfen Unternehmen, die Cloud Computing-Angebote auf die wichtigsten Punkte zu prüfen, um eine zukunftssichere Wahl zu treffen:

1. Werden alle Workloads unterstützt?
Die Workloads spiegeln die Service-Leistung und Innovationskraft des jeweiligen Providers wider. Gerade bei Digitalisierungsvorhaben ist es entscheidend, dass der Provider bereits wichtige Eckdienste liefert und in seiner Roadmap moderne Module, wie Big Data oder IoT (Internet of Things) ankündigt. Denn der Cloud-Provider sollte der digitalen Transformation auf keinen Fall im Wege stehen.

Folgende wichtige Workloads sollten unterstützt werden:

>> Big Data:
Diese Servicemodule helfen, große Datenmengen schnell auszuwerten und mithilfe von Prognosemodellen neue Erkenntnisse aus den Daten zu gewinnen.

>> Open Source: Der Provider sollte idealerweise neben den kommerziellen auch eine Reihe von Open Source Plattformen einbinden können, damit ein Unternehmen die freie Wahl bei diesen hat. Insbesondere Plattformen wie MongoDB, OpenStack und auf Container basierte Umgebungen wie Docker oder Kubernetes sollten abgedeckt werden, um zukunftssicher zu sein.

>> Hyperkonvergente Infrastrukturen: Der Provider sollte hyperkonvergente Infrastrukturen unterstützen und dem Unternehmen das entsprechende Ankoppeln ermöglichen, damit kritische Daten und Anwendungen möglichst hochverfügbar und ausfallsicher arbeiten können.

>> Hybride traditionelle Anwendungen: Damit Firmen ihre älteren Anwendungen weiterhin betreiben können, sollte der Provider hybride Cloud-Konstellationen unterstützen.

2. Wie klug lassen sich Daten wiederherstellen?
Unternehmen sind für ihre Daten und ihre Sicherheit am Ende selbst verantwortlich. Denn sind Daten ungesichert, garantiert der Provider keineswegs, dass er sie nach einem Ausfall vollständig wiederherstellen kann. Daher sollten Firmen Daten in der Cloud prinzipiell selbst per Backup sichern: Hier lautet das Stichwort "Shared Responsibility".

Wie lassen sich im Ernstfall dann ganze Datenbestände oder nur wichtige Teile wiederherstellen? Der Provider sollte granulare Recovery-Prozesse mit unterstützen, damit ein Unternehmen beispielsweise eine virtuelle Maschine oder einzelne Dateien einer virtuellen Applikation granular zurückholen kann, ohne den gesamten Datenbestand herunterladen und neu aufsetzen zu müssen. Das spart viel Zeit und reduziert den Aufwand enorm. Es muss gewährleistet sein, dass die kritischen Anwendungen und Daten priorisiert rekonstruiert werden können, sodass wichtige Dienste nach einem Totalausfall schnell wieder verfügbar sind.

Damit in diesem Stressmoment möglichst alles reibungslos abläuft, sollten folgende Funktionen vom Cloud-Provider in der Business Continuity beziehungsweise in den Recovery-Plänen mit unterstützt werden:

Automatisierte und orchestrierte Wiederherstellung: So lassen sich ganze, komplexe Multi-Tier Anwendungen per Mausklick vollautomatisch wiederherstellen.

>> One-for-One-Orchestrationen: Hierbei muss ein IT-Verantwortlicher die Schritte mit minimalen Befehlen bestätigen, sodass er weiterhin die volle Kontrolle über den Prozess behält.

>> Testen des Wiederherstellungsplans: Es ist wichtig, diesen Disaster Recovery-Prozess, genauso wie mögliche Migrationsszenarien auf sichere Weise zu testen, ohne dass der Produktionsbetrieb davon beeinträchtigt wird.

>> Herstellerübergreifendes Konzept: Die Recovery-Mechanismen werden gegebenenfalls Anwendungen unterschiedlichster Art auf verschiedensten Plattformen wiederherstellen müssen. Daher ist es essenziell, herstellerübergreifende beziehungsweise unabhängige Disaster Recovery-Mechanismen zu wählen, die die Daten Ende-zu-Ende schützen können.

3. Wie lässt sich Speicherplatz sparen?
Viele Firmen nutzen bereits Deduplizierung in ihren eigenen Backup-Umgebungen, um die Größe der Backups so klein wie möglich zu halten und Speicherplatz zu sparen. Es wäre ideal, wenn der Cloud-Provider diese Form der Deduplizierung ebenfalls unterstützt. So lassen sich Speicher und Bandbreiten schonen, da die Gesamtmenge der zu speichernden Daten verkleinert wird. Eine Option ist es, dass eine Backup- und Recovery-Lösung diese Intelligenz unabhängig vom Cloud-Provider einbringt, sodass eine Multi-Cloud-Strategie ermöglicht wird.

Außerdem ist es wichtig, unterschiedlich performante Speicher anzubieten. Hochperformante, kritische Anwendungen sollten auf höheren, leistungsfähigeren Speichern laufen, während weniger wichtige Daten auf langsameren und günstigeren Storage-Diensten beim Provider abgelegt werden. Auch die Aktualität des Backups spielt bei dieser Bewertung eine Rolle.

4. Wie lässt sich der Überblick über die IT-Infrastruktur behalten?
Wer seine Daten in die Cloud migriert, wird sehr wahrscheinlich für lange Zeit eine hybride Infrastrukturarchitektur pflegen. Die Daten werden im Alltag auf all diese verschiedenen Plattformen verteilt, die untereinander gewisse Abhängigkeiten haben. Es ist wichtig, diese Abhängigkeiten zu verstehen und zu überblicken. Denn fällt eine Komponente aus, ist es möglicherweise notwendig, sofort entsprechende Gegenmaßnahmen einzuleiten. Daher ist es wichtig, die gesamte Infrastruktur, den Datenbestand und den Gesundheitszustand kontinuierlich zu überwachen.

Auf diese Weise lassen sich kritische Situationen, wie der Totalausfall eines Cloud-Providers, gut überbrücken, da Daten und Applikationen gesichert sind und im Idealfall per automatisiertem Disaster Recovery-Prozess alle kritischen Dienste auf die Cloud eines anderen Anbieters übertragen werden. So bleibt das Unglück in einem Rechenzentrum auch nur auf dieses beschränkt. (Veritas Technologies: ra)

eingetragen: 18.08.21
Newsletterlauf: 02.11.21

Veritas Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Tipps und Hinweise

  • Optimale Wissensspeicher

    Graphdatenbanken sind leistungsstarke Werkzeuge, um komplexe Daten-Beziehungen darzustellen und vernetzte Informationen schnell zu analysieren. Doch jeder Datenbanktyp hat spezifische Eigenschaften und eignet sich für andere Anwendungsfälle. Welche Graphdatenbank ist also wann die richtige? Aerospike empfiehlt Unternehmen, ihre Anforderungen unter vier Gesichtspunkten zu prüfen.

  • Zugang zu anfälligen Cloud-Hosts

    Zwischen 2023 und 2024 haben laut einer aktuellen Studie 79 Prozent der Finanzeinrichtungen weltweit mindestens einen Cyberangriff identifiziert (2023: 68 Prozent). Hierzulande berichtet die BaFin, dass 2023 235 Meldungen über schwerwiegende IT-Probleme eingegangen sind. Fünf Prozent davon gehen auf die Kappe von Cyberangreifern.

  • Wachsende SaaS-Bedrohungen

    Die jüngsten Enthüllungen über den massiven Cyberangriff von Salt Typhoon auf globale Telekommunikationsnetzwerke sind eine deutliche Erinnerung an die sich entwickelnde und ausgeklügelte Natur von Cyberbedrohungen. Während die Angreifer sich darauf konzentrierten, Kommunikation abzufangen und sensible Daten zu entwenden, werfen ihre Handlungen ein Schlaglicht auf ein umfassenderes, dringenderes Problem: die Unzulänglichkeit traditioneller Datensicherungsmethoden beim Schutz kritischer Infrastrukturen.

  • Einführung des Zero-Trust-Frameworks

    Die Cyber-Sicherheit entwickelt sich mit rasanter Geschwindigkeit, weshalb eine traditionelle Verteidigung den Anforderungen nicht mehr gerecht wird. Moderne Cyber-Bedrohungen bewegen sich inzwischen mühelos seitlich innerhalb von Netzwerken und nutzen Schwachstellen aus, die mit traditionellen Perimeter-Schutzmaßnahmen nicht vollständig behoben werden können.

  • Leitfaden für eine erfolgreiche DRaaS-Auswahl

    Investitionen in DRaaS (Disaster-Recovery-as-a-Service) sind sinnvoll und zukunftsweisend, denn DRaaS hilft den Unternehmen, ihre IT-Systeme und Daten im Fall eines Datenverlusts schnell wiederherzustellen. Allerdings sollte man im Vorfeld eine gründliche Marktanalyse durchführen und sich über die Funktionsweise und Kosten der verschiedenen Lösungen informieren.

  • ERP-Software muss ein Teamplayer sein

    So wichtig ERP-Systeme auch sind, bei der Auswahl der richtigen Lösung und Anbieter gibt es für Unternehmen eine Reihe von Aspekten zu beachten - schließlich bringen nur passgenaue und ausgereifte Systeme auch die erwünschten Vorteile. IFS erklärt, worauf es bei der Suche ankommt.

  • Grundlage für zukunftssichere Rechenzentren

    Rechenzentren sind das Rückgrat unserer digitalen Welt. Betreiber dieser Infrastrukturen stehen dabei vor immensen Herausforderungen: Sie müssen nicht nur den ununterbrochenen Betrieb und höchste Sicherheitsstandards sicherstellen, sondern auch strengere Umwelt- und Effizienzkriterien einhalten.

  • Cloud-basierte Tests

    Mit der Digitalisierung steigt das Datenvolumen und der Energieverbrauch. Daher stehen Unternehmen jetzt vor der Herausforderung, ihre IT nachhaltiger zu gestalten. Auch das Qualitätsmanagement kann dazu einen wertvollen Beitrag leisten, indem es den CO2-Fußabdruck von Software verringert.

  • Was ist der richtige Cloud-Speicher für KMU?

    Verschiedene Arten von Unternehmen haben unterschiedliche IT-Anforderungen. So haben kleine und mittelständische Unternehmen natürlich nicht die gleichen Anforderungen wie große internationale Unternehmen.

  • ITAM on-premises versus Software-as-a-Service

    IT Asset Management (ITAM) schafft die Basis für Cybersecurity, Kostenkontrolle und effizientes IT-Management. Doch vor allem im Mittelstand fehlen häufig Manpower und Expertise, eine ITAM-Lösung inhouse zu betreiben. Software-as-a-Service-Angebote versprechen Abhilfe.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen