Sie sind hier: Startseite » Markt » Tipps und Hinweise

Reale Gefahr: Totalausfall eines Cloud-Providers


Bewertung von Cloud-Providern – die wichtigsten Fragen vor der Partnerwahl
Unternehmen sind für ihre Daten und ihre Sicherheit am Ende selbst verantwortlich -Denn sind Daten ungesichert, garantiert der Provider keineswegs, dass er sie nach einem Ausfall vollständig wiederherstellen kann


Der mehrtägige Totalausfall eines Cloud-Providers zeigt, wie eng die IT von Firmen mit der Cloud verknüpft sind und wie wichtig die Wahl des richtigen Providers ist. Denn der Effekt der Datengravitation lässt schnelle und leichte Wechsel nicht zu. Je mehr Daten und Dienste ein Unternehmen eines bestimmten Providers nutzt, desto größer ist die Datenlast und desto langwieriger und träger die Migration zu alternativen Angeboten.

Daher lohnt es sich, vorab einige wichtige Punkte zu klären, bevor man sich ewig bindet: Denn der Wahn ist kurz, die Reu ist lang. Die folgenden Fragen helfen Unternehmen, die Cloud Computing-Angebote auf die wichtigsten Punkte zu prüfen, um eine zukunftssichere Wahl zu treffen:

1. Werden alle Workloads unterstützt?
Die Workloads spiegeln die Service-Leistung und Innovationskraft des jeweiligen Providers wider. Gerade bei Digitalisierungsvorhaben ist es entscheidend, dass der Provider bereits wichtige Eckdienste liefert und in seiner Roadmap moderne Module, wie Big Data oder IoT (Internet of Things) ankündigt. Denn der Cloud-Provider sollte der digitalen Transformation auf keinen Fall im Wege stehen.

Folgende wichtige Workloads sollten unterstützt werden:

>> Big Data:
Diese Servicemodule helfen, große Datenmengen schnell auszuwerten und mithilfe von Prognosemodellen neue Erkenntnisse aus den Daten zu gewinnen.

>> Open Source: Der Provider sollte idealerweise neben den kommerziellen auch eine Reihe von Open Source Plattformen einbinden können, damit ein Unternehmen die freie Wahl bei diesen hat. Insbesondere Plattformen wie MongoDB, OpenStack und auf Container basierte Umgebungen wie Docker oder Kubernetes sollten abgedeckt werden, um zukunftssicher zu sein.

>> Hyperkonvergente Infrastrukturen: Der Provider sollte hyperkonvergente Infrastrukturen unterstützen und dem Unternehmen das entsprechende Ankoppeln ermöglichen, damit kritische Daten und Anwendungen möglichst hochverfügbar und ausfallsicher arbeiten können.

>> Hybride traditionelle Anwendungen: Damit Firmen ihre älteren Anwendungen weiterhin betreiben können, sollte der Provider hybride Cloud-Konstellationen unterstützen.

2. Wie klug lassen sich Daten wiederherstellen?
Unternehmen sind für ihre Daten und ihre Sicherheit am Ende selbst verantwortlich. Denn sind Daten ungesichert, garantiert der Provider keineswegs, dass er sie nach einem Ausfall vollständig wiederherstellen kann. Daher sollten Firmen Daten in der Cloud prinzipiell selbst per Backup sichern: Hier lautet das Stichwort "Shared Responsibility".

Wie lassen sich im Ernstfall dann ganze Datenbestände oder nur wichtige Teile wiederherstellen? Der Provider sollte granulare Recovery-Prozesse mit unterstützen, damit ein Unternehmen beispielsweise eine virtuelle Maschine oder einzelne Dateien einer virtuellen Applikation granular zurückholen kann, ohne den gesamten Datenbestand herunterladen und neu aufsetzen zu müssen. Das spart viel Zeit und reduziert den Aufwand enorm. Es muss gewährleistet sein, dass die kritischen Anwendungen und Daten priorisiert rekonstruiert werden können, sodass wichtige Dienste nach einem Totalausfall schnell wieder verfügbar sind.

Damit in diesem Stressmoment möglichst alles reibungslos abläuft, sollten folgende Funktionen vom Cloud-Provider in der Business Continuity beziehungsweise in den Recovery-Plänen mit unterstützt werden:

Automatisierte und orchestrierte Wiederherstellung: So lassen sich ganze, komplexe Multi-Tier Anwendungen per Mausklick vollautomatisch wiederherstellen.

>> One-for-One-Orchestrationen: Hierbei muss ein IT-Verantwortlicher die Schritte mit minimalen Befehlen bestätigen, sodass er weiterhin die volle Kontrolle über den Prozess behält.

>> Testen des Wiederherstellungsplans: Es ist wichtig, diesen Disaster Recovery-Prozess, genauso wie mögliche Migrationsszenarien auf sichere Weise zu testen, ohne dass der Produktionsbetrieb davon beeinträchtigt wird.

>> Herstellerübergreifendes Konzept: Die Recovery-Mechanismen werden gegebenenfalls Anwendungen unterschiedlichster Art auf verschiedensten Plattformen wiederherstellen müssen. Daher ist es essenziell, herstellerübergreifende beziehungsweise unabhängige Disaster Recovery-Mechanismen zu wählen, die die Daten Ende-zu-Ende schützen können.

3. Wie lässt sich Speicherplatz sparen?
Viele Firmen nutzen bereits Deduplizierung in ihren eigenen Backup-Umgebungen, um die Größe der Backups so klein wie möglich zu halten und Speicherplatz zu sparen. Es wäre ideal, wenn der Cloud-Provider diese Form der Deduplizierung ebenfalls unterstützt. So lassen sich Speicher und Bandbreiten schonen, da die Gesamtmenge der zu speichernden Daten verkleinert wird. Eine Option ist es, dass eine Backup- und Recovery-Lösung diese Intelligenz unabhängig vom Cloud-Provider einbringt, sodass eine Multi-Cloud-Strategie ermöglicht wird.

Außerdem ist es wichtig, unterschiedlich performante Speicher anzubieten. Hochperformante, kritische Anwendungen sollten auf höheren, leistungsfähigeren Speichern laufen, während weniger wichtige Daten auf langsameren und günstigeren Storage-Diensten beim Provider abgelegt werden. Auch die Aktualität des Backups spielt bei dieser Bewertung eine Rolle.

4. Wie lässt sich der Überblick über die IT-Infrastruktur behalten?
Wer seine Daten in die Cloud migriert, wird sehr wahrscheinlich für lange Zeit eine hybride Infrastrukturarchitektur pflegen. Die Daten werden im Alltag auf all diese verschiedenen Plattformen verteilt, die untereinander gewisse Abhängigkeiten haben. Es ist wichtig, diese Abhängigkeiten zu verstehen und zu überblicken. Denn fällt eine Komponente aus, ist es möglicherweise notwendig, sofort entsprechende Gegenmaßnahmen einzuleiten. Daher ist es wichtig, die gesamte Infrastruktur, den Datenbestand und den Gesundheitszustand kontinuierlich zu überwachen.

Auf diese Weise lassen sich kritische Situationen, wie der Totalausfall eines Cloud-Providers, gut überbrücken, da Daten und Applikationen gesichert sind und im Idealfall per automatisiertem Disaster Recovery-Prozess alle kritischen Dienste auf die Cloud eines anderen Anbieters übertragen werden. So bleibt das Unglück in einem Rechenzentrum auch nur auf dieses beschränkt. (Veritas Technologies: ra)

eingetragen: 18.08.21
Newsletterlauf: 02.11.21

Veritas Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Private AI verfolgt einen Plattform-Ansatz

    Der Einzug der generativen KI (GenAI) in die breite Öffentlichkeit hat das KI-Wachstum in Unternehmen vergangenes Jahr beschleunigt. Motiviert durch Wettbewerbsdruck und potenzielle Vorteile forcieren Unternehmen und Regierungen ihre KI-Strategie.

  • Mangelnde Vorbereitung auf SaaS-Ausfälle

    Der Hycu State of SaaS Resilience 2024 Report deckte zuletzt kritische Datensicherungslücken auf, da 70 Prozent der Unternehmen Datenverluste erleiden. Trotzdem verlassen sich 60 Prozent immer noch auf ihre Software-as-a-Service (SaaS)-Anbieter, um sich zu schützen, und setzen sich damit weiteren Risiken aus.

  • KI gewinnbringend einsetzen

    Das KI-Potenzial ist praktisch unerschöpflich. Doch um es richtig zu nutzen und daraus echte Wettbewerbsvorteile zu generieren, muss vorab die Bereitschaft des Unternehmens dafür geklärt werden. Der IT-Dienstleister CGI erklärt, warum der Readiness-Check so wichtig ist, was er genau analysiert und was mit den daraus gewonnenen Erkenntnissen passiert.

  • Herausforderungen von Edge AI

    Künstliche Intelligenz hat längst den Netzwerkrand erreicht. Um zeitkritischen Daten den Umweg über die Cloud und das Rechenzentrum zu ersparen, bringen Edge-AI-Lösungen Modelle direkt in die Anwendungen vor Ort. Dieser Weg bietet immense Vorteile - er ist aber auch mit einigen Stolpersteinen gepflastert, wie Couchbase, Anbieter einer Cloud-Datenbankplattform, zeigt.

  • Cloud-Datenschutz im Gesundheitswesen

    Daten im Gesundheitswesen gehören zu den kritischsten Vermögenswerten. Sie umfassen hochsensible Informationen wie Krankengeschichten, Behandlungsunterlagen und persönliche Daten. Der Schutz dieser Daten ist von größter Bedeutung, da sie durch nationale und globale Vorschriften als besondere Kategorien personenbezogener Daten eingestuft werden.

  • Generative KI mit Serverless optimieren

    Der Einsatz von generativer KI kann komplex und teuer sein. Serverlose Cloud-Dienste und Vektordatenbanken bieten eine Lösung, um diese Hürden zu überwinden und KI-Anwendungen effizient und skalierbar zu gestalten.

  • Sensible Daten in der Cloud schützen

    Wenn Unternehmen in der Cloud geistiges Eigentum oder persönliche Informationen verlieren, drohen ihnen erhebliche Konsequenzen. Mit den richtigen Maßnahmen für Datensicherheit in der Cloud können sie zuverlässig Vorsorge treffen. Forcepoint erläutert die fünf wichtigsten davon. Datensicherheit in der Cloud wird für Unternehmen zunehmend zu einem kritischen Bestandteil ihrer IT-Infrastruktur.

  • Dank der Cloud: Flexibilität und Skalierbarkeit

    Cloud-Marktplätze sind heute zu einem unverzichtbaren Dreh- und Angelpunkt für unabhängige Softwareanbieter (ISVs) geworden, um ihre Reichweite zu vergrößern, den Verkaufsprozess zu rationalisieren und Wachstum zu fördern. Erfolg ist jedoch nicht allein dadurch garantiert, dass ein Produkt auf einem Marktplatz gelistet ist.

  • Beste Rendite für Serverinvestitionen?

    Laut Statista schätzen IT-Experten weltweit im Jahr 2024 eine Aufteilung von fast 50/50 zwischen Onsite- und Cloud-gehosteten Servern in ihren Unternehmen. Aufgrund der riesigen Datenmengen und der zunehmenden Nutzung von KI, werden künftig immer mehr Server benötigt.

  • Digitale Transformation kommt nicht ins Rollen?

    Dass die Digitalisierung unaufhaltsam voranschreitet, ist keine Neuigkeit mehr, trotzdem haben bislang viele deutsche Unternehmen den entscheidenden Schritt zur digitalen Transformation noch nicht gewagt. Die Corona-Pandemie hat als Katalysator für einen Digitalisierungsschub gesorgt und viele Prozesse auf den Prüfstand gestellt.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen