Sie sind hier: Startseite » Markt » Tipps und Hinweise

Frei zwischen den Clouds bewegen


Warum sich erst bei einer Cloud-Exit-Strategie der Wert der Daten voll entfaltet
DSGVO-Anforderungen: Zugang und Datenschutz führen in die Hybrid Cloud


Von Peter Wüst, Senior Director of Emerging Solutions & Innovation Group EMEA bei NetApp

Was haben 6Wunderkinder und Snapchat gemeinsam? Beide sind erfolgreiche Startups, die fest an einen Cloud Service Provider gebunden sind. 6Wunderkinder mit ihrer App Wunderlist setzte auf AWS. Microsoft kaufte später die Aufsteigerfirma. Die App wurde in der AWS Cloud entwickelt und ist stark mit den Services verbunden und ihre Daten lassen sich nicht einfach zu Microsoft Azure verschieben. Bei Snapchat kann sich Google zurücklehnen. Denn das seit 2017 börsennotierte Unternehmen zahlt satte 400 Millionen US-Dollar im Jahr dafür, dass es die Cloud Computing-Plattform von Google nutzt. Auch beim Instant-Messaging-Dienst vergaß man, einen möglichen Cloud-Exit am Anfang in die Strategie mit ein zu beziehen.

Unternehmen bleiben flexibel und bewahren sich ihre Unternehmensfreiheit, wenn sie in der Lage sind, Daten zwischen den Hyperscalern zu bewegen. Sie geraten nicht in die Falle eines Vendor-Lock-in. Erhöht ein Cloud Computing-Anbieter die Preise, können sie im Zweifel zum kostengünstigeren Dienst wechseln. Eine Strategie zum Cloud-Exit – dem Clexit – zahlt sich aus, um den Weg von der Private Cloud in die Public Cloud – oder umgekehrt – zu gehen. Nötig ist zudem die Fähigkeit, auch innerhalb unterschiedlicher Clouds verschiedener Anbieter Daten flexibel hin- und herzuschieben. Zu all dem ist ein einheitliches Datenformat der Schlüssel.

DSGVO-Anforderungen: Zugang und Datenschutz führen in die Hybrid Cloud
Eine Hybrid Cloud stellt für viele die einzig reale Option dar, skalierbare wie kostengünstige IT-Ressourcen aus der Cloud zu beziehen. Schließlich sitzen nicht alle Unternehmen an einem Cloud-Hotspot, weshalb viele mit Netzwerklatenzen und Signallaufzeiten zu kämpfen haben. Millisekunden an Verzögerungen reichen aus, um Anwendungen zu verlangsamen, was wiederum Nutzern mehr Geduld abverlangt, die nicht alle aufbringen.

Ein Unternehmen sollte aber nicht nur aus diesem Grund gut überlegen, welche Anwendungen und Daten es in die Cloud verschiebt. Insbesondere die Datenlocation gewinnt entscheidend an Bedeutung, um die EU-Datenschutz-Grundverordnung (DSGVO) bis Mai 2018 umzusetzen. Der regelkonforme Umgang mit personenbezogenen Daten von EU-Bürgern schließt ein, zu entscheiden, welche Daten das Land oder das Gebäude beziehungsweise überhaupt das eigene Netzwerk verlassen dürfen.

Wer beispielsweise eine gesetzeskonforme Auftragskette in einem Drittland etablieren will, hat Transparenz zu schaffen. Es muss klar sein, wo Daten über EU-Bürger aus Kunden- und Lieferantendatenbanken oder HR-Systemen gespeichert und verarbeitet werden. Gefahren für Datenschutzverstöße bergen zudem Informationen, die Nutzer über Cloud Computing-Dienste teilen. An der Stelle empfiehlt es sich, ein ausgereiftes Überwachungstool wie NetApp OnCommand Insight einzusetzen. Das deckt Vendor-übergreifend automatisiert Unregelmäßigkeiten auf und macht das Nutzen von IT-Ressourcen transparent. So ist das Tool in der Lage, Zugriffsrechte zu klären.

Die Lösung für die nötige Flexibilität und DSGVO-Konformität liegt für viele Unternehmen in einer Hybrid- und Multi-Cloud. In der Hybrid Cloud betreibt eine Anwenderfirma eine eigene Cloud Computing-Infrastruktur, die sie je nach Bedarf durch Rechenleistung, Speicherplatz oder andere Services von einem Public Cloud-Anbieter ergänzt. Eine Multi Cloud zeichnet sich dadurch aus, dass ein Unternehmen mehrere Cloud-Anbieter – wie etwa Amazon, Oracle, Microsoft, OpenStack und VMware – für verschiedene Anwendungen nutzt.

Einheitliches Verwalten von Plattformen
Erst mit einer vollständigen Datenportabilität zwischen den Clouds lassen sich Cloud wie Daten voll nutzen. Dem steht jedoch die Praxis entgegen, dass Cloud Service Provider eigene Plattformen, Protokolle und Technologien einsetzen. Nur durch die Clexit-Fähigkeit gelingt es, schnell die Daten an den richtigen Ort zur richtigen Zeit zu bringen. Einheitliches Managen, Übertragen und Formatieren von Daten reduziert hierbei den Aufwand drastisch. Standardisiertes Übertragen ist die Basis, um unkompliziert Daten zwischen Clouds der jeweiligen Applikationen zur Verfügung zu stellen.

Ein einheitliches Datenformat beschleunigt das Bereitstellen, denn das Anpassen der Anwendungen an die Umgebung entfällt. Mit der NetApp Data Fabric erhalten Anwenderfirmen genau die zentrale Datenmanagement-Plattform, die sie brauchen, um verschiedene Clouds – seien es interne im eigenen Rechenzentrum, bei einem Service Provider gemanaged oder bei einem Hyperscaler wie AWS, Azure, SoftLayer oder anderen – miteinander zu verbinden und echte hybride Clouds zu bauen.

Die Frage nach dem perfekten Cloud-Einstieg stellt sich heute nicht mehr. Wer an skalierbarer, flexibler und kostengünstiger Konsistenz interessiert ist, beschäftigt sich bereits beim Einstieg mit dem Clexit. Das Ausstiegszenario gehört zwingend in eine umfassende Cloud-Strategie, die man entwickeln muss, bevor die erste Anwendung in die Cloud verlagert wird. Solch ein Vorgehen verhindert, sich in die Abhängigkeit von einem Hyperscaler zu begeben.

Im klassichen Datacenter sind regelmäßige Disaster-Fall-Tests zwingend notwendig, um sicherzustellen, dass im Falle eines Falles die Verfügbarkeit der IT Dienste gewährleistet bleibt. In der Cloud Welt müsste ein Clexit regelmäßig getestet werden. (NetApp: ra)

eingetragen: 14.11.17
Home & Newsletterlauf: 04.12.17


NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Was Unternehmen beachten müssen

    Künstliche Intelligenz gehört für immer mehr Unternehmen ganz selbstverständlich zum Geschäftsalltag dazu. Insbesondere die generative KI (GenAI) erlebt einen Boom, den sich viele so nicht vorstellen konnten. GenAI-Modelle sind jedoch enorm ressourcenhungrig, sodass sich Firmen Gedanken über die Infrastruktur machen müssen. NTT DATA, ein weltweit führender Anbieter von digitalen Business- und Technologie-Services, zeigt, warum die Cloud der Gamechanger für generative KI ist.

  • SAP mit umfassender Cloud-Strategie

    Für die digitale Transformation von Unternehmen setzt SAP auf eine umfassende Cloud-Strategie. Hier bietet SAP verschiedene Lösungen an. Neben der SAP Public Cloud, die sehr stark auf den SME-Markt zielt, bedient die Industry Cloud als Kombination aus Private Cloud und industriespezifischen Cloud-Lösungen eher den LE-Markt.

  • Warum steigende IT-Kosten das kleinere Übel sind

    Es gibt Zeiten, in denen sind CIOs wirklich nicht zu beneiden. Zum Beispiel dann, wenn sie der Unternehmensführung wieder einmal erklären müssen, warum erneut höhere Investitionen in die IT nötig sind. Eines der größten Paradoxe dabei: Kosten steigen auf dem Papier auch dann, wenn eigentlich aus Kostengründen modernisiert wird. Der Umstieg vom eigenen Server im Keller in die Cloud? Mehrkosten. Neue SaaS-Lösungen?

  • Optimierung von Java-Workloads in der Cloud

    Cloud-Infrastrukturen versprechen Skalierbarkeit, Effizienz und Kostenvorteile. Doch um Engpässe zu vermeiden, überprovisionieren viele Unternehmen ihre Cloud-Kapazitäten - und bezahlen so oftmals für Ressourcen, die sie gar nicht nutzen. Wie lässt sich das ändern? Ein zentraler Hebel ist die Optimierung von Java-Workloads in der Cloud. Cloud-Infrastrukturen bringen viele Vorteile, aber auch neue Komplexität und oft unerwartet hohe Kosten mit sich. Bei vielen Unternehmen nehmen Java-Umgebungen und -Anwendungen große Volumina in gebuchten Cloud-Kapazitäten ein, denn Java gehört noch immer zu den beliebtesten Programmiersprachen: Laut dem aktuellen State of Java Survey and Report 2025 von Azul geben 68 Prozent der Befragten an, dass über 50 Prozent ihrer Anwendungen mit Java entwickelt wurden oder auf einer JVM (Java Virtual Machine) laufen.

  • Wer Cloud sagt, muss Datensouveränität denken

    Die Cloud hat sich längst zu einem neuen IT-Standard entwickelt. Ihr Einsatz bringt allerdings neue Herausforderungen mit sich - insbesondere im Hinblick auf geopolitische Risiken und die Gefahr einseitiger Abhängigkeiten. Klar ist: Unternehmen, Behörden und Betreiber kritischer Infrastrukturen benötigen eine kompromisslose Datensouveränität. Materna Virtual Solution zeigt, welche zentralen Komponenten dabei entscheidend sind.

  • Fünf Mythen über Managed Services

    Managed Services sind ein Erfolgsmodell. Trotzdem existieren nach wie vor einige Vorbehalte gegenüber externen IT-Services. Die IT-Dienstleisterin CGI beschreibt die fünf hartnäckigsten Mythen und erklärt, warum diese längst überholt sind.

  • KI-Herausforderung: Mehr Daten, mehr Risiko

    Künstliche Intelligenz (KI) revolutioniert weiterhin die Geschäftswelt und hilft Unternehmen, Aufgaben zu automatisieren, Erkenntnisse zu gewinnen und Innovationen in großem Umfang voranzutreiben. Doch es bleiben Fragen offen, vor allem wenn es um die Art und Weise geht, wie KI-Lösungen Daten sicher verarbeiten und bewegen. Einem Bericht von McKinsey zufolge gehören Ungenauigkeiten in der KI sowie KI-Cybersecurity-Risiken zu den größten Sorgen von Mitarbeitern und Führungskräften.

  • Sichere Daten in der Sovereign Cloud

    Technologie steht im Mittelpunkt strategischer Ambitionen auf der ganzen Welt, aber ihr Erfolg hängt von mehr als nur ihren Fähigkeiten ab. Damit Dienste effektiv funktionieren, braucht es eine Vertrauensbasis, die den Erfolg dieser Technologie untermauert und eine verantwortungsvolle Speicherung der Daten, Anwendungen und Dienste gewährleistet.

  • Integration von Cloud-Infrastrukturen

    Cloud-Technologien werden zum Schlüsselfaktor für Wachstum und verbesserte Skalierbarkeit über das Kerngeschäft hinaus - auch bei Telekommunikationsanbietern (Telcos). Auch hier ist der Wandel zur Nutzung von Produkten und Dienstleistungen "On-Demand" im vollen Gange, sodass Telcos ihre Geschäftsmodelle weiterentwickeln und zunehmend als Managed-Service-Provider (MSPs) und Cloud-Service-Provider (CSPs) auftreten.

  • Acht Einsatzszenarien für Industrial AI

    Artificial Intelligence (AI) entwickelt sich zunehmend zur Schlüsselressource für die Wettbewerbsfähigkeit der deutschen Industrie. Doch wie weit ist die Branche wirklich? Laut einer aktuellen Bitkom-Befragung setzen bereits 42?Prozent der Industrieunternehmen des verarbeitenden Gewerbes in Deutschland AI in ihrer Produktion ein - ein weiteres Drittel (35?Prozent) plant entsprechende Projekte.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen