- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Multi Cloud Sourcing


Von Wolke zu Wolke: Umfassende Lösung zur Umsetzung einer idealen Sourcing-Strategie
Multi Cloud Sourcing erlaubt eine praktisch beliebige Kombination von Services verschiedener Public Cloud-Provider

Autor Lars Göbel
Autor Lars Göbel Um sich aus dem breiten Angebot an Cloud-Services die optimalen Lösungen herauszusuchen und diese mit der eigenen Infrastruktur zu verbinden, ist ein gewisser Aufwand nötig, Bild: Darz

Von Lars Göbel, Leiter Vertrieb und IT Services bei Darz

(10.02.16) - Die Vorteile von Cloud Computing sind inzwischen bekannt: hohe Flexibilität und Skalierbarkeit zu genau kalkulierbaren Kosten. Doch wer Dienste von mehreren Anbietern nutzt, steht schnell vor einem Problem. Er muss die nötigen Informationen jedes Mal neu übertragen, wodurch unterschiedliche Datenbestände und Mehraufwand für das Management entstehen können. Ein einfaches Springen von Wolke zu Wolke ermöglicht Multi Cloud Sourcing.

Für viele Unternehmen ist die Hybrid Cloud attraktiv. Sie kombiniert Skalierbarkeit mit Effizienz und verspricht zusätzlich Kostenersparnisse. Denn die Kunden müssen keine teuren Kapazitäten für Spitzenzeiten bereithalten, die im Rest des Jahres nicht genutzt werden. Zudem vermeiden sie Management- und Aktualisierungsaufwand. Betrachtet man die verfügbaren Angebote genauer, werden aber deren Grenzen deutlich sichtbar. Die Architekturen sind häufig nicht sehr flexibel und trennen die Speicherebenen innerhalb und außerhalb des Unternehmens zu strikt voneinander. Dadurch wird meist nur mit erheblichem Migrationsaufwand ein Datenaustausch zwischen den einzelnen Infrastrukturen möglich.

Dies führt im Bereich Public Cloud schnell zu einem Vendor Lock-In, also der Abhängigkeit von einem Hyperscaler. Das sind Public Cloud-Anbieter wie Amazon Web Services (AWS), Microsoft Azure oder IBM Softlayer. Sie nutzen eine verteilte Umgebung, womit sie sowohl die Datenmenge als auch den Bedarf für bestimmte Workload-Typen zu geringen Kosten exponentiell erhöhen können. Durch den Zugriff auf verschiedene Hyperscaler wären zwar Einsparungen möglich, doch diese werden in der Praxis häufig durch den Aufwand für die Datenmigration aufgehoben.
Einen Weg aus dieser Zwickmühle ermöglicht Multi Cloud Sourcing. Damit lassen sich verschiedene Hyperscaler miteinander kombinieren. So entsteht eine umfassende Lösung zur Umsetzung einer idealen Sourcing-Strategie, zum Beispiel aus Komponenten von Microsoft Azure in Verbindung mit Bestandteilen aus IBM Softlayer sowie aus der Private Cloud oder Colocation-Systemen. Dadurch können Unternehmen frei entscheiden, bei welchem Public Cloud-Provider sie welche Dienste einkaufen, zum Beispiel für die Umsetzung einer Disaster Recovery-Lösung oder zur Abfederung von Spitzenzeiten bei Online-Shops.

Beliebige Kombinationen
Multi Cloud Sourcing erlaubt also eine praktisch beliebige Kombination von Services verschiedener Public Cloud-Provider. So lässt sich auf einfache Weise eine Lösung realisieren, die den individuellen Bedürfnissen eines Unternehmens optimal entspricht. Der entscheidende Unterschied zur bisherigen Hybrid Cloud ist dabei, dass sich die Kunden nicht mehr auf einen Hyperscaler festlegen müssen. Stattdessen erhalten sie eine echte multiple Lösung mit höchstmöglicher Skalierbarkeit und Flexibilität.

Dieser Ansatz eignet sich insbesondere für Unternehmen mit großen Schwankungen bei den Auslastungen ihrer Systeme. Dazu gehören zum Beispiel Finanzinstitute, Einzelhändler oder Medienhäuser. Aber auch Firmen, die zahlreiche verschiedene Applikationen einsetzen, profitieren von Multi Cloud Sourcing. Die damit erreichbaren Vorteile bei Kosten und Skalierung erhöhen sich in der Regel mit der Größe des Unternehmens. Doch auch Mittelständler und Start-ups können deutliche Effekte erzielen. Denn die Kombination mehrerer Hyperscaler ermöglicht eine optimal angepasste IT-Lösung, ohne eine eigene IT-Infrastruktur aufzubauen oder aufrecht zu erhalten. Stattdessen bleibt mehr Zeit für die Konzentration auf das Kerngeschäft.


Vorbereitungen
Unternehmen müssen jedoch einige Vorbereitungen treffen, bevor sie von Multi Cloud Sourcing profitieren. Im ersten Schritt ist zu klären, ob das Unternehmen überhaupt konkrete Gründe besitzt, Private und Public Cloud Computing-Services verschiedener Anbieter miteinander zu kombinieren. Für welche Einsatzszenarien oder Geschäftsprozesse ist dies nötig? Dabei ist auch zu klären, welche Anforderungen für Performance, Skalierbarkeit, Verfügbarkeit, Compliance und Sicherheit sowie andere Parameter zu erfüllen sind und welche Abhängigkeiten und Zusammenhänge es innerhalb der bestehenden IT-Infrastruktur gibt.

Aus der Analyse und Konzeption der benötigten sowie gewünschten Prozesse ergibt sich eine genaue Zielkonfiguration. Diese ist mit Hilfe einer detaillierten Marktübersicht mit den verfügbaren Funktionen und konkreten Anforderungen der Cloud-Dienste verschiedener Hyperscaler und Public Cloud-Provider abzugleichen. Die Unterschiede zwischen ihnen sind dabei zum Teil erheblich. Dies gilt sowohl für die Breite ihres Angebots als auch ihre Interpretation der einzelnen Servicemodelle.

Unterschiedliche Angebote
Die wichtigsten Merkmale können in drei Kategorien eingeteilt werden: Produktbreite, Performance-Klassen und Workload-spezifische Zielgruppen. Bei der Produktbreite bieten beispielsweise Microsoft Azure und AWS die gesamte Palette von Infrastructure-as-a-Service (IaaS) über Platformas-as-a-Service (PaaS) bis zu Software-as-a-Service (SaaS). Dagegen konzentrieren sich VMware und IBM Softlayer auf IaaS und teils auf PaaS.

VMware stellt zahlreiche unterschiedliche Performance-Klassen für sämtliche Bedürfnisse von Unternehmen bereit. Demgegenüber konzentriert sich AWS auf flexible Infrastruktur-Dienste. Bei den unterstützten Workloads und Anwendungen gibt es ebenfalls erhebliche Unterschiede zwischen den Providern. Entsprechend müssen Unternehmen die verschiedenen Services genau analysieren, um den optimalen Nutzen aus Multi Cloud Sourcing zu gewinnen.

Herausforderung und Chance
Dies ist gleichzeitig Herausforderung und Chance. Denn aktuell gibt es keine Möglichkeit, eine Kombination dieser sehr unterschiedlichen Angebote auf einfache Weise zusammenzustellen, um die individuellen Anforderungen zu erfüllen. Somit können Unternehmen auch nicht sofort Multi Cloud Sourcing nutzen. Stattdessen müssen sie zuerst die bereitstehenden Angebote mit den zugehörigen Eigenschaften wie SLAs, IT-Sicherheit, Datenschutz, Preismodelle und mögliche Exit-Strategien verstehen. Dies bietet aber auch die Gelegenheit, noch einmal die eigenen Vorstellungen und Kapazitäten anhand der verfügbaren Cloud-Services zu überprüfen sowie eine wirklich optimale, flexible Konfiguration zu entwickeln.

Anschließend hat das Unternehmen festzulegen, welche Komponenten es mit eigenen Ressourcen umsetzen kann und welche es als Cloud-Dienstnutzen möchte. Da Multi Cloud Sourcing die Komplexität der Infrastruktur erhöht, ist dabei genau zu prüfen, ob die erzielbaren Vorteile den dazu nötigen Aufwand für die Implementierung rechtfertigen. Erst dann können sie entscheiden, ob sie überhaupt Multi Cloud Sourcing benötigen.

Die Umsetzung
Im nächsten Schritt folgt die technische Umsetzung. Dazu müssen Unternehmen zuerst die vollständige Kontrolle über die eigenen Daten erhalten. Denn nur eine einheitliche Datenbasis ermöglicht einen "Single Point of Truth" und vermeidet unterschiedliche Informationsbestände bei verschiedenen Providern. Dazu eignen sich zum Beispiel Business Intelligence-Lösungen mit unmittelbarem Zugang auf Originaldaten, etwa aus CRM- oder ERP-Systemen. Diese Daten lassen meist in der Anwendung prüfen und miteinander abgleichen.

Anschließend kann eine echte Hybrid Cloud-Struktur mit der Integration von Private Cloud, Public Cloud-Diensten und Colocation erstellt werden, dieeine maximale Mobilität der Daten gewährleistet. Dabei ist meist die eigene Infrastruktur so anzupassen, dass sich die gewünschten Public Cloud-Services möglichst reibungslos einbinden lassen. Der dazu nötige Aufwand kann sehr unterschiedlich ausfallen. Von der simplen Verbindung über bestehende Schnittstellen bis hin zum Aufbau einer neuen, gemeinsam genutzten Datenbasis an einem eigenen Standort ist praktisch alles möglich.

Bislang hätte die Datenhaltung bei verschiedenen Public Cloud-Providern das Gefahrenniveau vervielfacht. Doch heutzutage verschlechtert sich die Sicherheit im Vergleich zur Nutzung eines Cloud-Providers nicht, wenn eine gemeinsame Datenbasis bei einem deutschen Unternehmen genutzt wird. Dies ist insbesondere für Unternehmen interessant, die hohe Anforderungen an Datensicherheit besitzen. Zudem sollten Banken, Versicherungen oder Behörden ihre Daten unter Umgehung des Internets über gesicherte, vollständig redundante Leitungen an die Public Cloud-Anbieter übertragen. Dazu eignet sich eine ständig überwachte, dedizierte, verschlüsselte Glasfaserinfrastruktur.

Fazit
Um sich aus dem breiten Angebot an Cloud-Services die optimalen Lösungen herauszusuchen und diese mit der eigenen Infrastruktur zu verbinden, ist ein gewisser Aufwand nötig. Dies wird sich auch mit Multi Cloud Sourcing nicht ändern. Doch bislang lassen sich die Inhalte zwischen den Angeboten nicht ohne weiteres austauschen, so dass die gleichen Daten zu diversen Dienstleistern mehrmals zu übertragen sind. Dies erhöht den Management-Aufwand, die Komplexität der Nutzung und die Gefahr unterschiedlicher Daten als Basis. Mit Multi Cloud Sourcing lassen sich dagegen verschiedene Hyperscaler wie AWS, VMware vCloud Air, Google oder Microsoft im Sourcing-Prozess beliebig und reibungslos miteinander kombinieren. So entsteht eine ganzheitliche, flexible Lösung für die Umsetzung einer idealen Mischung der Cloud Computing-Angebote.

Der Autor: Lars Göbel, Leiter Vertrieb und IT Services bei Darz
Lars Göbel befasst sich seit mehr als einem Jahrzehnt mit IT-Services und der Cloud. Bei Darz ist er zuständig für den Aufbau des modularen Produktportfolios und dessen Vertrieb. Der Wirtschaftsinformatiker baute als IT-Projektmanager & Consultant die erste VMware basierte Public-Cloud-Infrastruktur Deutschlands auf und vermarktete diese. Mit dieser spezifischen Projekterfahrung im Gepäck wechselte er zu VMware, wo er zwei Jahre als Senior Consultant tätig war. 2014 übernahm er seine heutige Position bei Darz. In den Aufbau des neuen Unternehmens bringt er seine gesammelten Erfahrungen und Erkenntnisse aus 10 Jahren Umgang mit Cloud-Technologien ein – vor allem aber auch seine Vision eines IT-Full-Service Providers mit modularem Produkt Portfolio und den Möglichkeiten, die ein solches Konzept für den Markt bietet. Neben seinem Qualitäts- und Sicherheitsanspruch, Kunden ganzheitliche Lösungen aus einer Hand anbieten zu können, fasziniert ihn die Gestaltung einer wirklichen hybriden Cloud-Lösung durch die Verschmelzung von Colocation, Private Cloud und Public Cloud. Eine Lösung, die schon lange vom Markt gefordert wird.
(Darz: ra)

Darz: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Neue Datenverkehrsmuster im Entstehen

    Der rasante technologische Wandel und die damit verbundene Disruption von Geschäftsmodellen führen dazu, dass multinationale Konzerne in ihren wichtigsten Märkten zunehmend agiler auftreten müssen. Jedoch fällt es ihnen aufgrund des expansiven Wachstums ihrer IT-Ökosysteme schwer, wirklich agil zu operieren - insbesondere dann, wenn sie durch eine veraltete IT-Infrastruktur ausgebremst werden. Cloud-Deployments und die massive Zunahme von Anwendungen und Endgeräten erhöhen den Druck auf die Verantwortlichen, die IT-Landschaft zu modernisieren.

  • Kontrolle über SaaS-Anwendungen behalten

    Wer Software-Ausgaben unter Kontrolle bringen will, braucht ein intelligentes Software Management. Daran hat auch Software-as-a-Service (SaaS) nichts geändert. Ganz im Gegenteil: Schatten-IT und Shelfware zählen zu den größten Kostenfallen bei Cloud-basierten Anwendungen. Durchschnittlich kommen in Unternehmen 15x mehr SaaS-Anwendungen zum Einsatz als auf offizieller Seite bekannt ist. Der Grund für die Schatten-IT ist leicht nachzuvollziehen: Für Mitarbeiter ist es sehr einfach Anwendungen über die Cloud zu abonnieren. Kreditkarte und E-Mail-Adresse reichen Public Cloud-Anbietern wie Amazon Web Services (AWS) und Microsoft Azure aus, um in wenigen Schritten ein Konto anzulegen und je nach Bedarf SaaS-Anwendungen zu beziehen - in vielen Fällen ohne Absprache mitder IT oder dem Einkauf.

  • In die Cloud - aber sicher

    Dr. Chris Brennan, Regional Director DACH, Eastern Europe, Russia and Israel von Skybox Security erläutert, wie die Migration in die Cloud und dabei zu berücksichtigende Sicherheitsaspekte in Einklang gebracht werden können. Unternehmen setzen vermehrt auf Cloud Computing-Umgebungen. Einer der Vorteile dabei ist, dass die Cloud eine hohe Skalierbarkeit und Agilität aufweist. Wenn dabei aber die Sicherheitsrisiken vernachlässigt werden, die dieser Schritt mit sich bringt, kann daraus ein großer Nachteil erwachsen. Ein gängiger Fehler dabei ist, dass viele Entscheider denken, dass der Cloud Security Provider (CSP) mehr Verantwortung für die Sicherheit trägt, als er tatsächlich tut.

  • Das lebende Unternehmen

    Der menschliche Körper ist ein bemerkenswerter Organismus. Ohne hier zu tief in Anatomie und Physiologie des Menschen einzutauchen, gibt es zahlreiche Bereiche, in denen sich der Mensch und die Datenverarbeitung eines Unternehmens stark ähneln. Zwar sind die Systeme des Menschen nicht digital sondern organisch, das Gesamtsystem Mensch funktioniert jedoch ganz ähnlich wie eine Organisation - eine große Anzahl an Informationssystemen laufen parallel und transportieren eine Fülle von Informationen zu jedem Organ. Wenig überraschend, ist der Mensch der IT in Sachen Datenverarbeitung nach vielen Millionen Jahren Evolution um einiges voraus. So funktioniert die Datenverarbeitung des Menschen in den meisten Fällen nicht nur in Echtzeit, sondern auch komplett automatisiert. Hier können Unternehmen ansetzen, um vom Menschen zu lernen und ihre IT in Zeiten der Digitalisierung leistungsfähiger zu machen.

  • Security und Leistung in der Cloud vereinen

    Moderne Anwendungen müssen skalieren und performant sein. Um diese Anforderungen zu erreichen, werden viele Implementierungen auf Public Cloud-Plattformen wie Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP) gehostet, was für Elastizität und Geschwindigkeit sorgt. Und die Cloud-Nutzung boomt, mittlerweile setzen zwei von drei Unternehmen in Deutschland Cloud Computing ein, so das Ergebnis einer repräsentativen Umfrage von Bitkom Research im Auftrag der KPMG. Vorteile wie hohe Flexibilität, Effizienzsteigerung der Betriebsabläufe und verbrauchsabhängige Abrechnung von Services liegen auf der Hand.

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.