- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Daten sicher aus der Public Cloud zurückführen


Florian Malecki von StorageCraft gibt einen Ausblick, was es mit dem Trend der "Cloud Data Repatriation" auf sich hat
Zwar bieten Public Clouds ein hohes Maß an Flexibilität, sie sind aber auch teuer und die Übertragung unstrukturierter Daten, wie sie beispielsweise vom Internet of Things (IoT) erzeugt werden, ist zudem oft nicht schnell genug

- Anzeigen -





In vielen Unternehmen findet im Umgang mit der Cloud inzwischen ein Umdenken statt und vermehrt wollen Unternehmen zumindest Teile ihrer Kerndaten und zentralen Anwendungen aus der Public Cloud zurückholen (Cloud Data Repatriation). Die Gründe für die Rückführung der Daten in das Unternehmen oder zum klassischen Hosting beschreibt Florian Malecki, International Product Marketing Senior Director bei StorageCraft, folgendermaßen:

Laut der US-Analystenfirma IDC, haben 80 Prozent der Unternehmen ihre Workloads im vergangenen Jahr repatriiert. Es wird davon ausgegangen, dass in den nächsten zwei Jahren 50 Prozent der Anwendungen aus der Public Cloud an private oder lokale Hosting-Standorte zurückgeholt werden – teils aus Kostengründen oder wegen der Skalierbarkeit.

Zwar bieten Public Clouds ein hohes Maß an Flexibilität, sie sind aber auch teuer und die Übertragung unstrukturierter Daten, wie sie beispielsweise vom Internet of Things (IoT) erzeugt werden, ist zudem oft nicht schnell genug. Gerade Unternehmen, die glaubten, sie hätten ihre Daten im Griff, müssen feststellen, dass sie die Masse unstrukturierter Daten nur schwer einschätzen können. Lange dachte man, das Problem wäre gelöst, wenn man den Großteil der Daten in die Cloud verschiebt. Jetzt wird zunehmend deutlich, dass die Cloud nicht nur teuer sein kann, sondern dass es aufgrund potenzieller Latenzzeiten auch manchmal schwer ist, schnell genug an bestimmte Daten heranzukommen.

Das hat den Trend zur Cloud-Rückführung bzw. Cloud Data Repatriation zur Folge. Immer mehr Unternehmen gehen deshalb zu einer hybriden Infrastruktur über, bei der nur bestimmte Daten und Anwendungen in der Public Cloud gehalten werden, während andere in eine lokale Infrastruktur zurückgeholt werden. Für Unternehmen, die ihre Daten aus der Public Cloud rückführen, stellt sich dabei die Frage, wo und wie sie diese speichern. Unternehmen aber auch Service Provider benötigen skalierbare Datenspeicherlösungen, die Geschäftsdaten schützen und diese jederzeit verfügbar halten – unabhängig davon, ob sie im Unternehmen, in Private Clouds oder extern bei einem Hoster gespeichert sind. Ein ideales Speichersystem sollte darüber hinaus Analysemöglichkeiten bieten, die Unternehmen bei der Einordnung von Informationen unterstützen, um leichter entscheiden zu können, welche Datensätze in der Public Cloud verbleiben, lokal gespeichert oder repatriiert werden müssen.

Die Datenflut erreicht inzwischen epische Ausmaße, so dass Unternehmen eine Infrastruktur benötigen, die einerseits das Datenwachstum bewältigt und andererseits alle unstrukturierten Daten sichern kann. Umso wichtiger ist die Wahl des richtigen Speichersystems, um sich für die neue Realität der Cloud-Rückführung zu wappnen und für Sicherheit zu sorgen.

Die gute Nachricht ist, dass die moderne Speichertechnologie diesen Herausforderungen gewachsen ist. Deshalb kann die richtige Speichertechnologie zu einer Geheimwaffe werden, die für bestmögliche Datenkontrolle sorgt und Risiken ein für alle Mal minimiert. (StorageCraft Technology: ra)

eingetragen: 29.12.19
Newsletterlauf: 11.03.20

StorageCraft Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Wachsende Menge an Cloud-Dienstleistungen

    Managed-Service-Provider sind gezwungen, ihre Rolle grundlegend neu zu definieren, meint IT-Dienstleister Consol. Nur so werden sie im Spannungsfeld von großen Cloud-Playern und veränderten Kundenanforderungen überleben können. Der Cloud Computing-Markt hat in den letzten Jahren einen massiven Wandel vollzogen. Große Player wie Amazon, Google oder Microsoft nehmen eine dominierende Rolle ein und die Kunden stellen neue, höhere Anforderungen an Cloud-Angebote. Damit und mit dem Einzug von DevOps und agilen Methoden haben sich die Rahmenbedingungen für den Betrieb im Allgemeinen und für Managed-Services im Besonderen grundlegend geändert. Auf diese Veränderungen muss auch ein Managed-Service-Provider reagieren, um seine Marktposition zu behaupten.

  • Bedeutung umfassender Transparenz für Apps

    Domino's Pizza wird immer beliebter. Ein Grund dafür ist, dass Kunden nach ihrer Bestellung den gesamten Prozess in der App verfolgen können: Wann wird die Pizza zubereitet, wann in den Ofen geschoben, in eine Schachtel verpackt oder im Lieferauto eingeladen. Schließlich kann der Kunde dem Boten schon die Tür öffnen, bevor dieser klingelt. Denn er weiß genau, wann die heiße Pizza ankommt. Obwohl eine solche Nachverfolgung für eine Pizza- oder Paketlieferung heute möglich ist, erreichen viele Unternehmen noch nicht den gleichen Grad an Sichtbarkeit für ihre geschäftskritischen Anwendungen. Warum ist das so?

  • Secure Access Service Edge (SASE)

    Vor nicht allzu langer Zeit noch wurden die Begrifflichkeiten der Cloud-Sicherheit und der Security Cloud oftmals in einen Topf geworfen und miteinander vermischt. Trotz eines gravierenden Unterschieds. War von Cloud-Sicherheit die Rede, wurde ebendiese der Wolke oftmals abgesprochen - es schwang immer ein gewisses Unbehagen mit der sicheren Datenvorhaltung in der Cloud mit. Die Security-Cloud im Unterschied dazu dient gerade der Sicherheit. Denn dabei wird die Funktionalität von Hardware-Appliances in die Cloud verlagert und den Kunden als Service zur Verfügung gestellt. Heute hat die Cloudifizierung auf breiter Front in Unternehmen Einzug gehalten und die Diskussionen um die Cloud-Sicherheit sind angesichts der Vorteile und Entwicklungen verstummt. Da es oftmals sogar die Anwendungen sind, die den jeweiligen Cloud Computing-Anbieter, wie AWS, Google oder Azure auf der Grundlage ihrer spezifischen Anforderungen vorgeben, sind Multicloud-Umgebungen längst auf der Tagesordnung in Unternehmen.

  • IoT benötigt Automatisierung

    Der Trend zur Automatisierung wird schon seit einiger Zeit immer größer. Ein Treiber dieses Trends ist die umfassende Digitalisierung, ein sich immer schneller drehendes Geschäft und die steigende Datenmenge. Diese große Datenmenge lässt sich manuell einfach nicht mehr effizient, fehlerfrei und schnell verarbeiten und verlangt nach Automatisierung. Ein wichtiger Aspekt der Automatisierung ist die Abschaffung von manuellen, sich wiederholenden Aufgaben in der IT. Diese werden etwa durch die Automatisierung vieler Prozesse im Datawarehouse eliminiert und verkürzen damit die Zeit, bis Unternehmen Wert aus ihren Daten schöpfen können. Über die Vereinfachung und Beschleunigung von Datenprozessen hinaus, hilft Automatisierung auch in anderen Bereichen der IT, zum Beispiel bei IoT und Cloud Computing.

  • Banken adaptieren Cloud Computing

    Das neue Jahr geht für Banken genauso aufregend weiter, wie das alte geendet hat. Denn künstliche Intelligenz und Cloud Computing werden 2020 den Durchbruch im Bankwesen erleben. Um die sich schnell verändernden Kundenerwartungen zu erfüllen, werden Banken ihre Filialmodelle überdenken und noch mehr Technologie einsetzen müssen, um näher am Kunden zu sein. Die PSD2-Zahlungsrichtlinie ist zwar schon seit letztem Jahr in Kraft, doch wenn Banken das meiste aus Open Banking für sich herausholen möchten, sollten sie einen großen Schritt auf neue, agile Marktteilnehmer in diesem Bereich zugehen. Niccolò Garzelli, Senior Vice President Sales bei Auriga, prognostiziert, was die Bankbranche dieses Jahr erwartet.

  • Weiter im Trend liegt Edge Computing

    Red Hat hat zentrale IT-Trends 2020 unter technischen Gesichtspunkten beleuchtet. Auch 2020 werden wieder zahlreiche neue oder weiterentwickelte Technologien den IT-Markt prägen. Red Hat hat die Themen Edge Computing, Internet of Things (IoT), Serverless, Hardware und IT-Silos ausgewählt und die technischen Implikationen und Neuerungen untersucht.

  • Von klügeren Bots und dem IT-Concierge

    Laut Marktanalyst Gartner verantworten CIOs bis 2023 mehr als das Dreifache der Endgeräte als noch 2018. Ohne technologische Unterstützung können sie diese Aufgabe auf Dauer kaum bewältigen. Schon heute sind die IT-Teams gefordert, immer mehr Anwendungen zu unterstützen, zunehmend strategische Beiträge zu leisten und die Kundenzufriedenheit kontinuierlich zu verbessern - mit nur geringfügig steigenden Budgets. Der Einsatz KI-gestützter Automatisierungs- und Self-Service-Tools wird daher im Jahr 2020 immer deutlicher zunehmen und IT-Teams helfen, ihre Service-Level zu halten.

  • Entwicklung hin zu Hybrid-Architekturen

    Während in den vergangenen Jahren vor allem innerhalb der Unternehmensführungen ausgiebig darüber diskutiert wurde, ob nun Cloud oder "On Premise" die bessere Wahl ist, haben sich mittlerweile hybride Architekturen durchgesetzt, die Public- und Private-Cloud-Modelle mit Edge-Infrastrukturen rund um neu gestaltete zentrale Rechenzentren vereinen. Diese im Wandel befindliche Herangehensweise an das Management von Daten und Computing-Ressourcen ist einer der fünf wichtigsten Rechenzentrums-Trends 2020, die Experten von Vertiv, einem weltweiten Anbieter für IT-Infrastruktur- und Continuity-Lösungen, identifiziert haben. Die Entwicklung hin zu Hybrid-Architekturen erlaubt es Unternehmen, die Kontrolle über sensible Daten zu behalten und gleichzeitig die rapide wachsenden Anforderungen an Kapazität und Rechenleistung auf Kundenseite zu erfüllen. Nachdem Konnektivität und Verfügbarkeit gemeinsame Konzepte in diesem neuen Daten-Ökosystem werden, wird in Zukunft der Fokus verstärkt auf die nahtlose Kommunikation zwischen On-Premise-Ressourcen, der Cloud und dem Netzwerkrand - dem "Edge" - gelegt werden.

  • Alle Zeichen stehen auf Desktop-as-a-Service

    "Unser Leben und Arbeiten wird im 21. Jahrhundert maßgeblich von der Digitalisierung bestimmt. Dabei handelt es sich nicht um einen Trend, sondern vielmehr um eine unumkehrbare Umwälzung aller Lebens- und Arbeitsbereiche. Mehr denn je gilt: was digitalisiert werden kann, wird digitalisiert. Vor diesem Hintergrund müssen sich Unternehmen teilweise radikal verändern, und die Art, wie dort gearbeitet wird, ändert sich ebenfalls: die digitale Transformation betrifft uns alle. Die Cloud ist kein Trend mehr, sie ist da, wir müssen sie nun nutzen, um die Anforderungen nach mehr Sicherheit, niedrigeren Kosten, höherer Flexibilität und besserer Nachhaltigkeit zu erfüllen. Für den Desktop-as-a-Service und eine Enduser-orientierte Infrastruktur deuten alle Trends darauf hin, dass sich diese Erwartungen im kommenden Jahr weitestgehend erfüllen werden.

  • Bewertung von Sicherheitsrisiken

    Mit Beginn eines neuen Jahres ziehen viele Unternehmensabteilungen Bilanz über den Verlauf der vergangenen zwölf Monate. Was lief gut, wo gibt es Verbesserungsbedarf und wofür sollten im kommenden Jahr mehr Ressourcen aufgewendet werden? Eine Diskussion, die in der geschäftskritischen IT-Abteilung überaus intensiv geführt wird. Insbesondere in der Security setzen sich die Verantwortlichen mit Fragen wie diesen auseinander: Wie sah die Bedrohungslage im vergangenen Jahr aus? Mit welchen Maßnahmen sind wir diesen entgegengetreten? Gab es Vorkommnisse, die die Notwendigkeit zusätzlicher Maßnahmen nahelegen?