Sie sind hier: Startseite » Markt » Hintergrund

Die Kosten für Cloud Computing steigen


Die Rückverlagerung von Daten aus der Cloud nimmt Fahrt auf
Massives Datenwachstum, steigende Kosten für Cloud-Dienste und der Wunsch nach mehr Flexibilität geben dem Hosting von Daten und Workloads vor Ort neuen Auftrieb


Von Ines Wolf, Manager Presales Central Europe bei Quantum

Die Vorteile von Cloud Computing sind unbestritten. Die Akzeptanz hat innerhalb des letzten Jahrzehnts rapide zugenommen. Einen großen Schub gab es in den vergangenen drei Jahren, als IT-Modernisierung und Remote-Arbeit viele Unternehmen regelrecht in die Cloud trieb. Während einige Workloads in der Cloud gut aufgehoben sind, stellen viele Unternehmen nun fest, dass ihre Daten und Workloads teilweise im eigenen Rechenzentrum besser aufgehoben wären. Folgerichtig setzen viele Unternehmen heute auf einen hybriden oder Multi-Cloud-Ansatz. Vor diesem Hintergrund hat sich die Rückverlagerung von Daten aus der Cloud in jüngster Vergangenheit zu einem wachsenden Trend entwickelt.

Während die Public Cloud für bestimmte Anwendungsfälle kosteneffizient sein kann, hat sie im Allgemeinen zu höheren Kosten für Unternehmen geführt, die Daten und Workloads in die Public Cloud verlagert haben. Es gibt viele gute Gründe, warum Cloud-Dienste teurer geworden sind. Steigende Kosten, höhere Nachfrage oder wachsende Komplexität sind allesamt verständliche Gründe. Ein Hauptgrund, für die enorm gestiegenen Cloud-Budgets liegt jedoch darin, dass die Kosten für die Speicherung in einer Public Cloud aufgrund von Ausstiegs- oder anderen Servicegebühren unvorhersehbar geworden sind. Am Ende zahlen viele Unternehmen viel mehr für ihre Cloud-Dienste, als sie erwartet oder veranschlagt hatten. Um die Kosten zu senken und besser planbar zu gestalten, sehen sich die Unternehmen nach anderen Optionen um.

Unternehmen brauchen mehr Flexibilität in der Cloud
In einer perfekten Cloud-Welt könnten die Kunden ihre ideale Konfiguration einfach auswählen und ihre Daten und Workloads flexibel zwischen den Ebenen des von ihnen gewählten Multi-Cloud-Ökosystems verschieben. Das ist jedoch alles andere als einfach. Zum einen haben die Anbieter von Public Clouds die Kunden und ihre Daten erfolgreich an ihre Plattformen gebunden. Die Preislisten der Anbieter sind so strukturiert, dass es günstig ist, Daten in die Cloud hochzuladen, aber unvergleichlich teurer, sie wieder herunterzuladen. Da die Datenmengen immer weiter anwachsen, vor allem bei immer größeren Dateien unstrukturierter Daten, ist die Speicherung und Verarbeitung in der Cloud sehr teuer geworden.

Zum anderen zwingt das Phänomen der "Data Gravity" Unternehmen dazu, ihre Daten und Workloads in der Nähe zu halten. Und es kristallisiert sich heraus, dass ein Teil der Daten eines Unternehmens im Rechenzentrum verbleiben und nicht in die Cloud verlagert werden sollte, da es Bedenken hinsichtlich der Implementierung von Cloud-Speicher, der Datenhoheit und der Sicherheit gibt. Um diese Probleme zu lösen und ihre Cloud-Einrichtung zu verbessern, vergleichen Unternehmen alle Optionen, wo ihre Daten und Workloads idealerweise untergebracht werden könnten. Dabei kommen sie unweigerlich zu dem Schluss, dass ein Teil ihrer Cloud-Workloads wieder lokal angesiedelt werden sollte, da dies einen höheren ROI verspricht.

Eine vollständige Rückführung aus der Cloud ist wenig sinnvoll
Mehrere Faktoren beeinflussen die Entscheidung für eine Rückverlagerung aus der Cloud ins eigene Rechenzentrum. Auf der Speicherebene bietet das Aufkommen der Objektspeicherung auf preiswerten Bändern den Unternehmen ein verlockendes Argument für die Rückverlagerung geeigneter Daten auf ihre eigene Hardware. Die Renaissance des Bandspeichers kommt zu einer Zeit, in der sich die Speicherlandschaft von der Plattenspeicherung hin zu einer Speicherstrategie mit zwei Hauptebenen entwickelt: einer schnellen Flash-Ebene für Hochleistungs-Workloads und einer Bandebene als kostengünstiger Massenspeicher.

Eine vollständige Rückführung von Daten und Workloads aus der Public Cloud ist für die meisten Unternehmen jedoch wenig sinnvoll, ebenso wie eine reine Cloud-Strategie weder wirtschaftlich noch praktikabel ist. In der Vergangenheit entschieden sich Unternehmen bewusst dafür, die zusätzlichen Kosten für den Betrieb von Anwendungen in Public Clouds in Kauf zu nehmen, um Flexibilität und Skalierbarkeit zu erhalten. Unternehmen, die aktiv nach Möglichkeiten einer besseren Datenportabilität suchen, sehen die Beweglichkeit sowohl auf der Hardware- als auch auf der Softwareebene als essentielle Komponente an. Nur mit einem flexiblen Gesamtsystem werden sie in der Lage sein, den optimalen Infrastruktur-Mix zu finden, einschließlich der Rückführung von Daten und Workloads zurück auf lokale Hardware, was einen "Nettogewinn" an ROI brächte.

Workloads und Daten sinnvoll platzieren
Für einen höheren ROI brauchen Unternehmen mehr Flexibilität im Rechenzentrum. Der Aufbau von Hybrid- und Multi-Cloud-Umgebungen ermöglicht es Ihnen, ihre Workloads und Daten dort zu platzieren, wo es den meisten Sinn ergibt. Für einige Daten und Workloads bedeutet dies, dass sie aus der Public Cloud zurück ins Rechenzentrum verlagert werden, wo sie sich wesentlich kostengünstiger speichern lassen. Die Verfügbarkeit von NVMe als performante Flash-Speicher für Hochleistungs-Workloads bietet eine weitere Ebene der Flexibilität. Und für spezielle Anwendungsfälle, wie PaaS-Lösungen, eignet sich die Plattform eines Hyperscalers möglicherweise am besten.

Fazit: Unternehmen wählen Cloud-Flexibilität
Um von den Vorteilen des Cloud Computings zu profitieren, benötigen Unternehmen heute ein Höchstmaß an Flexibilität, um für jeden Anwendungsfall die am besten geeignete Infrastruktur zu nutzen. Moderne Technologien wie softwaredefinierte Datenverwaltungslösungen helfen Unternehmen dabei, diese Flexibilität zu erreichen, während die Kombination von schnellem NVMe und preiswertem Bandspeicher Optionen zur Identifizierung des idealen Speicherorten für Daten und Workloads bietet. Es geht also längst nicht mehr um die Frage, ob man auf "Cloud-only" oder "Nur vor Ort" setzt, sondern um eine Kombination aus beidem. Flexibilität, Daten und Workloads bei Bedarf anzupassen, zu verschieben und zu migrieren sind weitere Vorteile.

Über Ines Wolf
Als Manager Presales Central Europe leitet Ines Wolf seit 2017 das Quantum Presales Team in Zentraleuropa. Als Expertin für die Organisation und Speicherung von Unternehmensdaten berät und unterstützt Ines Wolf Kunden seit 17 Jahren dabei, moderne und effiziente Storage-Strategien zu entwickeln. Vor ihrem Wechsel zu Quantum 2005 war Ines Wolf als Presales System Engineer bei Sony und Project Engineer bei Sun Microsystems tätig. (Quantum: ra)

eingetragen: 14.09.23
Newsletterlauf: 15.11.23


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • KI in der Abonnementwirtschaft

    Künstliche Intelligenz (KI) ermöglicht es Unternehmen heute mehr denn je, personalisierte Angebote für Produkte und Services zu erstellen. Im Business-to-Business (B2B) -Umfeld, birgt KI beispielsweise neue Möglichkeiten zur Abonnementverwaltung von Geschäftskunden oder verbessert die Kundenerfahrung.

  • Sicherheitsrisiken minimieren

    Retarus hat fünf zentrale Trends identifiziert, die die digitale Geschäftskommunikation im kommenden Jahr nachhaltig prägen werden. Diese Entwicklungen spiegeln nicht nur technologische Fortschritte wider, sondern auch die Verantwortung von Unternehmen.

  • Multi Cloud-Strategien werden immer wichtiger

    Die SEP wirft einen Blick in die Zukunft der Backup-Branche. Basierend auf umfangreichem Feedback von Partnern und Kunden benennt der führende deutsche Hersteller von Backup- und Disaster-Recovery-Software "Made in Germany", die fünf wichtigsten Trends für 2025. Dazu zählen Multi-Cloud, Schutz gegen Cyber Security und eine hohe Dynamik durch die Suche nach alternativen Virtualisierungslösungen wie Proxmox.

  • Cloud-Sicherheit bleibt entscheidend

    Tata Consultancy Services (TCS), eine der weltweit führenden IT-Beratungs- und Servicegesellschaften, hat seinen Cybersecurity Outlook 2025 veröffentlicht - eine Übersicht der relevanten Technologietrends und Schwerpunktthemen für das kommende Jahr. Danach werden Generative Künstliche Intelligenz (GenAI), Cloud-Sicherheit und widerstandsfähige Lieferketten für Unternehmen entscheidend sein, um künftige Cyber-Bedrohungen - auch durch die zunehmende Verbreitung von Next-Gen-Technologien - erfolgreich abzuwehren.

  • Erfolg generativer KI-Strategien in der Cloud

    2024 hat künstliche Intelligenz die Cloud-Landschaft geprägt und sowohl die Effizienz als auch die Entscheidungsfindung verbessert. Die Fortschritte in der KI haben die Nachfrage nach der Cloud angekurbelt, indem sie die Kosten der Cloud durch Optimierungsstrategien gesenkt, Sicherheitspraktiken verbessert und IT-Systeme automatisiert haben. Auch wenn die Richtung klar ist, werden 2025 zahlreiche neue Technologien die Grenzen von Cloud Computing erweitern.

  • Cloud-Strategien für mehr Sicherheit

    Künstliche Intelligenz (KI) und Quantentechnologien entwickeln sich rasant weiter. Dies treibt die Risiken von Cyberangriffen in neue Höhen. Unternehmen sind gefordert, sich intensiver denn je mit der veränderten Bedrohungslage auseinanderzusetzen und ihre IT-Sicherheit anzupassen.

  • Industrielle KI wird erwachsen

    Industrie 5.0, mehr Nachhaltigkeit, Kampf gegen den Arbeitskräftemangel: IFS prognostiziert, welche Herausforderungen die Fertigungsbranche im Jahr 2025 mit Hilfe von Künstlicher Intelligenz angehen wird.

  • Wohin zieht die Cloud?

    Jerome Evans, Gründer und Geschäftsführer der firstcolo GmbH, blickt voraus und betrachtet die anstehenden Entwicklungen rund um die Cloud in 2025: Die Einführung der Cloud hat nicht nur unsere Arbeitsweise, sondern auch unseren Alltag verändert.

  • Generative KI-Inferenz im Fokus

    Die fortschreitende Entwicklung der IT-Landschaft bringt neue Trends mit sich, die 2025 die Technologienutzung in Unternehmen grundlegend verändern werden. Themen wie generative KI und Datensouveränität werden Branchen dazu zwingen, ihre Strategien anzupassen und sich auf neue Realitäten einzustellen. Jeff Wittich, Chief Product Officer bei Ampere Computing, hat vier Prognosen für diese Zukunft formuliert.

  • Bewältigung der KI-Arbeitslasten

    Der Paradigmenwandel der stark digitalisierten Welt von heute stellt Unternehmen hinsichtlich ihrer IT-Infrastrukturen vor große Herausforderungen, bietet aber auch neue Chancen. Zunehmende Cyberbedrohungen, stärkere Virtualisierung oder Transformation durch künstliche Intelligenz (KI) - Unternehmen sind gezwungen, ihre Datenspeicherstrategien zu überdenken, um widerstandsfähig, flexibel und zukunftssicher zu bleiben.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen