Sie sind hier: Startseite » Markt » Hintergrund

Vorherrschende Cloud-First-Mentalität


Software-defined Architekturen, neue Workloads und autonome Backup-Systeme: Das erwartet Unternehmen im Jahr 2019
Cloud-Infrastruktur-Provider können Kapazitäten dank eines extrem hohen Virtualisierungsgrads und SDA schnell und hoch skalierbar für Millionen von Kunden aufsetzen


Veritas Technologies, Anbieterin für Datensicherung in Unternehmen und Software-defined Storage, geht für das Jahr 2019 davon aus, dass sich Unternehmen noch stärker auf das Thema Software-defined Architekturen (SDA) konzentrieren werden. Hardware wird demnach weiter an Relevanz verlieren. Die Vielfalt an Workloads und Applikationen wird hingegen weiter zunehmen. Als Folge gewinnen simplifizierte Backup-Systeme an Bedeutung, die sich den neuen Workloads und SDA autonom angleichen.

Auf diese Entwicklungen sollten Unternehmen im kommenden Jahr eine Antwort haben:

1) Noch mehr Daten werden gesammelt und getauscht
Sensoren, Workloads und Big Data-Analysen erzeugen immer mehr Daten, die abgelegt, ausgewertet, verknüpft, gesichert, juristischen Vorgaben entsprechend gepflegt und archiviert werden müssen. Schon heute wächst die Datenmenge weltweit im Schnitt um 49 Prozent jährlich, wie aktuelle Untersuchungen von Veritas zeigen. Die EU Kommission indes schätzt, dass in fünf Jahren 46 Prozent aller Unternehmen in Europa ihre Daten mit anderen teilen werden und dies ihre wirtschaftlich wichtigste Aktivität sein wird.

2) Software-defined wird als Architektur dominanter
Eine aktuelle Umfrage von Veritas unter 100 IT-Leitern in Deutschland zeigt, dass deren Daten schon heute zu 46 Prozent in einer Private oder Public Cloud liegen. Ein Grund: Cloud-Infrastruktur-Provider können Kapazitäten dank eines extrem hohen Virtualisierungsgrads und SDA schnell und hoch skalierbar für Millionen von Kunden aufsetzen. Die Ressourcen standardisierter Hardware werden per Software hochverfügbar, sicher und automatisch konfiguriert und Kunden und deren Workloads zugewiesen. Werden neue Kapazitäten gebraucht, lassen sich die Nodes in der Software-defined Architektur um weitere physikalische Maschinen erweitern. Die SDA und ihre Software-Schnittstellen binden diese ein und teilen die neuen Ressourcen klug auf.

3) Neue Workloads kommen auf – die Architekturen werden komplexer
Während Infrastruktur und Betrieb dank SDA immer weiter automatisiert und vereinheitlicht werden, nimmt die Vielfalt bei Applikationen und Workloads im Jahr 2019 weiter zu: Nach einer Umfrage von Teradata unter 260 globalen Konzernen haben bereits 80 Prozent der Befragten im vergangenen Jahr in Künstliche Intelligenz (KI) und Machine Learning (ML) investiert, um aus ihren Daten neues Wissen zu extrahieren. Die Umsatzprognosen für Plattformen wie MongoDB, Cassandra, OpenSQL, Hadoop oder SAP HANA zeigen klar, dass auch der Mittelstand auf diesem Gebiet immer stärker aktiv wird. Unternehmen werden im Idealfall in der Lage sein, für jede Aufgabe den geeigneten Dienst aus der Cloud zu wählen, wie aus einem virtuellen Werkzeugkasten. Die Workloads werden zwangsläufig immer häufiger verschiedene multiple Clouds miteinander verbinden. Damit kommt in Unternehmen aus Architektursicht ein bunter Mix aus hybriden und Public-Cloud sowie lokalen Ressourcen zum Einsatz.

4) Der Kampf um Experten wird härter
Die EU-Kommission erwartet, dass im Jahr 2020 rund zehn Millionen Bürger in der EU als so genannte Data Workers tätig sein werden. Bereits für das kommende Jahr ist zu erwarten, dass Firmen auf diesem Gebiet immer stärker um Talente wetteifern werden. Fehlende Experten gelten als eine der Hürden bei der Digitalisierung in Deutschland. Um die Lücke zu überbrücken und bestehende Teams zu entlasten, müssen die eingesetzten IT-Systeme radikal einfacher zu betreiben sein.
5) Autonome und simplere IT-Systeme gewinnen an Bedeutung
Systeme für Datensicherung und Backup, die einfacher zu verwalten sind, immer autonomer funktionieren und sich den neuen Workloads und SDA angleichen, sind in den kommenden Jahren ein entscheidender Faktor. Dafür bedarf es ausgesprochen komplexer Algorithmen, die die Backup-Soft- und -Hardware mit Hilfe von ML und KI durch die Erstkonfiguration leiten, sobald die Parameter aus der Infrastructure as Code zu ihnen durchgereicht werden. Denn mit den wachsenden Datenmengen müssen Backup-Systeme in der Lage sein, horizontal und vertikal zu skalieren und sich gegenseitig über den aktuellen Zustand zu informieren – ohne dass menschliche Interaktionen nötig sind.

"Die vorherrschende Cloud-First-Mentalität und der wachsende Fokus auf SDA führen dazu, dass Unternehmen mit noch mehr Daten, neuen Workloads und hybriden Architekturen umgehen müssen – und zwar in verschiedenen Unternehmensbereichen", so Roger Scheer, Vice President DACH bei Veritas. "Das Backup-Konzept muss in der Lage sein, das abzubilden und die Verantwortung für die Daten und Workloads und ihre Wiederherstellung auf mehrere Schultern zu verteilen. Nur so ist es möglich, dass etwa Big Data-Teams ihre eigenen virtuellen Ressourcen kontrollieren, ohne auf Backup-Teams oder -Schulungen angewiesen zu sein. Veritas arbeitet genau an solchen Automatismen, damit Kunden ihre Daten auch morgen mit extrem wenig Aufwand zuverlässig wiederherstellen können."
(Veritas Technologies: ra)

eingetragen: 17.12.18
Newsletterlauf: 31.01.19

Veritas Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Anwendungsfälle für KI

    Unternehmen erleben heute mit der Künstlichen Intelligenz (KI) einen Déjà-vu-Moment. Ähnlich wie bei früheren Technologiesprüngen - dem Aufkommen des PCs, des Internets oder der Cloud-Technologie - stehen sie an einem Wendepunkt, an dem die breite Einführung von KI die Unternehmenslandschaft transformiert.

  • Vom Kreditinstitut zur Technologie-Oase

    Wir schreiben das Jahr 2035: Sie wachen auf und überprüfen Ihre Finanzen über einen sprachaktivierten digitalen Assistenten, der als Hologramm von Elvis erscheint. Nach der Authentifizierung durch Stimm- und Fingerabdruck-Biometrie liefert Ihnen der verstorbene King of Rock'n'Roll einen Überblick über Ihre Ausgaben, Ersparnisse und Investitionen in einem personalisierten Dashboard, das alle Ihre Konten und Finanzdaten an einem Ort zusammenfasst.

  • Cloud-Drucklösungen spielen eine große Rolle

    Heutzutage lässt sich technischer Fortschritt kaum mehr mit dem bloßen Auge erkennen. Selten vergeht ein Tag ohne eine weitere Innovation, die für mehr Effizienz sorgt. Diese Entwicklung macht auch vor Druckern nicht Halt. Cloud-Lösungen ermöglichen zentrale Administration und Kosteneinsparungen bei lokalen Servern. Doch in diesem Zusammenhang geht die Tendenz eher in Richtung langsamer Wechsel in die Wolke. Warum ist das so? "In vielen Unternehmen - insbesondere aus Branchen, in denen sensible Daten auf der Tagesordnung stehen - herrschen Sicherheits- und Datenschutzbedenken.

  • Finanzbranche steht vor einem Wendepunkt

    Immer mehr traditionelle Banken erkennen endlich die Vorteile des Outsourcings, um ihren Weg zur Digitalisierung zu beschleunigen und so ihre Effizienz und Kundenzufriedenheit zu optimieren. In Deutschland bremsen jedoch regulatorische Anforderungen das Tempo der Transformation. Karl im Brahm, CEO von Objectway DACH, betont, dass Banken diese Hürden nur durch Kooperationen mit Fintechs überwinden können.

  • CPUs und DSAs für Cloud- und KI-Erfolg

    Die Chimäre ist in der griechischen Mythologie eine Kreuzung aus Löwe, Ziege und Schlange. Sie hat den Kopf des Löwen, den Körper der Ziege mit einem weiteren Ziegenkopf auf dem Rücken und den Schwanz der Schlange

  • Vertrauen gegenüber Generative AI schwindet

    Im letzten Jahr zeigten sich deutsche Unternehmen wenig beeindruckt von den Sicherheitsrisiken von ChatGPT und Co. Sie vertrauten den vielversprechenden Generative-AI-Anwendungen und ihren Vorteilen bedingungslos. Nun legen die Ergebnisse einer aktuellen Gigamon-Studie* jedoch nahe, dass die Skepsis gegenüber diesen Tools in den vergangenen zwölf Monaten zugenommen hat.

  • Bedeutung der Cyber-Sicherheit

    Wie in jedem Jahr, so hat auch in diesem die Firma IBM zusammen mit dem Ponemon Institute die Studie Cost of a Data Breach 2024 veröffentlicht. Die Ergebnisse sprechen Bände: Mit 4,88 Millionen US-Dollar (rund 4,50 Millionen Euro) je Sicherheitsverletzung im weltweiten Durchschnitt liegen diese Kosten 10 Prozent über dem Jahr 2023 mit 4,5 Millionen US-Dollar (rund 4,16 Millionen Euro) und erreichen ein Rekord-Hoch.

  • Sicherheit in der Cloud

    Der Cloud Computing-Markt wächst beständig weiter und ein Ende dieses Aufwärtstrends scheint nicht in Sicht zu sein. Laut Prognosen könnte er bis 2032 die Marke von gut 2,29 Milliarden US-Dollar knacken. Das würde einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 16,5 Prozent entsprechen.

  • Demokratisierung der Künstlichen Intelligenz

    Open Source basiert auf Zusammenarbeit und Transparenz. Dank dieser beiden unbestreitbaren Vorteile haben Open-Source-Lösungen das Potenzial, die Art und Weise zu revolutionieren, wie KI-Systeme entwickelt und eingesetzt werden. Ein offener Ansatz für Künstliche Intelligenz ist unerlässlich.

  • Wie KI den Customer Service revolutioniert

    Die IT-Branche ist ein Umfeld des ständigen Wettbewerbs. CIOs treiben heute die digitale Transformation voran und investieren in digitale Technologien, um die Effizienz und Rendite ihres Unternehmens zu maximieren. Da sie dafür nur wenig Zeit und Ressourcen für IT-Services aufwenden möchten, wenden sie sich immer mehr der generativen KI zu.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen