- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Datacenter-Trends für 2020


Ob Storage oder Computing, der Trend hin zur Cloud ist längst in Deutschland angekommen
Unternehmen benötigen die Sicherheit, dass sie ihre Cloud-Anwendungen auf gängigen Plattformen und in beliebigen Ländern betreiben können

- Anzeigen -





Wachsende Datenmengen, eine sichere europäische Cloud (Datensouveranität), eine schnelle Modernisierung von Rechenzentren sowie der steigende Energieverbrauch sind aus Sicht von Rittal die IT-/Datacenter-Trends im Jahr 2020. Etwa die Verwendung von OCP-Technologie (Open Compute Project) und Wärmerückgewinnung bieten Lösungen für die aktuellen Herausforderungen.

Im Jahr 2025 könnten Menschen und Maschinen bereits 175 Zettabyte an Daten erzeugen, prognostizieren die Marktforscher von IDC (International Data Corporation). Gespeichert auf herkömmliche DVDs, wären dies 23 Stapel mit Silberscheiben, die jeweils bis zum Mond reichen. Das jährliche Datenwachstum um durchschnittlich 27 Prozent sorgt auch für steigende Anforderungen an die IT-Infrastruktur.

Da es sich kaum ein Unternehmen leisten kann, die eigenen Datenspeicher jährlich um knapp ein Drittel zu erhöhen, setzen IT-Manager immer häufiger auf IT-Services aus der Cloud. Ob Storage oder Computing, der Trend hin zur Cloud ist längst in Deutschland angekommen: Eine im Sommer 2019 veröffentlichte Umfrage vom ITK-Branchenverband Bitkom und KPMG hat gezeigt, dass bereits drei von vier Unternehmen Cloud-Lösungen nutzen.

Wer Cloud Computing-Lösungen von Drittanbietern nutzt, gibt jedoch ein Stück weit die Kontrolle über seine Unternehmensdaten ab. So ermöglicht beispielsweise der US-amerikanische Cloud-Act (Clarifying Lawful Overseas Use of Data) den Zugriff von US-Behörden auf Daten, die in der Cloud gespeichert sind – sogar wenn lokale Gesetze am Ort des Datenspeichers dies verbieten.

"Wirtschaftliche Erfolge werden in Zukunft nachhaltig sein, wenn sie Schritt halten mit vollständiger Digitalisierung und Integration. Unternehmen werden ihre Daten immer stärker wertschöpfend nutzen – zunehmend in Echtzeit, etwa im Produktionsumfeld", sagt Dr. Karl-Ulrich Köhler, CEO von Rittal International. "Datensouveränität wird zum kritischen Erfolgsfaktor für internationale Wettbewerbsfähigkeit", ergänzt Dr. Köhler.

Trend 1: Datensouveränität
Der selbstbestimmte Umgang mit Daten wird für Unternehmen somit zu einem zentralen Wettbewerbsfaktor. Dies gilt für alle Branchen, in denen Datensicherheit großgeschrieben wird und die Analyse dieser Daten entscheidend für den Geschäftserfolg ist – Gesundheitswesen, Mobilität, Banking oder Fertigungsindustrie. Unternehmen stehen vor der Frage, wie sie ihre Daten sicher und effizient verarbeiten können, und ob sie ihr eigenes Rechenzentrum modernisieren, in Edge-Infrastrukturen investieren oder die Cloud nutzen.

Das europäische Digital-Großprojekt Gaia-X, eine Initiative des Bundesministeriums für Wirtschaft und Energie (BMWi), soll im Jahr 2020 starten. Ziel ist der Aufbau einer europäischen Cloud zur sicheren Digitalisierung und Vernetzung der Industrie und als Basis für den Einsatz neuer KI-Anwendungen (Künstliche Intelligenz). Die Fraunhofer Gesellschaft hat in diesem Kontext die Initiative "International Data Spaces" geschaffen. Dieser virtuelle Datenraum ermöglicht Unternehmen den sicheren Datenaustausch. Kompatibilität einer eigenen Lösung mit etablierten (Cloud-) Plattformen (Interoperabilität) ist ebenfalls gegeben.

Das bedeutet: Geographisch verteilte kleinere Rechenzentren mit offenen Cloud-Stacks könnten eine neue Klasse von industriellen Anwendungen schaffen, die direkt am Ort der Datenentstehung eine erste Datenanalyse vornehmen und die Cloud für nachgelagerte Analysen nutzen. Eine Lösung dafür ist ONCITE. Das schlüsselfertige (Plug & Produce) Edge-Cloud-Rechenzentrum speichert und verarbeitet Daten direkt dort, wo sie anfallen, so dass die Unternehmen bei der Vernetzung entlang der gesamten Lieferkette die Datensouveränität behalten.

Trend 2: Standardisierung im Datacenter mit OCP
Die schnelle Modernisierung bestehender Rechenzentren wird für Unternehmen immer wichtiger, da das zu verarbeitende Datenvolumen stetig wächst. Wesentliche Anforderungen für den Ausbau sind eine standardisierte Technologie, ein kosteneffizienter Betrieb und eine hohe Skalierbarkeit der Infrastruktur. Die OCP-Technologie (Open Compute Project) mit zentraler Gleichstrom-Verteilung im IT-Rack wird für immer mehr CIOs zu einer interessanten Alternative. Denn: Mit Gleichstromkomponenten ergeben sich neue Potenziale zur Kostenoptimierung. So erfolgt die Energieversorgung aller IT-Komponenten zentral mit n+1-Netzteilen pro Rack. Somit wird eine effiziente Kühlung erreicht, da weniger Netzteile vorhanden sind. Gleichzeitig vereinfachen sich durch die hohe Standardisierung der OCP-Komponenten die Wartung und das Ersatzteilmanagement. Der Effizienzgewinn liegt durchschnittlich bei etwa fünf Prozent des Gesamtstroms.

Rittal rechnet damit, dass sich OCP im Jahr 2020 als durchgängige Systemplattform im Rechenzentrum weiter etablieren wird. Neue OCP-Produkte für die Rack-Kühlung, die Stromversorgung oder das Monitoring werden den schnellen Ausbau mit Gleichstromkomponenten ermöglichen. Außerdem werden neue Produkte das herkömmliche Konzept einer zentralen Notstromversorgung unterstützen, bei dem durch eine zentrale USV die Stromversorgung abgesichert wird. Damit wird es nicht mehr wie bisher notwendig, jedes OCP-Rack mit einer USV auf Basis von Lithium-Ionen-Batterien abzusichern. Der Vorteil: die Brandlast im OCP-Rechenzentrum wird erheblich reduziert.

Trend 3: Wärmerückgewinnung und direkte CPU-Kühlung
Von Rechenzentren werden hohe Energiemengen in Form von Abwärme an die Umwelt abgegeben. Mit Zunahme der Leistungsdichte im Datacenter steigen auch die Wärmemengen, die sich potenziell für andere Zwecke nutzen lassen. Bislang ist die Nutzung der Abwärme jedoch zu teuer, zum Beispiel weil sich selten Abnehmer in unmittelbarer Umgebung des Standortes finden. Auch ist eine Abwärme von 40 Grad, wie sie luftbasierte IT-Kühlsysteme erzeugen, deutlich zu niedrig, um diese wirtschaftlich sinnvoll zu verwenden.

Insbesondere im Bereich High Performance Computing (HPC) erzeugen IT-Racks hohe Wärmelasten, die häufig mehr als 50 kW betragen. Für HPC ist die direkte Prozessorkühlung mit Wasser deutlich effizienter als eine Luftkühlung, sodass Rücklauftemperaturen von 60 bis 65 Grad zur Verfügung stehen. Bei diesen Temperaturen ist beispielsweise die Erwärmung von Brauchwasser möglich oder die Nutzung von Wärmepumpen bis hin zur Einspeisung in ein Fernwärmenetz. CIOs sollten jedoch beachten, dass selbst bei einer direkten CPU-Wasserkühlung nur etwa 80 Prozent der Abwärme aus einem IT-Rack geführt werden kann. Für die restlichen 20 Prozent wird weiterhin eine IT-Kühlung für das Rack benötigt.

Auf dem Digital-Gipfel 2019 der Bundesregierung wurde in der entsprechenden Arbeitsgruppe das Thema Wärmerückgewinnung diskutiert, die hohen Handlungsbedarf aufzeigte. Daher geht Rittal davon aus, dass sich im Jahr 2020 deutlich mehr CIOs damit beschäftigten werden, wie sich die bislang ungenutzte Abwärme des Datacenters wirtschaftlich nutzen lässt.

Trend 4: Integration von Multi-Cloud-Umgebungen
Unternehmen benötigen die Sicherheit, dass sie ihre Cloud-Anwendungen auf gängigen Plattformen und in beliebigen Ländern betreiben können. Dafür wird eine Multi-Cloud-Strategie benötigt. Aus Sicht des Managements ist dies eine strategische Entscheidung, die auf der Erkenntnis basiert, dass sich die eigene Organisation zu einem vollständig digitalisierten Unternehmen entwickeln wird.

Exzellenz in der User Experience wird beispielsweise durch geringste Verzögerungszeit mit den entsprechenden Verfügbarkeitszonen ("Availability Zone") vor Ort gewährleistet. Das heißt: Unternehmen wählen für ihre Dienste je nach Geschäftsanforderungen weltweit eine oder mehrere Verfügbarkeitszonen. Das Einhalten von strengen Datenschutzvorgaben erfolgt zum Beispiel über einen spezialisierten lokalen Anbieter in dem jeweiligen Zielmarkt. Eine anbieteroffene Multi-Cloud-Strategie erlaubt genau das: die Funktionsdichte und Skalierbarkeit von Hyperscalern mit der Datensicherheit von lokalen und spezialisierten Anbietern wie Innovo Cloud sinnvoll zu vereinen. Auf Knopfdruck, in einem Dashboard, mit einem Ansprechpartner, einer Rechnung und in der einen Sekunde, in der die Geschäftsentscheidung fällt.

Das macht Multi-Cloud-Strategien zu einem der Megatrends in den nächsten Jahren. Denn die Wirtschaft wird weitere Schritte der Digitalisierung gehen und mit Cloud-nativen Technologien – für die Cloud-Computing-Architektur konzipierte und entwickelte Anwendungen –, die Geschwindigkeiten der eigenen Continuous Integration (CI) und Continuous Delivery (CD)-Pipelines weiter steigern. Die Automatisierung der Integrations- und Auslieferungsprozesse ermöglicht dann schnelle, zuverlässige und wiederholbare Bereitstellung von Software ("Deployments"). (Rittal: ra)

eingetragen: 28.12.19
Newsletterlauf: 19.02.20

Rittal: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Wachsende Menge an Cloud-Dienstleistungen

    Managed-Service-Provider sind gezwungen, ihre Rolle grundlegend neu zu definieren, meint IT-Dienstleister Consol. Nur so werden sie im Spannungsfeld von großen Cloud-Playern und veränderten Kundenanforderungen überleben können. Der Cloud Computing-Markt hat in den letzten Jahren einen massiven Wandel vollzogen. Große Player wie Amazon, Google oder Microsoft nehmen eine dominierende Rolle ein und die Kunden stellen neue, höhere Anforderungen an Cloud-Angebote. Damit und mit dem Einzug von DevOps und agilen Methoden haben sich die Rahmenbedingungen für den Betrieb im Allgemeinen und für Managed-Services im Besonderen grundlegend geändert. Auf diese Veränderungen muss auch ein Managed-Service-Provider reagieren, um seine Marktposition zu behaupten.

  • Bedeutung umfassender Transparenz für Apps

    Domino's Pizza wird immer beliebter. Ein Grund dafür ist, dass Kunden nach ihrer Bestellung den gesamten Prozess in der App verfolgen können: Wann wird die Pizza zubereitet, wann in den Ofen geschoben, in eine Schachtel verpackt oder im Lieferauto eingeladen. Schließlich kann der Kunde dem Boten schon die Tür öffnen, bevor dieser klingelt. Denn er weiß genau, wann die heiße Pizza ankommt. Obwohl eine solche Nachverfolgung für eine Pizza- oder Paketlieferung heute möglich ist, erreichen viele Unternehmen noch nicht den gleichen Grad an Sichtbarkeit für ihre geschäftskritischen Anwendungen. Warum ist das so?

  • Secure Access Service Edge (SASE)

    Vor nicht allzu langer Zeit noch wurden die Begrifflichkeiten der Cloud-Sicherheit und der Security Cloud oftmals in einen Topf geworfen und miteinander vermischt. Trotz eines gravierenden Unterschieds. War von Cloud-Sicherheit die Rede, wurde ebendiese der Wolke oftmals abgesprochen - es schwang immer ein gewisses Unbehagen mit der sicheren Datenvorhaltung in der Cloud mit. Die Security-Cloud im Unterschied dazu dient gerade der Sicherheit. Denn dabei wird die Funktionalität von Hardware-Appliances in die Cloud verlagert und den Kunden als Service zur Verfügung gestellt. Heute hat die Cloudifizierung auf breiter Front in Unternehmen Einzug gehalten und die Diskussionen um die Cloud-Sicherheit sind angesichts der Vorteile und Entwicklungen verstummt. Da es oftmals sogar die Anwendungen sind, die den jeweiligen Cloud Computing-Anbieter, wie AWS, Google oder Azure auf der Grundlage ihrer spezifischen Anforderungen vorgeben, sind Multicloud-Umgebungen längst auf der Tagesordnung in Unternehmen.

  • IoT benötigt Automatisierung

    Der Trend zur Automatisierung wird schon seit einiger Zeit immer größer. Ein Treiber dieses Trends ist die umfassende Digitalisierung, ein sich immer schneller drehendes Geschäft und die steigende Datenmenge. Diese große Datenmenge lässt sich manuell einfach nicht mehr effizient, fehlerfrei und schnell verarbeiten und verlangt nach Automatisierung. Ein wichtiger Aspekt der Automatisierung ist die Abschaffung von manuellen, sich wiederholenden Aufgaben in der IT. Diese werden etwa durch die Automatisierung vieler Prozesse im Datawarehouse eliminiert und verkürzen damit die Zeit, bis Unternehmen Wert aus ihren Daten schöpfen können. Über die Vereinfachung und Beschleunigung von Datenprozessen hinaus, hilft Automatisierung auch in anderen Bereichen der IT, zum Beispiel bei IoT und Cloud Computing.

  • Banken adaptieren Cloud Computing

    Das neue Jahr geht für Banken genauso aufregend weiter, wie das alte geendet hat. Denn künstliche Intelligenz und Cloud Computing werden 2020 den Durchbruch im Bankwesen erleben. Um die sich schnell verändernden Kundenerwartungen zu erfüllen, werden Banken ihre Filialmodelle überdenken und noch mehr Technologie einsetzen müssen, um näher am Kunden zu sein. Die PSD2-Zahlungsrichtlinie ist zwar schon seit letztem Jahr in Kraft, doch wenn Banken das meiste aus Open Banking für sich herausholen möchten, sollten sie einen großen Schritt auf neue, agile Marktteilnehmer in diesem Bereich zugehen. Niccolò Garzelli, Senior Vice President Sales bei Auriga, prognostiziert, was die Bankbranche dieses Jahr erwartet.

  • Weiter im Trend liegt Edge Computing

    Red Hat hat zentrale IT-Trends 2020 unter technischen Gesichtspunkten beleuchtet. Auch 2020 werden wieder zahlreiche neue oder weiterentwickelte Technologien den IT-Markt prägen. Red Hat hat die Themen Edge Computing, Internet of Things (IoT), Serverless, Hardware und IT-Silos ausgewählt und die technischen Implikationen und Neuerungen untersucht.

  • Von klügeren Bots und dem IT-Concierge

    Laut Marktanalyst Gartner verantworten CIOs bis 2023 mehr als das Dreifache der Endgeräte als noch 2018. Ohne technologische Unterstützung können sie diese Aufgabe auf Dauer kaum bewältigen. Schon heute sind die IT-Teams gefordert, immer mehr Anwendungen zu unterstützen, zunehmend strategische Beiträge zu leisten und die Kundenzufriedenheit kontinuierlich zu verbessern - mit nur geringfügig steigenden Budgets. Der Einsatz KI-gestützter Automatisierungs- und Self-Service-Tools wird daher im Jahr 2020 immer deutlicher zunehmen und IT-Teams helfen, ihre Service-Level zu halten.

  • Entwicklung hin zu Hybrid-Architekturen

    Während in den vergangenen Jahren vor allem innerhalb der Unternehmensführungen ausgiebig darüber diskutiert wurde, ob nun Cloud oder "On Premise" die bessere Wahl ist, haben sich mittlerweile hybride Architekturen durchgesetzt, die Public- und Private-Cloud-Modelle mit Edge-Infrastrukturen rund um neu gestaltete zentrale Rechenzentren vereinen. Diese im Wandel befindliche Herangehensweise an das Management von Daten und Computing-Ressourcen ist einer der fünf wichtigsten Rechenzentrums-Trends 2020, die Experten von Vertiv, einem weltweiten Anbieter für IT-Infrastruktur- und Continuity-Lösungen, identifiziert haben. Die Entwicklung hin zu Hybrid-Architekturen erlaubt es Unternehmen, die Kontrolle über sensible Daten zu behalten und gleichzeitig die rapide wachsenden Anforderungen an Kapazität und Rechenleistung auf Kundenseite zu erfüllen. Nachdem Konnektivität und Verfügbarkeit gemeinsame Konzepte in diesem neuen Daten-Ökosystem werden, wird in Zukunft der Fokus verstärkt auf die nahtlose Kommunikation zwischen On-Premise-Ressourcen, der Cloud und dem Netzwerkrand - dem "Edge" - gelegt werden.

  • Alle Zeichen stehen auf Desktop-as-a-Service

    "Unser Leben und Arbeiten wird im 21. Jahrhundert maßgeblich von der Digitalisierung bestimmt. Dabei handelt es sich nicht um einen Trend, sondern vielmehr um eine unumkehrbare Umwälzung aller Lebens- und Arbeitsbereiche. Mehr denn je gilt: was digitalisiert werden kann, wird digitalisiert. Vor diesem Hintergrund müssen sich Unternehmen teilweise radikal verändern, und die Art, wie dort gearbeitet wird, ändert sich ebenfalls: die digitale Transformation betrifft uns alle. Die Cloud ist kein Trend mehr, sie ist da, wir müssen sie nun nutzen, um die Anforderungen nach mehr Sicherheit, niedrigeren Kosten, höherer Flexibilität und besserer Nachhaltigkeit zu erfüllen. Für den Desktop-as-a-Service und eine Enduser-orientierte Infrastruktur deuten alle Trends darauf hin, dass sich diese Erwartungen im kommenden Jahr weitestgehend erfüllen werden.

  • Bewertung von Sicherheitsrisiken

    Mit Beginn eines neuen Jahres ziehen viele Unternehmensabteilungen Bilanz über den Verlauf der vergangenen zwölf Monate. Was lief gut, wo gibt es Verbesserungsbedarf und wofür sollten im kommenden Jahr mehr Ressourcen aufgewendet werden? Eine Diskussion, die in der geschäftskritischen IT-Abteilung überaus intensiv geführt wird. Insbesondere in der Security setzen sich die Verantwortlichen mit Fragen wie diesen auseinander: Wie sah die Bedrohungslage im vergangenen Jahr aus? Mit welchen Maßnahmen sind wir diesen entgegengetreten? Gab es Vorkommnisse, die die Notwendigkeit zusätzlicher Maßnahmen nahelegen?