Sie sind hier: Startseite » Markt » Tipps und Hinweise

Ein Mikro-Rechenzentrum so gut wie die Cloud


Die fünf wichtigsten Kriterien für ein Next Generation Data Center
Cloud Computing-Vorteile nutzen: Mit hyperkonvergenter Infrastruktur lässt sich der IT-Betrieb zukunftsfähig aufstellen


Unternehmen befinden sich an einem Wendepunkt. Sie müssen neue Wege finden, wie sie Kunden für sich gewinnen. Die Geschäftsentwicklung erfolgt heute nicht mehr linear. Stattdessen können sich Chancen jederzeit aus allen Richtungen auftun. Unternehmen brauchen die Flexibilität, um umgehend reagieren zu können. Mit einem traditionellen Rechenzentrum ist das nicht möglich. Starre IT-Strukturen sind eher ein Bremsklotz als ein Enabler, weil sie zu komplex zu managen sind und jede Änderung viel Zeit kostet.

Die erste Generation an hyperkonvergenten Systemen ist bereits seit einigen Jahren auf dem Markt. Sie bringt jedoch noch Einschränkungen mit sich. Ein Hauptproblem besteht darin, dass die Systeme nicht für mehrere, parallele Anwendungen ausgelegt sind. Denn HCIs der ersten Generation bieten keine Möglichkeit, einzelnen Anwendungen garantierte Ressourcen zuzuweisen, also für Quality of Service zu sorgen.

Damit Unternehmen eine HCI aber auch im größeren Kontext effizient einsetzen können, Silobildung vermeiden und Kosten sparen, müssen die Systeme die Anforderungen an ein Next Generation Data Center (NGDC) erfüllen. Johannes Wagmüller, Director Solutions Engineering bei NetApp, zeigt, welche Entwicklungsfortschritte die zweite HCI-Generation erreicht und woran sich der Betrieb eines modernen Rechenzentrums heute und künftig messen lassen muss:

1. Anforderungen und Aufbau einer HCI-Lösung
Die wesentliche Anforderung an ein Next Generation Data Center (NGDC) ist umfassende Flexibilität. Diese erreichen Unternehmen durch über Software konfigurierbare Lösungen. Wie diese in der Praxis leistungsfähig dargestellt werden können, veranschaulicht die neue HCI-Lösung von NetApp. Basierend auf Solidfire All Flash Storage, x86 Compute Nodes und VMware ESXi integriet NetApp HCI verschiedene eigene Daten-Services sowie solche von Drittanbietern – darunter Hochverfügbarkeit, Replikation, Reduktion sowie Backup und Recovery. Weitere Lösungen von anderen Herstellern lassen sich per API anbinden und damit automatisieren.

Wer darüber hinaus seine HCI in eine hybride Datenmanagementplattform integriert, gewinnt im IT-Betrieb weiter an Effizienz. Bei NetApp heißt das Konzept Data Fabric. Damit lassen sich Daten komfortabel zwischen verschiedenen Infrastrukturen und Speicherorten verschieben. So werden moderne Hybrid-Cloud- und Multi-Cloud-Umgebungen unterstützt.

2. Einfache Installation, einfacher Betrieb
Für eine einfache Inbetriebnahme einer HCI steht ein Deployment Engine zur Verfügung, der das System innerhalb von 30 Minuten in die bestehende Umgebung integriert. So ist eine hochautomatisierte, einfache Installation in deutlich weniger als einer Stunde, vom Auspacken bis zum ersten Service, möglich. Für das zentrale Management aller HCI-Komponenten während des späteren Betriebs wird die VMware vCenter-Konsole genutzt, die den meisten IT-Verantwortlichen vertraut ist.

3. Flexible Skalierung
Entscheidend für eine flexible Infrastruktur ist, dass Speicher- und Rechenknoten unabhängig voneinander skaliert werden können. HCIs erlauben genau dies: Compute und Storage Nodes können je nach Bedarf hinzugefügt werden, sodass das System flexibel in beide Richtungen skaliert. IT-Verantwortliche vermeiden dadurch Überprovisionierung und sparen Hardware-, Wartungs- und Lizenzkosten.

4. Quality of Service
Ein weiterer wichtiger Aspekt für eine flexible Skalierung ist garantierte Quality of Service. IT-Verantwortliche können jeder Applikation einen Minimalwert, einen Maximalwert und einen Burst-Wert an IOPS zuweisen. Der Minimalwert legt die Leistung fest, die die Anwendung in jedem Fall zur Verfügung hat. Sie wird nie unterschritten. Das verhindert, dass ressourcenhungrige Applikationen die Performance beeinträchtigen und stellt einen ungestörten Betrieb sicher. So sind Unternehmen in der Lage, auch viele unterschiedliche Applikationen parallel auf der HCI zu betreiben. Sie sparen damit Hardware-Kosten und vermeiden Silobildung.

5. Selbstheilung des Systems:
Das HCI-Betriebssystem hat idealerweise die Fähigkeit zur Selbstheilung, denn nur so kann die Hochverfügbarkeit des Systems gewährleistet werden. Diese wiederum ist wichtig um sicherzustellen, dass der Ausfall von Einzelteilen – entweder von SSDs oder auch ganzen Storage Nodes – zu keinen Unterbrechungen führt und der redundante Betrieb nach kurzer Zeit automatisch wiederhergestellt wird.

Die Systeme haben Zukunft
HCI der zweiten Generation können bestens auf dem Weg der Digitalisierung unterstützen. Durch deren Einsatz bewegen sich Unternehmen einen weiteren Schritt in Richtung Next Generation Data Center. HCI ermöglichen es, Rechenleistung und Speicher separat voneinander zu skalieren und mehrere Applikationen gleichzeitig auf demselben System zu betreiben. Dadurch sparen Unternehmen Kosten und erhalten noch mehr Flexibilität.

Dazu kommen ein einfaches Management und ein hoher Grad an Automatisierung. Die Frage, wie man sich die Cloud Computing-Vorteile ins eigene Haus holen kann, braucht daher kein Unternehmen mehr umtreiben. Die Antwort liegt auf der Hand – und sicher lange im Trend: Mit hyperkonvergenter Infrastruktur lässt sich der IT-Betrieb zukunftsfähig aufstellen. (NetApp: ra)

eingetragen: 31.01.18
Home & Newsletterlauf: 02.03.18


NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Tipps und Hinweise

  • Optimale Wissensspeicher

    Graphdatenbanken sind leistungsstarke Werkzeuge, um komplexe Daten-Beziehungen darzustellen und vernetzte Informationen schnell zu analysieren. Doch jeder Datenbanktyp hat spezifische Eigenschaften und eignet sich für andere Anwendungsfälle. Welche Graphdatenbank ist also wann die richtige? Aerospike empfiehlt Unternehmen, ihre Anforderungen unter vier Gesichtspunkten zu prüfen.

  • Zugang zu anfälligen Cloud-Hosts

    Zwischen 2023 und 2024 haben laut einer aktuellen Studie 79 Prozent der Finanzeinrichtungen weltweit mindestens einen Cyberangriff identifiziert (2023: 68 Prozent). Hierzulande berichtet die BaFin, dass 2023 235 Meldungen über schwerwiegende IT-Probleme eingegangen sind. Fünf Prozent davon gehen auf die Kappe von Cyberangreifern.

  • Wachsende SaaS-Bedrohungen

    Die jüngsten Enthüllungen über den massiven Cyberangriff von Salt Typhoon auf globale Telekommunikationsnetzwerke sind eine deutliche Erinnerung an die sich entwickelnde und ausgeklügelte Natur von Cyberbedrohungen. Während die Angreifer sich darauf konzentrierten, Kommunikation abzufangen und sensible Daten zu entwenden, werfen ihre Handlungen ein Schlaglicht auf ein umfassenderes, dringenderes Problem: die Unzulänglichkeit traditioneller Datensicherungsmethoden beim Schutz kritischer Infrastrukturen.

  • Einführung des Zero-Trust-Frameworks

    Die Cyber-Sicherheit entwickelt sich mit rasanter Geschwindigkeit, weshalb eine traditionelle Verteidigung den Anforderungen nicht mehr gerecht wird. Moderne Cyber-Bedrohungen bewegen sich inzwischen mühelos seitlich innerhalb von Netzwerken und nutzen Schwachstellen aus, die mit traditionellen Perimeter-Schutzmaßnahmen nicht vollständig behoben werden können.

  • Leitfaden für eine erfolgreiche DRaaS-Auswahl

    Investitionen in DRaaS (Disaster-Recovery-as-a-Service) sind sinnvoll und zukunftsweisend, denn DRaaS hilft den Unternehmen, ihre IT-Systeme und Daten im Fall eines Datenverlusts schnell wiederherzustellen. Allerdings sollte man im Vorfeld eine gründliche Marktanalyse durchführen und sich über die Funktionsweise und Kosten der verschiedenen Lösungen informieren.

  • ERP-Software muss ein Teamplayer sein

    So wichtig ERP-Systeme auch sind, bei der Auswahl der richtigen Lösung und Anbieter gibt es für Unternehmen eine Reihe von Aspekten zu beachten - schließlich bringen nur passgenaue und ausgereifte Systeme auch die erwünschten Vorteile. IFS erklärt, worauf es bei der Suche ankommt.

  • Grundlage für zukunftssichere Rechenzentren

    Rechenzentren sind das Rückgrat unserer digitalen Welt. Betreiber dieser Infrastrukturen stehen dabei vor immensen Herausforderungen: Sie müssen nicht nur den ununterbrochenen Betrieb und höchste Sicherheitsstandards sicherstellen, sondern auch strengere Umwelt- und Effizienzkriterien einhalten.

  • Cloud-basierte Tests

    Mit der Digitalisierung steigt das Datenvolumen und der Energieverbrauch. Daher stehen Unternehmen jetzt vor der Herausforderung, ihre IT nachhaltiger zu gestalten. Auch das Qualitätsmanagement kann dazu einen wertvollen Beitrag leisten, indem es den CO2-Fußabdruck von Software verringert.

  • Was ist der richtige Cloud-Speicher für KMU?

    Verschiedene Arten von Unternehmen haben unterschiedliche IT-Anforderungen. So haben kleine und mittelständische Unternehmen natürlich nicht die gleichen Anforderungen wie große internationale Unternehmen.

  • ITAM on-premises versus Software-as-a-Service

    IT Asset Management (ITAM) schafft die Basis für Cybersecurity, Kostenkontrolle und effizientes IT-Management. Doch vor allem im Mittelstand fehlen häufig Manpower und Expertise, eine ITAM-Lösung inhouse zu betreiben. Software-as-a-Service-Angebote versprechen Abhilfe.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen