- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Ein Mikro-Rechenzentrum so gut wie die Cloud


Die fünf wichtigsten Kriterien für ein Next Generation Data Center
Cloud Computing-Vorteile nutzen: Mit hyperkonvergenter Infrastruktur lässt sich der IT-Betrieb zukunftsfähig aufstellen

- Anzeigen -





Unternehmen befinden sich an einem Wendepunkt. Sie müssen neue Wege finden, wie sie Kunden für sich gewinnen. Die Geschäftsentwicklung erfolgt heute nicht mehr linear. Stattdessen können sich Chancen jederzeit aus allen Richtungen auftun. Unternehmen brauchen die Flexibilität, um umgehend reagieren zu können. Mit einem traditionellen Rechenzentrum ist das nicht möglich. Starre IT-Strukturen sind eher ein Bremsklotz als ein Enabler, weil sie zu komplex zu managen sind und jede Änderung viel Zeit kostet.

Die erste Generation an hyperkonvergenten Systemen ist bereits seit einigen Jahren auf dem Markt. Sie bringt jedoch noch Einschränkungen mit sich. Ein Hauptproblem besteht darin, dass die Systeme nicht für mehrere, parallele Anwendungen ausgelegt sind. Denn HCIs der ersten Generation bieten keine Möglichkeit, einzelnen Anwendungen garantierte Ressourcen zuzuweisen, also für Quality of Service zu sorgen.

Damit Unternehmen eine HCI aber auch im größeren Kontext effizient einsetzen können, Silobildung vermeiden und Kosten sparen, müssen die Systeme die Anforderungen an ein Next Generation Data Center (NGDC) erfüllen. Johannes Wagmüller, Director Solutions Engineering bei NetApp, zeigt, welche Entwicklungsfortschritte die zweite HCI-Generation erreicht und woran sich der Betrieb eines modernen Rechenzentrums heute und künftig messen lassen muss:

1. Anforderungen und Aufbau einer HCI-Lösung
Die wesentliche Anforderung an ein Next Generation Data Center (NGDC) ist umfassende Flexibilität. Diese erreichen Unternehmen durch über Software konfigurierbare Lösungen. Wie diese in der Praxis leistungsfähig dargestellt werden können, veranschaulicht die neue HCI-Lösung von NetApp. Basierend auf Solidfire All Flash Storage, x86 Compute Nodes und VMware ESXi integriet NetApp HCI verschiedene eigene Daten-Services sowie solche von Drittanbietern – darunter Hochverfügbarkeit, Replikation, Reduktion sowie Backup und Recovery. Weitere Lösungen von anderen Herstellern lassen sich per API anbinden und damit automatisieren.

Wer darüber hinaus seine HCI in eine hybride Datenmanagementplattform integriert, gewinnt im IT-Betrieb weiter an Effizienz. Bei NetApp heißt das Konzept Data Fabric. Damit lassen sich Daten komfortabel zwischen verschiedenen Infrastrukturen und Speicherorten verschieben. So werden moderne Hybrid-Cloud- und Multi-Cloud-Umgebungen unterstützt.

2. Einfache Installation, einfacher Betrieb
Für eine einfache Inbetriebnahme einer HCI steht ein Deployment Engine zur Verfügung, der das System innerhalb von 30 Minuten in die bestehende Umgebung integriert. So ist eine hochautomatisierte, einfache Installation in deutlich weniger als einer Stunde, vom Auspacken bis zum ersten Service, möglich. Für das zentrale Management aller HCI-Komponenten während des späteren Betriebs wird die VMware vCenter-Konsole genutzt, die den meisten IT-Verantwortlichen vertraut ist.

3. Flexible Skalierung
Entscheidend für eine flexible Infrastruktur ist, dass Speicher- und Rechenknoten unabhängig voneinander skaliert werden können. HCIs erlauben genau dies: Compute und Storage Nodes können je nach Bedarf hinzugefügt werden, sodass das System flexibel in beide Richtungen skaliert. IT-Verantwortliche vermeiden dadurch Überprovisionierung und sparen Hardware-, Wartungs- und Lizenzkosten.

4. Quality of Service
Ein weiterer wichtiger Aspekt für eine flexible Skalierung ist garantierte Quality of Service. IT-Verantwortliche können jeder Applikation einen Minimalwert, einen Maximalwert und einen Burst-Wert an IOPS zuweisen. Der Minimalwert legt die Leistung fest, die die Anwendung in jedem Fall zur Verfügung hat. Sie wird nie unterschritten. Das verhindert, dass ressourcenhungrige Applikationen die Performance beeinträchtigen und stellt einen ungestörten Betrieb sicher. So sind Unternehmen in der Lage, auch viele unterschiedliche Applikationen parallel auf der HCI zu betreiben. Sie sparen damit Hardware-Kosten und vermeiden Silobildung.

5. Selbstheilung des Systems:
Das HCI-Betriebssystem hat idealerweise die Fähigkeit zur Selbstheilung, denn nur so kann die Hochverfügbarkeit des Systems gewährleistet werden. Diese wiederum ist wichtig um sicherzustellen, dass der Ausfall von Einzelteilen – entweder von SSDs oder auch ganzen Storage Nodes – zu keinen Unterbrechungen führt und der redundante Betrieb nach kurzer Zeit automatisch wiederhergestellt wird.

Die Systeme haben Zukunft
HCI der zweiten Generation können bestens auf dem Weg der Digitalisierung unterstützen. Durch deren Einsatz bewegen sich Unternehmen einen weiteren Schritt in Richtung Next Generation Data Center. HCI ermöglichen es, Rechenleistung und Speicher separat voneinander zu skalieren und mehrere Applikationen gleichzeitig auf demselben System zu betreiben. Dadurch sparen Unternehmen Kosten und erhalten noch mehr Flexibilität.

Dazu kommen ein einfaches Management und ein hoher Grad an Automatisierung. Die Frage, wie man sich die Cloud Computing-Vorteile ins eigene Haus holen kann, braucht daher kein Unternehmen mehr umtreiben. Die Antwort liegt auf der Hand – und sicher lange im Trend: Mit hyperkonvergenter Infrastruktur lässt sich der IT-Betrieb zukunftsfähig aufstellen. (NetApp: ra)

eingetragen: 31.01.18
Home & Newsletterlauf: 02.03.18


NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Sechs Gründe für Datenvirtualisierung

    Im Zeitalter von Big Data und Cloud Computing, mit explodierendem Datenvolumen und zunehmender Datenvielfalt, können es sich Unternehmen nicht mehr leisten, zahlreiche Kopien und Reproduktionen der Daten zu speichern, die sie für ihr Geschäft benötigen. Deshalb werden bis 2020 mehr als ein Drittel (50 Prozent) der Unternehmen laut Gartner eine Form der Datenvirtualisierung als effiziente und kostensparende Option für die Datenintegration implementieren. Wie profitieren Unternehmen genau davon? Denodo zeigt die sechs wichtigsten Gründe auf, die für den Einsatz von Datenvirtualisierung sprechen.

  • Herausforderung: Budget-Flexibilität

    Der Multi-Cloud-Ansatz setzt sich zunehmend durch. Der Weg in die Multi-Cloud muss jedoch begleitet werden von einem Umdenken bei der Planung von IT-Budgets. Andernfalls können die Vorteile der Multi-Cloud nicht optimal ausgeschöpft werden. Bis 2019 wird der Anteil der Unternehmen, die einen Multi-Cloud-Ansatz verfolgen, auf 70 Prozent steigen - prognostiziert die Gartner Studie "Market Trends: Multi-Cloud Usage Will Drive Cloud Management Platform Growth". Hauptgrund für diese Entwicklung ist die höhere Flexibilität, die die Multi-Cloud bietet. Sie eröffnet Unternehmen die Möglichkeit, sich für die jeweils optimale Lösung zu entscheiden.

  • Migration in die Cloud beschleunigen

    Das zunehmende Tempo der Digitalisierung führt zu einem enormen Fachkräftemangel, insbesondere im Bereich Cloud und Cyber-Sicherheit. Für Unternehmen, die Anwendungen, Daten, Geschäftsabläufe sowie eine Vielzahl von virtuellen Infrastrukturen in die Cloud verlagern müssen, bedeutet das nichts Gutes. Wie können Unternehmen, die bereits bei wichtigen Cyber-Projekten hinterherhinken, die Migration in die Cloud beschleunigen? Venu Lambu, Global Head of Markets for Infrastructure Services bei Cognizant, sieht folgende Lösungsansätze als Möglichkeit, um dieser Engpass zu bewältigen: Zum einen muss die Anzahl interner Sicherheitsexperten stark erhöht werden, zum anderen müssen Berater, Systemintegratoren und Dienstleister in den täglichen Cyber-Betrieb eingebunden werden. Ein Perspektivwechsel sowie die Geschäftsstrategie durch die Cloud-Linse zu betrachten, wobei das Cloud Computing-Modell die betrieblichen Sicherheitsanforderungen zu berücksichtigen hat, sind entscheidende Punkte.

  • Sicherheit innerhalb der Cloud

    Immer öfter gehen Unternehmen den Schritt in die Cloud. Wer aber ist eigentlich für die Sicherheit in der Public Cloud verantwortlich? Keine leichte Frage. Vor allem, weil Sicherheitsverletzungen weitreichende Folgen nach sich ziehen können. Aus Sicht von Rackspace sind dies die fünf häufigsten Bedenken von Unternehmen, wenn es um die Public-Cloud-Sicherheit geht: Schützen Amazon, Microsoft und Google meine Cloud nicht? Die Cloud-Sicherheit besteht auf der einen Seite aus der Sicherheit der jeweiligen Cloud und auf der anderen Seite aus der Sicherheit in der Cloud. Alle großen Cloud-Anbieter erfüllen strenge Sicherheitsstandards und stellen sicher, dass Verstöße - etwa unberechtigte Zugriffe auf die genutzte AWS-, Azure- oder Google-Cloud-Plattform - sehr unwahrscheinlich sind.

  • Fünf Maßnahmen gegen die mobile Schatten-IT

    Mobile Schatten-IT ist zu einer Herausforderung für die Unternehmens-IT geworden: Mitarbeiter nutzen nicht genehmigte Geräte und Apps und kümmern sich dabei wenig um rechtliche Regelungen, Sicherheitsvorschriften oder Compliance-Vorgaben. Virtual Solution zeigt, was Unternehmen gegen den Wildwuchs mobiler Schatten-IT tun können. Die Schatten-IT ist für Unternehmen schon immer ein Problem gewesen: Waren es früher vor allem persönliche Excel-Sheets oder Datenbanken, die eine weitgehend unkontrollierte und nicht autorisierte IT-Struktur bildeten, so geht es mittlerweile mehr und mehr um mobile Systeme und Anwendungen. Smartphones und Tablets werden von Mitarbeitern an den Vorschriften der Unternehmens-IT vorbei genutzt. Sie verwenden Apps wie WhatsApp und Evernote oder Fileshares wie Dropbox oder Google Drive auch für ihre beruflichen Aufgaben.

  • Wenn Kryptojacking auf die Cloud trifft

    Mit prominenten Opfern tauchte Kryptojacking in der ersten Jahreshälfte 2018 mehrmals in den Schlagzeilen auf. Bei dieser Angriffstechnik kapern Hacker fremde Geräte um Kryptowährungen zu schürfen. Kryptowährungen werden durch das Lösen komplexer mathematischer Probleme generiert. An sich ein legitimer Vorgang, allerdings erfordert dieser eine hohe Rechenleistung und ist damit überaus ressourcenintensiv. Für Kriminelle ist es daher lukrativer, das Schürfen widerrechtlich auf fremde Infrastrukturen auszulagern. Das Kapern von Geräten und Netzwerken und die Bündelung zu einem Botnetz maximiert ihre Schürfkapazitäten und beschert einen höheren Gewinn, da sie diese Ressourcen nicht selbst kostenpflichtig unterhalten müssen. Ebenfalls attraktiv sind die damit verbundenen geringeren Konsequenzen: Fälle von Kryptojacking, insbesondere in den USA, werden von den Behörden weniger aggressiv verfolgt als Angriffe mit Malware oder Ransomware, wo das Schadensausmaß deutlich höher ist.

  • Herausforderung: Das Weitverkehrsnetzwerk

    Seit rund 20 Jahren gibt es Unified Communications (UC). Doch die Nachfrage nach UC-Lösungen erreichte nie das prognostizierte Niveau, das hat sich in den vergangenen Jahren geändert. Der Grund für diesen Umschwung ist UC as a Service. Bei UCaaS nutzen Unternehmen Unified-Communications-Dienste, die über eine Cloud bereitgestellt werden. Zu den Vorteilen zählen kürzere Implementierungszeiten und geringere Investitionskosten. Unterschätzt wird jedoch ein weiterer Vorzug: UC as a Service stärkt die Innovationskraft von Unternehmen. Wenn die eigene IT-Abteilung neue UC-Funktionen bereitstellen muss, dauert das oft Monate. Mit UCaaS sind aber solche Erweiterungen dagegen sofort verfügbar. Ein Beispiel sind Funktionen, mit denen Arbeitsgruppen die Zusammenarbeit optimieren können, Stichwort "Collaboration".

  • Sichere SD-WAN-Bereitstellung

    Unternehmen, deren Standorte landes- oder weltweit verteilt sind, verbinden diese häufig seit Jahren, wenn nicht seit Jahrzehnten, per MPLS-Leitungen (Multiprotocol Label Switching). Doch vor allem durch den steigenden Einsatz von Cloud Computing-Technologien ist diese Architektur mittlerweile veraltet. User, Daten und Anwendungen sind heutzutage weit verstreut, Angestellte arbeiten von überall aus und nutzen eine Vielzahl an Geräten. Vor dieser Entwicklung war die Implementierung von Sicherheitskontrollen relativ einfach dahingehend, dass ein definierter Perimeter um alle zu schützenden Vermögenswerte eines Unternehmens existierte. So konnten IT-Teams eine Vielzahl von Sicherheitstechnologien zentral einsetzen. Remote-Standorte wurden in diesen Sicherheitsbereich einbezogen, indem der gesamte Verkehr über MPLS zu einer großen zentralen Firewall umgeleitet wurde, die für die Traffic-Regulierung und Durchsetzung der Sicherheitsrichtlinien sorgte.

  • Herausfinden, was migriert werden muss

    Mehr als 70 Prozent aller Unternehmen beschäftigen sich aktuell mit Microservices. Viele haben sie bereits im Einsatz, andere bereiten gerade die Migration vor - und das mit gutem Grund. Sie versprechen sich davon eine schnellere Weiterentwicklung ihrer Anwendungen, mehr Flexibilität, mehr Leistungsfähigkeit und eine bessere Skalierbarkeit. Wer den Umstieg jedoch unbedacht angeht, schafft mehr Probleme als er löst. Gregor Keller, Sales Engineering Manager bei AppDynamics, nennt als Application-Performance-Expertin die drei größten Herausforderungen, die ihnen tagtäglich begegnen.

  • Technische Umsetzung von IoT-Projekten

    Viele Unternehmen zögern noch bei der Umsetzung von Internet of Things (IoT)-Projekten. Sie verrennen sich in technischen Überlegungen, statt sich auf das zu fokussieren, worauf es eigentlich ankommt: Mit angemessenem Aufwand schnell einen wirtschaftlichen Nutzen zu erzielen. Mehr Mut ist gefragt. Die folgenden vier Tipps helfen dabei. Unternehmen beginnen ein IoT-Projekt häufig mit einem Proof of Concept, um die technische Machbarkeit zu prüfen. Was Sie dabei verkennen: Die Basistechnologie ist heute so weit fortgeschritten, dass sie kein limitierender Faktor mehr ist. Man braucht sich darüber gar nicht so sehr den Kopf zu zerbrechen.