- Anzeige -


Sie sind hier: Startseite » Fachartikel » Hintergrund

Storage in der OpenStack-Ära


Open Source Framework für Private und Public Clouds
Die OpenStack-Umgebung ist anders als normal virtualisierte Umgebungen


Von Christian Arkadius Keil, Senior Pre-Sales Consultant DACH bei Tintri

(21.03.16) - Der Aufstieg von OpenStack, dem Open Source Framework für Private und Public Clouds, ist seit seinem Beginn 2010 äußerst bemerkenswert. Die Plattform ist zu einem echten Phänomen geworden und mehr als 500 Firmen, darunter einige Schwergewichte der IT, sind der OpenStack Foundation bereits beigetreten. Bereits jetzt unterstützen alle wichtigen Hypervisoren und eine große Anzahl an Speicherlösungen OpenStack, darunter Ceph, NetApp, Tintri, EMC Solidfire, LVM und GlusterFS. Unternehmen, die mit dem Gedanken spielen, für ihre neue Cloud-Architektur auf OpenStack zu setzen, benötigen jedoch den richtigen Unterbau, um die Vorteile voll nutzen zu können. Eine Frage ist auch bei OpenStack von zentraler Bedeutung: Wie sieht der ideale Speicher aus?

Es gibt eine ganze Reihe an unternehmerischen Gründen OpenStack zu nutzen. Zum einen gibt OpenStack als Open-Source-Projekt Entwicklern direkten Zugang zu Infrastruktur des Programms, die damit unglaublich schnell Innovationen umsetzen können, die in normalen virtualisierten Umgebungen nicht möglich wären. Zusätzlich können Kunden von enormen Kosteneinsparungen durch Open Source profitieren, anstatt Herstellern teure Software-Lizenzen zu bezahlen. Die hersteller-neutrale Open Source OpenStack-API vermeidet damit Herstellerbindung.

Allgemein bietet OpenStack Organisationen eine größere Flexibilität beim Einsatz der Plattform. Kunden können den OpenStack-Code einfach selbst herunterladen und aufsetzen oder sich für eine Version von Herstellern wie RedHat, VMware, SUSE, HP, Canonical oder Mirantis entscheiden. Auch vertikal integrierte Lösungen wie VMware Integrated Openstack oder Piston OpenStack sind möglich.

Auch OpenStack benötigt natürlich eine Speicherlösung auf der die Umgebung aufbaut. Das Angebot ist enorm weit gefächert und es kann schwierig sein, sich für eine Plattform zu entscheiden. Vorher ist es allerdings wichtig zu verstehen, dass Open-Stack-Umgebungen von Natur aus komplett anders sind, als die viel stärker kontrollierten Virtualisierungs-Umgebungen an die wir uns bisher gewöhnt haben. Ein wichtiger Unterschied ist etwa, dass OpenStack multiple Tenants und Nutzer unterstützt, die alle ihre eigenen VMs in einem Cloud-Pool kreieren können.

Volle Visibilität, um individuelle VMs auf der darunter liegenden Infrastruktur zu sehen, sie zu analysieren und zu verwalten, ist deshalb besonders wichtig. Mit normalen Speicherlösungen die auf LUNs und Volumes aufbauen und nicht auf VM-Ebene, ist volle Visibilität allerdings nicht zu erreichen. Es bedarf VM-zentrischen Speichers, der den wachsenden Bedürfnissen der generell virtualisierten Ära gerecht wird, inklusive OpenStack-Umgebungen mit ihren sehr komplexen Mappings für LUNs und Volumes.

So muss OpenStack-Speicher sein
Der wichtigste Faktor für den richtigen Speicher für OpenStack, um eine wachsende Anzahl an VMs mit voller VM-Visibilität zu verwalten, inklusive VMs in der Cloud, ist also VM-zentrischer Speicher, der tief mit OpenStack APIs wie Cinder, Nova oder Keystone integriert ist. Viele Speicherhersteller haben bereits Cinder-Treiber für OpenStack beigesteuert. Cinder bietet langlebige Block-Level-Speicher für OpenStack und verwaltet deren Erstellung und das Anlegen von Block-Speichern für Server.

Blockspeicher-Volumen sind voll in OpenStack integriert, also sowohl Compute als auch das Dashboard, so dass Cloud-Nutzer ihren Speicherbedarf selbst verwalten können. Das bedeutet jedoch nicht, dass alle Treiber und Lösungen gleich sind. Denn nur mit einer tiefen Integration auf VM-Ebene sind Speicherlösungen fähig, Analysen in Echtzeit und Aufschlüsselung der Latenz zu bieten. Kunden müssen sich Lösungen genau ansehen, um zu bestimmen, ob sie Sichtbarkeit von VM- und Cinder-Volumes bieten, weil dies beim Betrieb und der Problembehebung von OpenStack-Installationen einen dramatischen Unterschied machen kann.

Neben der VM-Visibilität gibt es zahlreiche weitere Faktoren, die es bei der Wahl des richtigen Speichers für OpenStack zu berücksichtigen gilt. Zum Beispiel, die immens wichtige Latenz: Organisationen sollten eine gleichmäßige und vorhersehbare Latenz über alle OpenStack-Tenants und optimierte Cinder-Snapshots, Clones und VM-Provisionierung erwarten können. Hier trennt sich oft schnell die Spreu vom Weizen, da viele Lösungen mit verbautem Flash viel Performance generieren können, die wichtige Latenz hingegen hinterherhinkt. Beim Thema Performance gilt generell: Man kann (fast) nie zu viel Performance haben. Vor der Wahl des Speichers sollte man potenzielle Hersteller # nach Garantien für Performance und QoS fragen, genauso wie nach der Möglichkeit minimale und maximale IOPS einstellen zu können. Auch dies ist bei vielen einfachen Lösungen nicht selbstverständlich.

Schritt für Schritt zu OpenStack
Viele Organisationen werden wohl schrittweise von ihren bestehenden virtualisierten Umgebungen auf OpenStack wechseln. Da ist es natürlich ein besonderer Bonus, wenn man eine Lösung zur Verfügung hat, die sowohl mit OpenStack als auch mit anderen Hypervisoren parallel arbeiten kann. Das vermeidet Investitionen in neue Hardware und bietet die Flexibilität OpenStack-Installationen schrittweise zu skalieren. OpenStack bietet viele Chancen für die IT. Um diese voll ausnutzen zu können, müssen Organisationen VM-zentrischen Speicher wählen, der vorhersehbar hohe Leistung, einfache Verwaltbarkeit und simple Skalierung bietet. (Tintri: ra)

Tintri: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Appliances: Engpass im Rechenzentrum?

    Es scheint ein Widerspruch zu sein: Obwohl die meisten Unternehmen viele ihrer Anwendungen in die Cloud migrieren, erfreut sich das klassische Rechenzentrum nach wie vor großer Beliebtheit. Seit nun mehr als einem Jahrzehnt virtualisieren Unternehmen ihre Rechenzentren und führen Cloud-Technologien ein. Und sagten einige Experten vor gut zehn Jahren voraus, dass das Rechenzentrum der Zukunft vollständig in der Cloud betrieben würde, sehen wir heute, dass dies nicht eingetreten ist. Stattdessen führten Unternehmen Hybrid- und Multi-Cloud-Umgebungen ein, die ihnen die Wahl geben, ihren Anwendungen und Daten das ideale Zuhause zu geben.

  • Cloud-gestützte Sicherheitsmechanismen

    Cloud Computing-Lösungen sind auch im IT-Security-Bereich zunehmend verbreitet. Viele Anbieter verlagern Sicherheitsmechanismen und andere Dienste in ihre Rechenzentren, anstatt diese auf klassische Weise bei den Kunden vor Ort (On-Premises) zu betreiben. Doch ist die Anti-Malware-Lösung aus der Cloud tatsächlich die geeignete Variante für jeden Anwendungsfall? Und wo genau liegen eigentlich die möglichen Vor- und Nachteile des Virenschutzes aus der Wolke? Die IT-Sicherheits-Experten von Tabidus Technology nennen drei gute Gründe für die Cloud. Im Gegenzug weisen sie aber auch auf drei problematische Aspekte hin, die Unternehmen und IT-Verantwortliche unbedingt im Auge behalten sollten.

  • Cloud Computing ist Mainstream in der IT

    "Die Wolke" ist in der Unternehmens-IT deutscher Unternehmen angekommen. Auch hierzulande profitieren Firmen jeder Größe von niedrigeren Kosten bei größerer Skalierbarkeit und Zuverlässigkeit. Die Verantwortung für die Sicherheit ihrer Daten sollten Unternehmen jedoch nicht in die Hände von Cloud-Providern legen. Der Datenverschlüsselung und der Kontrolle über die Verschlüsselungs-Keys kommt in heterogenen IT-Landschaften besondere Bedeutung zu. Denn im Ernstfall ist Verschlüsselung die letzte Feste der IT-Security.

  • Vorteile von Security-as-a-Service

    Security-as-a-Service wird bei Großunternehmen und KMU immer beliebter: Die sich ständig erweiternde Bedrohungslandschaft und der Mangel an Fachkräften führt zur zunehmenden Akzeptanz von IT-Sicherheit als Dienstleistung. Denn der Arbeitsmarkt bleibt angespannt, in Deutschland gibt es laut Bitkom 82.000 offene Stellen für IT-Spezialisten, und die Nachfrage nach Sicherheitsexperten steigt branchenübergreifend. Für viele Unternehmen ist deshalb eine Auslagerung von Management, Implementierung und Überwachung des komplexen Security-Bereichs eine sinnvolle und kosteneffiziente Investition, um ihre internen IT-Ressourcen zu entlasten und zugleich ihr Sicherheitsprofil zu schärfen.

  • Einblick in jede Cloud-Instanz haben

    Die Vielzahl an Cloud Computing-Services eröffnet zahlreiche Möglichkeiten, einzelne Geschäftsprozesse zu optimieren. Die richtige Cloudstrategie hat sich damit längst zu einem Wettbewerbskriterium entwickelt. Viele Unternehmen setzen auf eine Multicloud-Strategie, um bei eventuellen Ausfällen den Geschäftsbetrieb aufrechterhalten zu können und nicht von nur einem Anbieter abhängig zu sein. Die Nutzung von Cloudservices sollte umfassend geplant werden. Bei lediglich punktuellen Migrationen einzelner Prozesse besteht das Risiko, dass das Optimierungspotential nicht vollständig genutzt wird. Doch neben dem Faktor Performance hat auch die Datensicherheit mittlerweile geschäftskritische Relevanz erreicht. Regulatorische Standards sollten daher frühzeitig in das Multicloud-Konzept einfließen, die Auswahl der Anbieter mitbestimmen und durch geeignete Sicherheitsmaßnahmen flankiert werden.

  • Cloud-Services für jedermann

    Datenschutz war 2018 ein zentrales Thema in allen Medien. Die EU-Datenschutzgrundverordnung (DSGVO) hat viele Unternehmen vor enorme Herausforderungen gestellt, und diese sind noch lange nicht gemeistert. Zahlreiche Firmen hinken bei der Umsetzung weit hinterher, dabei kommen 2019 bereits neue Richtlinien auf sie zu. Welche weiteren Entwicklungen können wir nächstes Jahr in Bezug auf den Umgang mit Daten erwarten?

  • Das Glück kurzer Reaktionszeiten

    Unternehmen müssen heute kundenorientiert arbeiten und in der Lage sein, Innovationen schnell auf den Markt zu bringen. Dabei müssen Applikationen hohe Ansprüche an Verfügbarkeit und Performance erfüllen. Ausfallzeiten kann sich niemand leisten, denn die Kundenerwartungen sind hoch. All das erfordert eine flexible, skalierbare IT-Umgebung. Um den unterschiedlichen, wechselnden Anforderungen gerecht zu werden, geht der Trend dahin, mehrere Clouds zu kombinieren. Ob eine Hybrid Cloud aus Public Cloud und Private Cloud oder gar verschiedene Public Clouds - laut einer aktuellen Studie von 451 Research in 14 europäischen Ländern setzen bereits 84 Prozent eine Kombination aus verschiedenen Cloud Computing-Umgebungen ein.

  • Mit Cloud ERP ins internationale Geschäft

    Immer mehr auch mittelständische Unternehmen eröffnen oder besitzen internationale Niederlassungen. Doch unterschiedliche Gesetze, Buchhaltungsregeln und Sprachen erschweren die Organisation. Die Firmen können deshalb Cloud-ERP-Lösungen einsetzen, die sowohl konzern- als auch landesspezifische Besonderheiten sowie Compliance-Richtlinien berücksichtigen. Auch bei M&A-Projekten ist Cloud-ERP nützlich und es hilft, burning platforms zu vermeiden.

  • AI als Kollege im Service Desk

    Alle reden von Artificial Intelligence, um AI gibt es einen regelrechten Hype: Die Erwartungen sind enorm, die Ziele oft vage, konkrete Lösungen noch selten. In diesem Beitrag wird erläutert, welche Auswirkungen AI auf das IT Service Management (ITSM) in Unternehmen haben wird - und wo die Grenzen liegen. In Gartners "Hype Cycle for Emerging Technologies" vom August 2017 lag AI - vertreten durch Deep Learning und Machine Learning (ML) - ganz an der Spitze der Hype-Kurve. Wie es weitergeht, ist klar: bergab. Überzogene Hoffnungen werden enttäuscht, bevor die neue Technologie dann letztlich Einzug in den Alltag findet. Bei Deep Learning und ML wird dies laut Gartner zwei bis fünf Jahre dauern, bei AI-basierten Virtual Assistants fünf bis zehn. Aber AI wird kommen.

  • Cloud: Datensicherheit & Angriffsszenarien

    "Ihr Konto wurde gehackt!" Nachrichten mit diesen oder ähnlichen Betreffzeilen entlocken den meisten Nutzern nur noch ein müdes Lächeln. Derartige E-Mails von breit angelegten Phishing-Kampagnen, die meist schon durch ein äußerst zweifelhaftes Design auffallen, werden in der Regel unmittelbar aussortiert. Eine weitaus höhere Erfolgsquote verspricht jedoch die Kombination von Phishing mit Cloud Computing-Anwendungen. Die Aussicht, mit nur einer erfolgreichen E-Mail eine Vielzahl verwertbarer Daten zu erbeuten, ist für Cyberkriminelle Motivation genug, die Angriffstechniken weiter zu verfeinern und zielgerichteter vorzugehen. Für Unternehmen ein Grund, sich im Rahmen ihrer Datensicherheitsstrategie näher mit diesem Angriffsszenario auseinanderzusetzen.