- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Ein Quality-of-Service-Konzept ist gefragt


Praxis-Tipps: So können Sie Quality of Service garantieren
Cloud Service Provider und IT-Abteilungen in größeren Unternehmen kommen am Thema Quality of Service nicht mehr vorbei

- Anzeigen -





Von Georg Mey, Senior Manager Solution Architects EMEA bei NetApp

Wer in einer mandantenfähigen Umgebung viele geschäftskritische Applikationen gleichzeitig betreibt, steht vor einem Problem: Wie lässt sich sicherstellen, dass jede Anwendung genügend Storage-Performance bekommt, damit sie stabil läuft? Ein Quality-of-Service-Konzept ist gefragt. Dafür gibt es verschiedene Ansätze. Der Königsweg ist eine Virtualisierungs-Technologie wie SolidFire, die Kapazität und Performance trennt und garantierte IOPS pro Volume ermöglicht.

Cloud Service Provider und IT-Abteilungen in größeren Unternehmen kommen am Thema Quality of Service nicht mehr vorbei. Sie müssen dafür sorgen, dass geschäftskritische Applikationen schnell und vor allem stabil laufen. Dafür spielt die Speicher-Leistung eine wichtige Rolle. Das Problem: Wenn viele Anwendungen gleichzeitig auf denselben Storage zugreifen, kommt es zum Noisy-Neighbour-Syndrom. Die App, die am lautesten nach Ressourcen schreit, bekommt sie auch. Das bremst andere aus, denn für sie bleibt nur noch der Rest.

Im schlimmsten Fall kann ein Performance-hungriger Nachbar ein ganzes System lahm legen. Während IT-Administratoren in Unternehmen solche Apps auf einen anderen Storage migrieren und ihren Anforderungen nach verteilen können, sind Cloud-Service-Provider im Blindflug. Denn sie können schlichtweg nicht vorhersehen, welche Applikationen ihre Kunden in der Cloud Computing-Infrastruktur betreiben. Welche Möglichkeiten haben sie also, um Performance zu garantieren?

Hardware aufstocken
Bei traditionellen Storage-Lösungen sind Kapazität und Performance untrennbar miteinander verknüpft. IT-Verantwortliche vergrößern daher den Speicher und stocken Hardware auf, wenn sie einzelnen Applikationen mehr IOPS zur Verfügung stellen wollen. In Folge kaufen sie unnötig viel Storage, wobei ein Teil der Ressourcen die meiste Zeit ungenutzt bleibt. Dieser Ansatz ist also nicht sehr kosteneffizient.

IO-Priorisierung: Sonderbehandlung für ausgewählte Volumes
Einige Storage-Hersteller haben eine IO-Priorisierung in ihre Produkte eingebaut, um Quality of Service zu ermöglichen. IT-Administratoren können damit Volumes festlegen, die bei der Performance-Verteilung bevorzugt behandelt werden. Ein solches System funktioniert jedoch nur in Umgebungen, in denen es wenige priorisierte Volumes gibt. Denn sonst machen auch diese sich die Leistung wieder strittig. Außerdem setzt es voraus, dass IT-Verantwortliche wissen, welche und wie viele Volumes sie bevorzugen müssen. Für Cloud-Service-Provider, die keinen Einblick in die Applikationen ihrer Kunden haben, also schwierig.

Rate Limiting: Die maximale Performance einschränken
Andere Hersteller ermöglichen es, harte Performance-Grenzen für ausgewählte Volumes festzulegen. Das verhindert zwar, dass Noisy Neighbours ausscheren können. Gleichzeitig schränkt es aber auch Applikationen ein, die in rechenintensiven Phasen besonders viel Performance benötigen.

Storage Tiering: Dateien schlau umschichten
Ein klassischer Weg, um Performance zu verbessern, ist das Tiering. Dabei bauen IT-Verantwortliche die Storage-Umgebung als Schicht-Modell auf, das aus langsameren Festplatten-Arrays und schnellen SSDs besteht. Intelligente Algorithmen verschieben Apps dann nach Bedarf in den schnelleren oder langsameren Bereich. Dieses ständige Daten-Umschichten belastet jedoch die SSDs. Deshalb müssen Unternehmen für Storage-Tiering die teureren, Single-Level-Cell-Speicherzellen einsetzen.

Das macht allerdings die Kostenersparnis hinfällig, die man sich durch den Einsatz der langsameren HDDs der unteren Schicht versprochen hatte. Außerdem müssen Administratoren dafür sorgen, dass die jeweiligen Speicherschichten immer groß genug sind. Dafür müssen sie die Umgebung laufend überwachen und anpassen. Das verursacht nicht nur hohen Aufwand. Cloud-Service-Provider können gar nicht abschätzen, wie jeder Storage Tier ausgelegt sein muss, da sie nicht wissen, was für Apps ihre Kunden betreiben.

Der Königsweg: Performance virtualisieren
Moderne All-Flash-Systeme bieten einen innovativen Weg, um Quality of Service zu garantieren. Sie sammeln die Performance aller Speicherknoten eines Systems in einem virtuellen Performance-Pool, unabhängig von der Speicherkapazität. Alle Applikationen können dann auf die vereinte Storage-Leistung im Pool zugreifen. IT-Administratoren haben die Möglichkeit, für jedes Volume maximale IOPS, minimale IOPS und Burst-IOPS festzulegen.

Der Minimal-Wert wird nie unterschritten und ist die Performance, die einer Applikation auf diesem Volume immer garantiert zur Verfügung steht. Die maximalen IOPS sind über einen längeren Zeitraum hinweg möglich, die Burst-IOPS in kurzen, besonders rechenintensiven Phasen. Administratoren können Policies definieren, um IOPS-Werte automatisiert zuzuweisen. So lässt sich der Storage künftig auf Knopfdruck provisionieren.

Fazit
Mit einer virtualisierten Quality of Service-Lösung, wie sie NetApp SolidFire bietet, sind Cloud Service Provider in der Lage, ihren Kunden eine stabile Performance zu garantieren. Unabhängig davon, welche Applikationen sich die Storage-Umgebung teilen, bekommt jede die Ressourcen, die sie benötigt. Noisy Neighbours haben keine Chance mehr. Dadurch, dass sich Kapazität und Performance getrennt voneinander managen lassen, können IT-Administratoren das Storage-System so aufbauen, dass es effizient ausgelastet wird. Das spart unnötige Hardwarekosten und steigert die Flexibilität.
(NetApp: ra)

eingetragen: 18.05.17
Home & Newsletterlauf: 31.05.17

NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Kostenoptimierung in der Cloud hat viele Facetten

    McKinsey empfiehlt Unternehmen in seinen Einschätzungen zur Corona-Pandemie, fünf Stadien zu beachten. Beispielsweise ging es im ersten Stadium darum, die unmittelbaren Herausforderungen zu meistern, Business Continuity zu erreichen und Mitarbeitern Remote Access für sicheres Arbeiten von zuhause zur Verfügung zu stellen. In der zweiten Phase steht der Aufbau von Resilienz im Vordergrund. Dazu gehört unter anderem eine gute Cost Governance, die keine Abteilung vernachlässigen darf. Auch wenn die IT im Zuge der Migration in die Cloud schon große Einsparungen erzielt hat, ist deshalb spätestens jetzt der Zeitpunkt gekommen, genauer hinzuschauen und Kostenoptimierung der Systeme in der Cloud zu betreiben. Einige Maßnahmen für auf AWS EC2 laufende Lösungen sollen hier kurz beschrieben werden.

  • Konzept der projektgesteuerten Lieferkette

    Corona-Pandemie, Lockdown, massive Veränderung der Güternachfrage: Weltweit waren Lieferketten im Jahr 2020 einem beispiellosen Stresstest ausgesetzt. Und eine Rückkehr zur völligen Normalität steht nach wie vor aus. Oracle nimmt die fortbestehende Unwägbarkeit zum Anlass, Unternehmen aus Industrie, Handel und Logistik einen Leitfaden zum Aufbau widerstandsfähigerer Lieferketten zu präsentieren. Ziel ist es, Lieferunterbrechungen, Marktvolatilität sowie die sich ändernden globalen Handelsstrukturen und Kundenerwartungen zu meistern. Dadurch wird eine Basis geschaffen, um die Kontinuität des eigenen Geschäftsmodells sicherzustellen. Widerstandsfähigere Lieferketten aufzubauen, die auf Wachstum ausgerichtet sind, erfordert leistungsfähige Planungs- und Managementlösungen. Sie unterstützen Anwender dabei, die Effizienz der unternehmensweiten Abläufe zu verbessern, eine größere Voraussicht in Bezug auf Angebot und Nachfrage in ihren Netzwerken zu gewinnen und ihren Kunden einen verbesserten Service zu bieten. Zum anderen ist es ratsam, eine umfassende Strategie zu entwickeln, um die operativen Prozesse im Unternehmen mit IT-basierten Supply Chain Management zu synchronisieren. Die folgenden fünf Punkte geben Orientierung.

  • Vor der Cloud-Migration gibt es viel zu bedenken

    Immer mehr Unternehmen bieten Software an. Waren es früher fast ausschließlich Software-Firmen, ist Software heute auch beispielsweise für Autobauer, Maschinenbauer, Sportartikelhersteller und Unternehmen aus vielen weiteren Branchen ein elementarer Teil des Geschäfts. Insbesondere bei Maschinen wird der Software-Anteil immer wichtiger. Von den verschiedenen Möglichkeiten, Software auszuliefern, kristallisiert sich Software-as-a-Service (SaaS), gehostet in einer Public Cloud wie AWS, als Ideallösung heraus - aus mehreren Gründen, die aber auf alle Branchen zutreffen.

  • Zugriff auf Cloud-Anwendungen

    Die Cloud ist dank ihrer Flexibilität und Kapazität im Vergleich zu herkömmlichen Rechen- und Speichermethoden mittlerweile ein wichtiges Standbein für viele Unternehmen geworden. Doch wie bei herkömmlichen Speicher- und File-Sharing-Methoden entstehen auch durch die Cloud spezifische Datensicherheitsprobleme. Ein pragmatischer, datenzentrierter Ansatz kann den Weg in die Wolke jedoch übersichtlich umsetzbar machen. Im Folgenden ein 7-stufiges Framework für ein effektives Cloud-Security-Programm. Cloud-Anwendungen befinden sich außerhalb der IT-Umgebung eines Unternehmens und damit auch außerhalb des Schutzes, den viele netzwerk- oder perimeterbasierte Sicherheitstechnologien bieten. Bevor Unternehmen Cloud-Services nutzen, ist es wichtig, die Geräte zu sichern, die für den Zugriff auf die Cloud verwendet werden. Diese Endpunkte sollten durch Sicherheitstechnologien wie Data Loss Prevention (DLP) mit Kontrollen für die Datenexfiltration, End-to-End-Verschlüsselung und den sicheren Zugriff geschützt werden. Auf diese Weise wird der unbefugte Upload sensibler Daten in die Cloud verhindert und sichergestellt, dass Daten vor dem Hochladen verschlüsselt werden.

  • Das Beste aus der KI-Investition machen

    Die COVID-19-Pandemie hat das Tagesgeschäft in vielen Branchen so unvermittelt auf den Kopf gestellt, dass den Führungskräften vielerorts eine Entscheidungshilfe für den Übergang in die Post-Corona-Zeit fehlt. Einen Lösungsansatz bietet die autonome Datenverarbeitung. Sie bezeichnet die Fähigkeit eines Computers, sich selbst automatisch durch adaptive Technologien zu verwalten. Oracle präsentiert einen Ausblick, welche Potenziale für Unternehmen und ihre strategischen Entscheider darin liegen und wie dieses neue Konzept aussehen wird. Die KI-basierte Modellierung verschiedener Szenarien wird im Zuge der COVID-19-Pandemie zu einem immer wichtigeren Werkzeug für Führungskräfte, die Unterstützung bei strategischen Entscheidungen benötigen. Führungskräfte aller Bereiche im Unternehmen sind gut beraten, sich vor diesem Hintergrund die wichtigsten Interessengruppen anzusehen und Risiken zu identifizieren. Auf dieser Basis lassen sich Modelle für den Worst Case und die nach Wahrscheinlichkeit gewichteten Ergebnisse der Geschäftsentscheidungen erstellen.

  • Höhere Flexibilität: SECaaS ist ein Abomodell

    Die Cloud-Nutzung ist mittlerweile nahezu Standard: Dienste werden ganz selbstverständlich migriert, auch IT-Sicherheitstools. Ansätze wie "Security-as-a-Service" sind der Cloud-Security zweifelsfrei dienlich. Eine moderne Cloud-Strategie zu implementieren setzt jedoch Wissen um diese Ansätze und die Cloud Security im Allgemeinen voraus. "Zur Absicherung von Cloud-Diensten lohnt es, auf die Offenheit der jeweiligen Lösung zu achten," macht IT-Sicherheitsexpertin Patrycja Tulinska aufmerksam. Die Geschäftsführerin der PSW Group begründet: "So lassen sich Drittanbieter integrieren, die sich zur Bedrohungslage austauschen. Sie verhindern Anbieterabhängigkeiten und schaffen die Basis für eine ganzheitliche Cloud-Sicherheit. Insellösungen hingegen können nicht das Ziel sein. Sie können einen unnötigen Anstieg von Sicherheitswarnungen zur Folge haben, denn dieselbe Bedrohung kann mehrfach und auf verschiedene Art gemeldet werden."

  • Google Cloud: Als Phishing-Werkzeug missbraucht

    Das Research Team von Check Point Software Technologies hat eine neue Phishing-Kampagne in Zusammenhang mit Google Cloud aufgedeckt. Cyber-Kriminelle missbrauchen den Namen und die Funktionen der Plattform, um an die Login-Daten der Nutzer zu gelangen. Der Angriff beginnt mit einem PDF-Dokument, welches von den Betrügern auf den Google Cloud-Speicherort ‚Google Drive' geladen wird. Dieses PDF enthält einen Link zu einer Phishing-Seite, welche sich als angeblicher Internet-Auftritt von Office 365 maskiert und mit einem gefälschten Login-Fenster aufwartet. Geben die Nutzer dort ihre Zugangsdaten ein, werden Sie an den Server der Hacker geschickt. So weit, so das bekannte Vorgehen bei Phishing-Attacken.

  • Wie die Cloud Workloads in der Cloud schützt

    Lange betrachteten selbst große Unternehmen die tägliche Datensicherung auf Tape als ausreichenden Schutz für ihr IT-Netzwerk. Durch die Backups von gemeinsam genutzten Datei- und E-Mail-Servern war zwar der Verlust einiger Dokumente oder E-Mails unangenehm, bedeutete aber nicht das Ende des Geschäftsbetriebs. In allen Branchen wird allerdings zunehmend Software-as-a-Service (SaaS) eingeführt und viele Firmen vertrauen ihre Messaging- und Collaboration -Workloads der Cloud an. Cloud-basierte Anwendungen bieten Vorteile - sie sind jedoch nicht immun gegen Phishing-Angriffe, Ransomware, Anwendungsfehlern oder bösartige Insiderbedrohungen. Heutzutage wird die Business Continuity, also die Aufrechterhaltung des Geschäftsbetriebs, als eine der drei wichtigsten Erfolgsfaktoren im Wettbewerb und als zentrale Aufgabe des Managements betrachtet - die allerdings von der IT-Abteilung erfüllt werden muss. Die kritische Relevanz der IT zeigt sich darin, dass bereits Unterbrechungen von wenigen Minuten, im Trading-Bereich sogar Sekunden, zu schweren Verlusten im fünfstelligen Bereich führen und dem Ruf des Unternehmens schaden können. Darunter leidet wiederum das interne Ansehen der IT-Abteilung.

  • Den Schritt zu Cloud POS-Systeme wagen

    Der Kunde sollte im Mittelpunkt eines jeden Unternehmens stehen. Doch selbst, wenn dem so ist haben klassische Organisationen den Kunden nicht mal im Organigramm. Was machen kundenzentrierte Unternehmen also anders? Es müssen nicht nur Hierarchien verflacht, sondern auch bestehende Prozess-Silos und -Einbahnstraßen abgebaut werden. Der Schlüssel hierzu ist die Technologie. Im Retail Bereich zum Beispiel müssen Unternehmen inzwischen in der Lage sein, in Echtzeit und individuell mit dem Kunden zu interagieren. Wie können Shops also flexibler werden und ihre Daten vereinheitlichen, um den personalisierten Wünschen des Endkunden gerecht zu werden? Die Customer Experience (CX) des POS-Systems spielt hier eine zentrale Rolle.

  • E-Invoicing 2.0: Rechnungsabwicklung in der Cloud

    Digitalisierte Geschäftsprozesse gehören schon lange zur Normalität in allen Bereichen der Unternehmenswelt. Auch einer der wichtigsten Arbeitsabläufe - die Rechnungsabwicklung - verabschiedet sich immer mehr aus dem analogen Dasein und findet seinen neuen Platz in der Cloud. Ganz neue Anreize zur Umstellung und Modernisierung kamen nun aus dem Europäischen Parlament: Ab dem 27. November dieses Jahres greift die sogenannte E-Rechnungsverordnung (ERechV) und verpflichtet öffentliche Einrichtungen wie Hochschulen, Krankenhäuser oder städtische Verwaltungen zu einem ganz neuen System rund um elektronische Rechnungen wie "ZUGFeRD" oder "XRechnungen".