Sie sind hier: Startseite » Fachartikel » Hintergrund

Von der Holzklasse bis zur Masterclass


Tier-Klassifizierungen: Wie erkenne ich die Qualität eines Rechenzentrums?
Verfügbarkeitsanspruch und Redundanz sind Unterscheidungskriterien für die Tier-Kategorien 1 bis 4


(08.02.11) - Beim Cloud Computing steht das Rechenzentrum im Mittelpunkt. Doch längst nicht jedes Datacenter besitzt die gleichen Qualitäten. Der sogenannte Tier-Standard gibt darüber Auskunft. Doch was bedeutet das eigentlich?
Rechenzentren variieren in vielerlei Hinsicht: Die Unterschiede betreffen die Systemtechnik, Energieeffizienz, Datensicherheit oder auch die verwaltungstechnische Organisation. Für den Nutzer ist besonders die Verfügbarkeit bzw. Ausfallsicherheit seines Rechenzentrums wichtig – Anwender erwarten zuverlässiges Arbeiten rund um die Uhr. Das gilt umso mehr, wenn der Applikationsbetrieb in die Cloud ausgelagert wird. Die Managed-Services-Anbieterin BCC besitzt ein Rechenzentrum auf höchst möglichem Level Tier 4 und erklärt die Unterschiede dieser Klassifikation.

Maßstab für Ausfallsicherheit
Mindestverfügbarkeiten garantiert heute jedes Service Level Agreement (SLA). Dahinter verbirgt sich die Wahrscheinlichkeit, dass ein System bezogen auf einen festgelegten Zeitraum funktionstüchtig ist – zum Beispiel zu 99,9 Prozent. Wie aber erhält der Nutzer Angaben zur Ausfallsicherheit des gewählten Systems? Dazu hat das US-amerikanische Uptime Institute in der TIA-942 (Telecommunications Infrastructure Standard for Data Centers) eine vierstufige Tier-Klassifizierung vorgenommen, wobei Tier hier für Rang oder Schicht steht. Verfügbarkeitsanspruch und Redundanz sind die Unterscheidungskriterien für die Tier-Kategorien 1 bis 4. Zur Einteilung betrachtet das Tier-Konzept neben der Anzahl der Vorsorgungswege und der Möglichkeit zur Wartung im laufenden Betrieb auch Single Point of Failure (SPOFs), Fehler in Systemkomponenten oder -pfaden, die zum Ausfall des Gesamtbetriebs führen. Darüber hinaus zieht das Konzept die Fehlertoleranz, die Anzahl von Brandabschnitten und die erforderliche Entwärmungsleistung zur Beurteilung heran.

Tier 1 – die Holzklasse
Für Rechenzentren im Level Tier 1 ist keine Redundanz gefordert, es besteht nur ein einziger Versorgungsweg für Energie und Kälteverteilung. Das System ist daher nicht fehlertolerant und auch eine Wartung im Betrieb ist unmöglich. Tier 1 fordert die geringste Entwärmungsleistung von 220-320 W/m2. Aus der Beobachtung entsprechender Rechenzentren ergibt sich eine jährliche Ausfallzeit von 28,8 Stunden, was einer 99,67-prozentigen Verfügbarkeit entspricht.

Tier 2 – einfache Redundanz im RZ
Die zweite Stufe in der Tier-Klassifizierung unterscheidet sich im Wesentlichen dadurch, dass redundante Komponenten verwendet werden und eine Entwärmungsleistung von 430-540 W/m2 nötig ist. Bei Tier-2-Rechenzentren ist mit 99,75 Prozent Verfügbarkeit entsprechend 22 Stunden Ausfallzeit pro Jahr zu rechnen.

Tier 3 – Fehlertoleranz möglich
Tier-3-Rechenzentren verwenden redundante Komponenten, der Server ist zweifach vorhanden sowie mehrfache, aktive und passive, Versorgungswege. Das System wird dadurch fehlertolerant und eine Wartung ist auch während des Betriebs möglich. Single Point of Failure kommen auch in Tier-3-Rechenzentren vor. Die Entwärmungsleistung liegt bei 1.070-1.620 W/m2. Tier-3-Rechenzentren erhöhen ihre Ausfallsicherheit zudem durch mehrere Brandabschnitte. Insgesamt erreicht ein Rechenzentrum in Stufe 3 bei einer Ausfallzeit von 1,6 Stunden jährlich eine Verfügbarkeit von 99,98 Prozent.

Tier 4 – die Masterclass
Rechenzentren mit Tier-4-Level gehen noch einen Schritt weiter: Durch die komplette Redundanz mit doppelten Versorgungswegen sind SPOFs nahezu ausgeschlossen. Die Entwärmungsleistung liegt dabei über 1.620 W/m2. Mit Tier 4 erhält der Anwender ein äußerst fehlertolerantes System. Bei nur 0,8 Stunden durchschnittlicher jährlicher Ausfallzeit können die Anwender eine Verfügbarkeit von 99,991 Prozent erwarten.
(BCC Business Communication Company: ra)

BCC Business Communication Company: Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Datensicherheit auf mehreren Ebenen

    Unternehmen verlassen sich bei der Verwaltung und Bereitstellung ihrer Daten zunehmend auf Cloud-Dienstleistungen. Dadurch müssen sich die Datenverantwortlichen zunehmend mit der nötigen Datensicherheit und -integrität auseinandersetzen.

  • Schock über die Cloud-Rechnung?

    Die Relevanz von Cloud Computing-Technologie hat im vergangenen Jahrzehnt rasant zugenommen und damit auch die Anzahl an Geschäftsprozessen und Services, die Unternehmen in die Cloud auslagern. Viele Unternehmen verfolgen dabei einen "Cloud first"-Ansatz als zentralen Bestandteil ihrer digitalen Transformationsbemühungen.

  • Einführung in CRaaS

    In der Datenwelt findet ein Sicherheitswettlauf statt. Mit dem Fortschritt der Technologie entwickeln sich aber auch die Waffen und Taktiken der Cyberkriminellen weiter. Unternehmen müssen deshalb ständig ihre Performance optimieren und bessere Methoden entwickeln, um sich vor neuen Attacken und Angriffsmethoden zu schützen.

  • Wenn das Flussdiagramm in die Cloud zieht

    Business-Process-Management (BPM) hat in den letzten Jahren eine steile Weiterentwicklung hingelegt. Das Dokumentationstool von einst, dessen Zweck vorwiegend darin bestand, eine möglichst große Zahl von Prozessen präzise zu visualisieren, hat sich zu einer vielseitig vernetzbaren Technologie entwickelt, die Geschäftsprozesse systemübergreifend analysiert und überwacht, mit dem Ziel Optimierungspotenziale zu nutzen.

  • Kenntnisse über AWS-Cloud-Mechanismen

    Das Sysdig Threat Research Team entdeckte kürzlich eine ausgeklügelte Cloud-Operation, genannt Scarleteel, welche in einer Kundenumgebung, zum Diebstahl geschützter Daten führte. Der Angreifer nutzte eine containerisierte Arbeitslast aus und verschaffte sich so Zugang zu einem AWS-Konto, um geschützte Software und Anmeldeinformationen zu stehlen.

  • Den richtigen Cloud-Service-Anbieter auswählen

    Vorschriften zur Datenhoheit, wie der Data Governance Act in Europa, können für Unternehmen eine Herausforderung darstellen. Eine der Hauptschwierigkeiten besteht darin, den Überblick darüber zu behalten, wo Daten gespeichert sind. Zudem müssen Unternehmen sicherstellen, dass die Speicherung mit den lokalen Datenschutzbestimmungen übereinstimmt.

  • Compliance vs. oder sogar mit IT-Sicherheit?

    Kleine und mittelständische Unternehmen (KMU) sehen sich seit Jahren mit Cyberattacken konfrontiert, die vor allem auf ihre Daten abzielen. In den letzten Jahren hat sich diese Perspektive dahingehend geändert, dass sie sich mit immer mehr Ransomware-Bedrohungen auseinandersetzen müssen. Beispiele dafür lassen sich so viele finden, dass sie nicht einzeln erwähnt werden müssen, allerdings sind in jüngster Zeit bereits Fahrradhersteller, Chemieproduzenten oder Nachrichtenmagazine darunter zu finden.

  • Data Act könnte schon 2024 in Kraft treten

    Wir erleben es jeden Tag: Datenmengen steigen ins Unermessliche. Die Prognose der EU-Kommission erwartet allein in der EU zwischen 2020 und 2030 einen Anstieg des Datenflusses in Cloud- und Edge-Rechenzentren um 1500 Prozent - kein Tippfehler. Entsprechend riesig ist das wirtschaftliche Potential, denn Daten sind der zentrale Rohstoff etwa für das Internet of Things.

  • Mit richtiger Unterstützung zum MSSP-Erfolg

    Auch kleine und mittlere Unternehmen (KMU) benötigen heute eine ganzheitliche IT-Sicherheitsstrategie, inklusive einer 24/7-Überwachung durch ein Security Operations Center (SOC). Sie verfügen aber meist nicht über die nötigen personellen und finanziellen Ressourcen, um diese Aufgabe selbst zu stemmen. Mit den richtigen Managed-Security-Angeboten schließen Reseller diese Lücke.

  • Keine Bestnoten für Deutschlands Rechenzentren

    Rechenzentren werden geplant, gebaut, in Betrieb genommen und dann viele Jahre lang mehr oder minder unverändert genutzt. Doch die Anforderungen der betreibenden Unternehmen, die technologischen Möglichkeiten und die gesetzlichen Rahmenbedingungen ändern sich im Laufe der Zeit. Um böse Überraschungen zu verhindern, Kosten zu sparen und Risiken zu vermeiden, ist es notwendig, Defizite in Bestandsrechenzentren zu entfernen und Optimierungspotentiale zu nutzen. Hierzu sollten Rechenzentren regelmäßig einer ganzheitlichen Betrachtung unterzogen werden.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen