- Anzeige -


Sie sind hier: Startseite » Fachartikel » Hintergrund

Cloud Computing ist Mainstream in der IT


Cloud-basierte und virtualisierte Infrastrukturen: Datenverschlüsselung bleibt fundamentaler Bestandteil der IT-Security
Nach den Anwendungen wandert die Infrastruktur in die Cloud


- Anzeigen -





Von Garry McCracken, Vice President of Technology Partnerships bei WinMagic

"Die Wolke" ist in der Unternehmens-IT deutscher Unternehmen angekommen. Auch hierzulande profitieren Firmen jeder Größe von niedrigeren Kosten bei größerer Skalierbarkeit und Zuverlässigkeit. Die Verantwortung für die Sicherheit ihrer Daten sollten Unternehmen jedoch nicht in die Hände von Cloud-Providern legen. Der Datenverschlüsselung und der Kontrolle über die Verschlüsselungs-Keys kommt in heterogenen IT-Landschaften besondere Bedeutung zu. Denn im Ernstfall ist Verschlüsselung die letzte Feste der IT-Security.

Cloud Computing ist Mainstream in der IT von Unternehmen geworden, auch in Deutschland. Eine aktuelle Studie des Branchenverbands BITKOM (Cloud Monitor 2018) kommt zu dem Ergebnis, dass die Mehrheit der hiesigen Unternehmen "die Wolke" in irgendeiner Form nutzen: "Acht von zehn Unternehmen (83 Prozent) mit mehr als 2.000 Mitarbeitern setzen mittlerweile auf Cloud-Dienste. In Unternehmen mit 100 bis 1.999 Mitarbeitern liegt die Cloud-Nutzung bei 65 Prozent, ähnlich hoch wie bei kleineren Unternehmen mit 20 bis 99 Mitarbeitern (66 Prozent)." Der Business-Nutzen von Dateispeicherung in der Cloud oder Software-as-a-Service (SaaS) liegt auf der Hand: Niedrigere IT-Kosten bei höherer Skalierbarkeit und größerer Zuverlässigkeit im Vergleich zu Ressourcen im eigenen Rechenzentrum.

Dennoch bringt die Cloud Herausforderungen mit sich. Selbst hartgesottene Cloud-Verfechter haben Bedenken hinsichtlich "Was-wäre-wenn"-Szenarien, über die sie keine oder nur wenig Kontrolle hätten, beispielsweise einen Dienstausfall oder einen Hackerangriff. An dieser Stelle beruhigt es wenig zu wissen, dass bei Cloud-Providern mehrere Redundanz-Ebenen und Backups zum Standard gehören. Einige Anbieter beschäftigen einen Stab an professionellen Service- und Sicherheitsexperten, um den sie IT-Leiter in Unternehmen beneiden.

Cloud Computing-Anbieter stehen in vielerlei Hinsicht gut da, manchmal besser als manche Inhouse-IT. Die Zuverlässigkeit von Cloud-Providern lässt sich deutlich besser einstufen als so manche interne Infrastruktur. Gleichzeitig wird die Cloud schneller und zuverlässiger, etwa weil sich die Leistung von Glasfasernetzen ständig verbessert. Latenzzeiten nehmen ab, obwohl immer mehr bandbreitenhungriger Traffic die Datenautobahn passiert. Dadurch fühlen sich Rechenzentren näher an als je zuvor. In der Folge wandern immer mehr Infrastrukturbestandteile in die Cloud. Unternehmen nutzen Infrastructure-as-a-Service-Anbieter verstärkt für ihre IT-Anforderungen.

Ein prominentes Beispiel hierfür ist das Serverlose Computing. Es baut auf der Methodik der DevOps auf, die Softwareentwicklung und traditionelle IT-Teams kombiniert, um den Entwicklungszyklus von Systemen zu verkürzen. Das serverlose Computing geht noch einen Schritt weiter. Bei diesem Cloud Computing-Modell fungiert die Cloud als Server, sodass sich Entwicklungsteams ganz auf den Code konzentrieren können, den sie ausführen möchten, und nicht auf operative Komplexitäten.

Außerdem gibt es neue Preismodelle, bei denen die tatsächlichen Ressourcen, die von einer einzelnen Anwendung oder sogar ihren Bibliotheksfunktionen genutzt werden, die Kosten bestimmen – nicht die vorab erworbene Kapazität.

Edge Computing und Co.: Die Art und Weise, wie wir die Cloud nutzen, verändert sich
Während IT-Bestandteile vom eigenen Rechenzentrum in die Cloud verlagert werden, gibt es einen zweiten Trend, Rechenzentrumsressourcen wieder zu lokalisieren, etwa beim Edge Computing. Dabei werden Daten von Geräten, beispielsweise IoT-Devices, an den äußersten Rändern des Netzwerks verarbeitet, um den Datenverkehr zu anderen Rechenzentren zu reduzieren. Manchmal wird den Geräten sogar die Möglichkeit gegeben, als eigenständige Einheit zu agieren.

Einen zweiten, ähnlichen Ansatz gibt es für Probleme im Netzwerk. Dieser Ansatz sieht vor, kleinere Rechenzentren in der Nähe eines Unternehmens einzurichten, und dieses mit direkten Glasfaser-Backbones anzubinden. Netzwerk-Hops sollen reduziert, Redundanz soll ermöglicht und das Ausfallrisiko soll verteilt werden. Unternehmen wollen näher an die Cloud-Dienste rücken, auf die sie angewiesen sind, ohne dabei die Kontrolle über ihre wertvollen Daten zu verlieren.

Die Rechenzentren werden entweder extra gebaut oder an gemeinsam genutzten Standorten errichtet. Die Leistung dieser Verbindungen lässt Cloud-Services auf der ganzen Welt näher erscheinen als je zuvor. Der Unternehmens-Traffic konkurriert so weniger mit dem übrigen Datenverkehr. Der Nachteil: Diese Strategie kann zu einer weit verteilten Infrastruktur führen, die sich nur schwer verwalten lässt.

Herausforderungen der Vergangenheit bleiben
Die meisten Unternehmen setzen heute auf eine heterogene IT-Infrastrukturen mit unterschiedlichen Betriebssystemen und Multi-Cloud-Umgebungen. Allen Gewinnen zum Trotz: Die grundlegende Herausforderung bleibt bestehen. Daten müssen geschützt werden. Beim Schutz dieser Daten geht es nicht nur um Hacking. Es ist auch eine gute Governance erforderlich, um sicherzustellen, dass der gesamte Umgang mit diesen Daten den gesetzlichen Anforderungen und speziellen Anforderungen der Branche entspricht. Stichwort: Datenschutz und Compliance.

Virtualisierung ist eine grundlegende Technologie in der Cloud. Die Verwaltung virtueller Maschinen ist äußerst schwierig, gerade weil sie so einfach aufzusetzen sind und in vielen Fällen dynamisch erstellt und außer Betrieb genommen werden. Es ist nicht immer klar, welche Daten in einer virtuellen Maschine vorgehalten werden – insbesondere, wenn sie nicht aktiv ist. Daten sind dann mitunter ungeschützt und können offengelegt, entwendet und missbraucht werden, egal ob sie sich in der Cloud oder vor Ort befinden.

Die Verschlüsselung ist in Cloud-basierten und virtualisierten Umgebungen daher zum fundamentalen Bestandteil der Sicherheitstechnologie geworden. Aber sie muss ordnungsgemäß umgesetzt werden. Die Datenverschlüsselung einfach dem Cloud-Anbieter zu überlassen, ist keine gangbare Methode. Das Unternehmen ist für die Daten verantwortlich, deshalb muss es die Kontrolle über gespeicherte und übertragene Daten behalten. Im Ernstfall ist Verschlüsselung die einzige Möglichkeit, Daten zu schützen.

Effizientes und sicheres Verschlüsselungs-Management – aber wie?
Jedes Betriebssystem hat heutzutage eingebaute Verschlüsselungstechnologien. Und diese Tools funktionieren in der Regel gut, zumindest auf ihrer "Geräteinsel". Einen echten Rundumblick gibt es mit diesen Insellösungen allerdings nicht – ein Risiko, gerade in heterogenen IT-Infrastrukturen mit Cloud-Ressourcen und VMs, wo der Strom der Daten nicht immer sofort offensichtlich ist.

Wenn es um die Verschlüsselungsverwaltung in heterogenen IT-Landschaften geht, sollten IT-Verantwortliche anbieterübergreifende Management-Tools in Betracht ziehen, die einen Rundumblick über die Verschlüsselung aller Ressourcen und deren Steuerung ermöglichen. Auch die Verwaltung der Verschlüsselungs-Keys und die Authentifizierung der Endpunkte erfolgt mit diesen Tools zentral und Server-basiert, oft anhand vorhandener Netzwerk-Policies, etwa Active-Directory-Datenbanken.

Es ist unmöglich, ohne geeignete Verwaltungstools eine infrastrukturweite Verschlüsselung und Sicherheitskonformität zu erreichen. Wird die Verwaltung erschwert, passieren Fehler. Der Schutz von Daten in heterogenen IT-Infrastrukturen mit hohem Cloud- und Virtualisierungsanteil ist eine Gratwanderung, die in Zukunft sicher nicht weniger komplex werden dürfte. (WinMagic: ra)

eingetragen: 28.03.19
Newsletterlauf: 16.04.19

WinMagic: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Herausforderungen beim Ressourcen-Management

    Wenn Menschen über Ressourcen-Management reden, beschreiben sie Funktionen, die unter die Domäne "Enterprise Resource Planning (ERP)" fallen, wie z.B. Personalmanagement oder die Beschaffung von physischen Ressourcen wie Schreibtischen. In einem Dienstleistungsunternehmen hat dieser Begriff jedoch eine andere Bedeutung, wobei individuelle Tools und Strategien erforderlich sind. Im Zusammenhang mit Dienstleistungen geht es beim Ressourcen-Management um die Ressourcen-Zuweisung - Mitarbeiter zur richtigen Zeit am richtigen Ort einzusetzen. Dies ist ein anspruchsvoller Prozess. Wird dieser richtig gemacht, wird die Zeit der Mitarbeiter in entsprechenden Projekten effektiv genutzt, wodurch die Rentabilität und das Kundenengagement verbessert werden.

  • Datenmanagement fördert Compliance

    Unabhängig vom konkreten Anlass oder Thema: Sobald Daten eine Rolle spielen, bestimmen sofort Begriffe wie "Sicherheit", "Privatsphäre" und "Datenschutz" die Diskussion. Gleichzeitig gab es allerdings seit ihrem Inkrafttreten im Mai 2018 europaweit bereits über 160.000 Verstöße gegen die Datenschutz-Grundverordnung (DSGVO). Grund genug für einen Appell, die Datenhoheit der eigenen Kunden ernster zu nehmen. Seit Oktober vergangenen Jahres ist Gaia X in der IT-Landschaft und darüber hinaus in aller Munde: Das ambitionierte Cloud Computing-Projekt des Bundeswirtschaftsministers Peter Altmaier hat es sich zur Aufgabe gemacht, eine unabhängige Dateninfrastruktur für den europäischen Raum zu schaffen. Das Ziel dahinter: mehr Sicherheit, Rechte und Vertrauen für die Nutzer, weniger Abhängigkeit von den großen internationalen Cloud-Providern.

  • Vertrauen in die Cloud wächst - oder doch nicht?

    Security first - IT-Sicherheit bleibt eine ständige Herausforderung für die IT-Verantwortlichen in den Unternehmen. Dabei spielt die Cloud eine immer wichtigere Rolle, denn einerseits verlagern die Unternehmen mehr und mehr Anwendungen ins Web. Andererseits bleiben Sicherheitsverletzungen ein Hauptziel für Datendiebstahl und DDoS-Attacken. Eine Umfrage, die Barracuda unter seinen Kunden weltweit durchführte, zeigt ein beachtliches Vertrauen der 850 befragten Sicherheitsexperten verschiedenster Unternehmensgrößen und -industrien in Public-Cloud-Bereitstellungen.

  • Warum Netzwerksichtbarkeit wichtig ist

    Laut IHS Markit, einem Dienstleister für Analysen und Informationen, entstehen Unternehmen aufgrund von Ausfällen und Leistungsverlusten ihrer Netzwerke jährlich etwa 700 Milliarden US-Dollar (circa 615 Milliarden Euro) an Mehrkosten. Das Risiko hierfür steigt, wenn Unternehmen Kosten sparen wollen und sich deshalb für eine Multi-Vendor-Strategie entscheiden, bei der sie Leistungen beim jeweils günstigen Anbieter beziehen, anstatt diese Leistungen für ihr gesamtes Netzwerk bei einem Anbieter zu beziehen. Diese Multi-Vendor-Strategie erschwert die Übersicht über das gesamte Netzwerk und erhöht so die Komplexität des Netzwerkmanagements.

  • Zusammenarbeit an einer Automotive-Cloud

    Mit einer Cloud-basierten Plattform will der Automobilhersteller Volkswagen seine Prozesse in der Fertigung optimieren. Die "Volkswagen Industrial Cloud" soll Ende 2019 verfügbar sein und wird langfristig rund 1.500 Partner in die Abläufe für Logistik und Produktion einbinden. Der Datenaustausch über die Cloud wird die gesamte Automobilindustrie ergreifen und macht es notwendig, dass alle Teilnehmer des Ökosystems in der Lage sind, ihre bestehenden IT-Systeme mit einer Industrial-Cloud zu verbinden. Auf diesen Trend sollten sich alle Marktteilnehmer schon heute vorbereiten.

  • Appliances: Engpass im Rechenzentrum?

    Es scheint ein Widerspruch zu sein: Obwohl die meisten Unternehmen viele ihrer Anwendungen in die Cloud migrieren, erfreut sich das klassische Rechenzentrum nach wie vor großer Beliebtheit. Seit nun mehr als einem Jahrzehnt virtualisieren Unternehmen ihre Rechenzentren und führen Cloud-Technologien ein. Und sagten einige Experten vor gut zehn Jahren voraus, dass das Rechenzentrum der Zukunft vollständig in der Cloud betrieben würde, sehen wir heute, dass dies nicht eingetreten ist. Stattdessen führten Unternehmen Hybrid- und Multi-Cloud-Umgebungen ein, die ihnen die Wahl geben, ihren Anwendungen und Daten das ideale Zuhause zu geben.

  • Cloud-gestützte Sicherheitsmechanismen

    Cloud Computing-Lösungen sind auch im IT-Security-Bereich zunehmend verbreitet. Viele Anbieter verlagern Sicherheitsmechanismen und andere Dienste in ihre Rechenzentren, anstatt diese auf klassische Weise bei den Kunden vor Ort (On-Premises) zu betreiben. Doch ist die Anti-Malware-Lösung aus der Cloud tatsächlich die geeignete Variante für jeden Anwendungsfall? Und wo genau liegen eigentlich die möglichen Vor- und Nachteile des Virenschutzes aus der Wolke? Die IT-Sicherheits-Experten von Tabidus Technology nennen drei gute Gründe für die Cloud. Im Gegenzug weisen sie aber auch auf drei problematische Aspekte hin, die Unternehmen und IT-Verantwortliche unbedingt im Auge behalten sollten.

  • Cloud Computing ist Mainstream in der IT

    "Die Wolke" ist in der Unternehmens-IT deutscher Unternehmen angekommen. Auch hierzulande profitieren Firmen jeder Größe von niedrigeren Kosten bei größerer Skalierbarkeit und Zuverlässigkeit. Die Verantwortung für die Sicherheit ihrer Daten sollten Unternehmen jedoch nicht in die Hände von Cloud-Providern legen. Der Datenverschlüsselung und der Kontrolle über die Verschlüsselungs-Keys kommt in heterogenen IT-Landschaften besondere Bedeutung zu. Denn im Ernstfall ist Verschlüsselung die letzte Feste der IT-Security.

  • Vorteile von Security-as-a-Service

    Security-as-a-Service wird bei Großunternehmen und KMU immer beliebter: Die sich ständig erweiternde Bedrohungslandschaft und der Mangel an Fachkräften führt zur zunehmenden Akzeptanz von IT-Sicherheit als Dienstleistung. Denn der Arbeitsmarkt bleibt angespannt, in Deutschland gibt es laut Bitkom 82.000 offene Stellen für IT-Spezialisten, und die Nachfrage nach Sicherheitsexperten steigt branchenübergreifend. Für viele Unternehmen ist deshalb eine Auslagerung von Management, Implementierung und Überwachung des komplexen Security-Bereichs eine sinnvolle und kosteneffiziente Investition, um ihre internen IT-Ressourcen zu entlasten und zugleich ihr Sicherheitsprofil zu schärfen.

  • Einblick in jede Cloud-Instanz haben

    Die Vielzahl an Cloud Computing-Services eröffnet zahlreiche Möglichkeiten, einzelne Geschäftsprozesse zu optimieren. Die richtige Cloudstrategie hat sich damit längst zu einem Wettbewerbskriterium entwickelt. Viele Unternehmen setzen auf eine Multicloud-Strategie, um bei eventuellen Ausfällen den Geschäftsbetrieb aufrechterhalten zu können und nicht von nur einem Anbieter abhängig zu sein. Die Nutzung von Cloudservices sollte umfassend geplant werden. Bei lediglich punktuellen Migrationen einzelner Prozesse besteht das Risiko, dass das Optimierungspotential nicht vollständig genutzt wird. Doch neben dem Faktor Performance hat auch die Datensicherheit mittlerweile geschäftskritische Relevanz erreicht. Regulatorische Standards sollten daher frühzeitig in das Multicloud-Konzept einfließen, die Auswahl der Anbieter mitbestimmen und durch geeignete Sicherheitsmaßnahmen flankiert werden.