- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Datenzugriff auf Paketebene


Vier Schritte zu mehr Sicherheit in Multicloud-Umgebungen
Unternehmen werden zunehmend Multi-Cloud-Architekturen nutzen, da die Anwender immer optimierte Erlebnisse verlangen

- Anzeigen -





Von Jeff Harris – Vice President, Product Portfolio Marketing, Keysight Technologies

Das Jahr 2017 war geprägt von einer starken Zunahme des Enterprise Cloud Computing. Laut Gartner nutzen derzeit bereits 90 Prozent der globalen Unternehmen zumindest einen Cloud-Service. Doch mit nur einem Cloud Computing-Service kommt heute kaum noch jemand aus, und auch ein einziger Cloud-Service-Provider wird zunehmend Seltenheitswert besitzen. Multicloud, also die Nutzung multipler Public Clouds, entwickelt sich schnell zum nächsten Schritt beim Aufbau wirklich dynamischer Infrastrukturen.

Durch die dynamische Ausführung von Workloads über mehrere Cloud-Provider hinweg können Unternehmen sicherstellen, dass Workloads wirklich optimiert werden. Die erwähnte Gartner-Studie berichtet, dass 70 Prozent der Unternehmen bis 2019 Multi-Cloud-Implementierungen planen - gegenüber 10 Prozent heute.

Aber sind Unternehmen bereit für die Sicherheitsherausforderungen, die Multicloud-Architekturen mit sich bringen? Anwendungen, die über verschiedene Cloud-Provider verteilt sind, sind bekanntlich nur schwer einsehbar; die Visibility ist oft eingeschränkt. Jeder Cloud-Provider hat seine eigenen technologischen Details sowie einzigartige Cloud-Services und Management-Schnittstellen. Es kann schwierig sein, eine integrierte Sicht auf das Geschehen aufzubauen. Das Ergebnis ist, dass Unternehmen möglicherweise nicht wirklich wissen, ob ihre Sicherheitsrichtlinien konsistent auf Workloads angewendet werden, die über mehrere Cloud-Provider verteilt laufen - und möglicherweise dynamisch zwischen diesen wechseln.

Unternehmen könnten einfach darauf vertrauen, dass Cloud-Provider ihre Daten schützen, aber das wäre keine gute Idee. Sicherheitsverletzungen und Datendiebstähle werden heute schnell öffentlich. Ignoranz ist dann schlicht keine akzeptable Verteidigung. Darüber hinaus reichen ein Mangel an Einsicht in die einzelnen Vorgänge oder das Fehlen eines Nachweises der Compliance aus, um die meisten Audits scheitern zu lassen.

Letztlich sind immer die Betreiber der Anwendungen für die Datensicherheit in Multicloud-Umgebungen verantwortlich, doch die meisten haben nicht die notwendige Visibility und damit keine echte Kontrolle - sie können nicht wirklich sicherstellen, dass ihre Daten zu 100 Prozent geschützt sind. Es gibt jedoch Ansätze. Hier sind vier Schritte, die Unternehmen tun können, um ihre Multicloud-Infrastruktur besser in den Griff zu bekommen:

1. Monitoring von Daten auf Paketebene
Zur Überwachung ihres Verkehrs benötigen Unternehmen unbedingt Datenzugriff auf Paketebene. Die von den Cloud-Providern zur Verfügung gestellten Daten sind noch nicht das, was IT-Manager aus ihrem eigenen Rechenzentrum gewöhnt sind. Beispielsweise kann man Metriken über Cloud-Instanzen erhalten, aber in der Regel nicht die eigentlichen Pakete selbst.

Darüber hinaus sind die Metriken möglicherweise nicht so granular oder nur für einen begrenzten Zeitraum verfügbar. Es gibt möglicherweise keine einfache Möglichkeit, die benutzerdefinierten Dashboards zu erstellen, die benötigt werden, um Probleme mit der Netzwerk- und Anwendungsleistung zu erkennen. Diese Einschränkungen machen es schwieriger und zeitaufwendiger, Sicherheits- und Performance-Probleme zu erkennen und zu lösen.

2. Alle Daten gleich behandeln
Sobald sie verfügbar sind, müssen Unternehmen Cloud-Paketdaten in bestehende IT-Service-Management-Lösungen (ITSM) integrieren, wo sie zusammen mit anderen Systemmanagementdaten zentral überwacht werden können. Auf diese Weise können Unternehmen die Leistung, Verfügbarkeit und Sicherheit von Workloads - unabhängig von der zugrunde liegenden Infrastruktur - lückenlos überwachen und gleichzeitig eine Grundlage für die Durchsetzung von Richtlinien schaffen.

Diese zentrale Überwachung und Richtliniendurchsetzung stellt sicher, dass das Unternehmen die Kontrolle über die Sicherheitslage seiner eigenen Daten hat und dass Richtlinien konsistent auf alle Workloads angewendet werden - egal, ob diese im Rechenzentrum, auf der Infrastruktur eines einzelnen Cloud-Providers oder über mehrere Cloud-Architekturen hinweg ausgeführt werden.

3. Kontext verstehen und intelligente Richtlinien anwenden
Wie alle Überwachungsdaten müssen Cloud-Paketdaten in den richtigen Kontext gestellt werden, damit sie analysiert werden können. Um festzustellen, ob ein Paket gut oder schlecht ist, muss es in die entsprechenden Überwachungs-, Compliance-, Analyse- und Sicherheits-Appliances eingespeist werden, wo es in verwertbare Informationen umgewandelt werden kann. CRM-Daten werden im Rechenzentrum anders behandelt als HR-Dokumentationen.

Warum sollte ein Unternehmen das also anders handhaben, wenn sie aus der Cloud kommen? Einsicht auf der Ebene der Netzwerkpakete versetzt die Verantwortlichen in die Lage, Daten entsprechend der bestehenden Richtlinien zu identifizieren und zu routen. Das Ergebnis ist eine robustere Sicherheit, verbesserte Netzwerkleistung und eine bessere Ressourcenzuteilung.

4. Eigene Testverfahren anwenden
Eigenen Tests sollte man mehr vertrauen als allen anderen. Cloud-Anbieter tun ihr Bestes, aber sie müssen die Masse der Kunden bedienen, nicht die individuellen Bedürfnisse einzelner. Es ist daher wichtig, dass Unternehmen die Leistung, Verfügbarkeit und vor allem die Sicherheit ihrer Workloads in Multi-Cloud-Umgebungen ständig testen. Dies nicht zu tun, wäre nachlässig und könnte zu einem Verstoß gegen Compliance-Bestimmungen oder, schlimmer noch, zu einem folgenreichen Sicherheitsvorfall führen. Ein einmaliges Testen bietet ein gewisses Maß an Sicherheit, aber kontinuierliche Tests stärken das Vertrauen in die Cloud-Sicherheit - zumal Cloud-Anwendungen in der Regel einem ständigen Wandel unterliegen.

Unternehmen werden zunehmend Multi-Cloud-Architekturen nutzen, da die Anwender immer optimierte Erlebnisse verlangen. Die Möglichkeit, Workloads über Clouds hinweg zu verschieben, ermöglicht diese Optimierung; die Sicherheit bleibt jedoch ein wichtiges Anliegen bei der Multicloud-Akzeptanz. Unternehmen können dies lösen, indem sie die gleiche Netzwerktransparenz auf Paketebene implementieren, die sie in ihren privaten Netzwerken verwenden.

Der nahtlose Zugriff auf Cloud-Paketdaten bietet die Möglichkeit, Informationen in beliebige Sicherheits-, Überwachungs- und Testwerkzeuge zu leiten, wo sie geparst und analysiert werden können. Auch in einer Multi-Cloud-Umgebung kann man starke Sicherheitslösungen implementieren. Es bedarf nur der Planung und der konsequenten Ausführung.
(Keysight Technologies: ra)

eingetragen: 18.06.18
Newsletterlauf: 19.06.18

Keysight Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Georedundanz gebender Rechenzentren

    Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI "Kriterien fu¨r die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" genau dokumentiert. Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern. Mit der neuen, im Dezember 2018 veröffentlichten Empfehlung, hebt das BSI diese Distanz drastisch an. "Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben", führt das BSI in seinen Standort-Kriterien unter Punkt 3.3 aus - 40-mal so viel wie bisher. "Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar", so das BSI weiter, " ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen". Doch auch dann, sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.

  • Cloud-Migration schnell und sicher umsetzen

    Entscheiden sich Unternehmen, ihre Applikationen in die Cloud zu migrieren, können sie nur profitieren. Denn die Cloud macht viele Digitalinnovationen überhaupt erst möglich. Allerdings kann beim Weg in die Cloud auch einiges schief gehen: Mangelndes Know-how, unrealistische Zeitvorgaben oder die Wahl der falschen Plattform sind gängige Stolpersteine. Richtig geplant wird die Migration in die Cloud jedoch zum Erfolgsprojekt. Rackspace hat drei Punkte zusammengestellt, auf die es bei der Planung ankommt.

  • Geschäftsprozesse in die Cloud verlagern

    Die Verlagerung von Geschäftsprozessen und Applikationen in die Cloud erfordert eine genaue Planung, damit die Datensicherheit zu jeder Zeit und in jedem Detail gewährleistet ist. Die Diskussion um den Einsatz von Cloud-Technologien ist mittlerweile nicht mehr von Sicherheitsbedenken geprägt. Heute wollen Unternehmen in erster Linie die damit verbundenen Chancen nutzen, um die Digitale Transformation voranzutreiben. Wenn Unternehmen komplette Geschäftsprozesse in die Cloud verlagern, lassen sich die erwarteten betriebswirtschaftlichen Ziele nur dann erreichen, wenn die Migration von Anfang an durch eine umfassende IT-Security-Strategie abgesichert ist - bei der die Sicherheit der Daten eine entscheidende Rolle spielt. NTT Security konkretisiert die wichtigsten Aktivitäten in fünf Schritten.

  • Daten nur verschlüsselt in der Cloud speichern

    Das Nutzen von Cloud Computing-Services gehört für die Mehrheit der Unternehmen längst zum festen Bestandteil der IT-Strategie. Die Möglichkeit des Datenzugriffs jederzeit und überall bringt zahlreiche Vorteile mit sich, allen voran verbesserte Flexibilität und erhöhte Produktivität. Die gestiegene Popularität dieser Dienste ist jedoch von böswilligen Akteuren nicht unbemerkt geblieben, was neue Arten von Cyberangriffen hervorgebracht hat. Eine Taktik, die in den vergangenen Jahren zunehmend zum Einsatz kam, ist der sogenannte "Man-in-the-Cloud" (MitC)-Angriff.

  • Daten in der Cloud und Cloud-Workloads

    As-a-Service-Lösungen verbreiten sich immer weiter. Dabei haben wir es längst nicht mehr mit einer einzigen Cloud zu tun. 82 Prozent der Unternehmen nutzen mehr als zehn verschiedene Public-Cloud-Dienste, so eine aktuelle Studie von McAfee. Dazu kommen noch Private Clouds und On-Premise-Systeme. Traditionelle Sicherheitssysteme stoßen im Angesicht dieser neuen komplexen Architekturen schnell an ihre Grenzen und Unternehmen drohen den Überblick zu verlieren. Rolf Haas, Enterprise Technology Specialist von McAfee, hat fünf Tipps um das zu verhindern:

  • Data Warehouse als erstes in die Cloud

    Die Migration des Data Warehouse in die Cloud ist für Unternehmen, die Teile ihrer Infrastruktur in die Cloud verlegen, ein wichtiger und über kurz oder lang auch notwendiger Schritt. Als eines der wichtigsten Puzzleteile der Infrastruktur, ist er leider auch meist sehr komplex und mit hohen Kosten verbunden. Anstatt die Migration dieses wichtigen Bestandteils der Dateninfrastruktur unnötig zu verzögern, können Unternehmen auf Automation setzen, um den Prozess zu vereinfachen. Ein wichtiges langfristiges Ziel vieler Unternehmen, im Prozess der Digitalen Transformation, ist die Nutzung von Cloud-Technologien. Schaut man sich die Zahlen der Cloud-Adaption jedoch genauer an, so sind offenkundig noch viele Unternehmen weit davon entfernt Teile ihrer Infrastruktur in die Cloud zu migrieren. Anstatt das langfristige Ziel Cloud, entschlossen anzupacken, prokrastinieren diese Unternehmen und setzen stattdessen oft auf Zwischenlösungen oder Abkürzungen. Und anstatt die wichtigen Bestandteile der Infrastruktur zuerst zu migrieren, wählen sie zuerst eher einfach zu migrierende Teile aus.

  • Datenstrategie braucht mehr als Tools

    Die Menschheit produziert 2,5 Trillionen Bytes pro Tag. In den letzten zwei Jahren wurden mehr Daten gesammelt, als in der gesamten Menschheitsgeschichte zusammen. Für jeden Menschen entstehen pro Sekunde 1,7 Megabyte neue Rohinformationen. Kurzum: Die Datenflut ist unaufhaltsam. Wobei diese Datenflut nicht automatisch bedeutet, dass daraus auch Wissen entsteht. Daten und Informationen an sich haben zunächst keinen Wert. Sie sind wie Rohdiamanten, die erst durch ihre Verarbeitung Brillanz gewinnen. Auch für Unternehmen entfalten Kundendaten erst ihren Wert, wenn sie ausgewertet einen Erkenntnisgewinn liefern, der zu neuen Handlungsoptionen führt. Das bedeutet, dass Unternehmen eine Datenstrategie brauchen, die ihre Geschäftsprozesse fundiert und leitet.

  • Fünf Mythen über den Cloud-Einsatz

    Wenn Menschen mit Komplexität und Unsicherheit konfrontiert werden, erschaffen sie Mythen, die ihnen helfen, damit umzugehen. Diese Tendenz zeigt sich seit der Zeit der griechischen Ependichter bis heute - und lässt sich auch mit Blick auf den sich schnell verändernden Marktplatz für Cloud Computing-Lösungen und die damit verbundenen Komplikationen der modernen IT beobachten. Aus der täglichen Zusammenarbeit mit Unternehmen heraus, hat Rackspace die fünf häufigsten Missverständnisse zum Cloud Computing-Einsatz zusammengestellt - zusammen mit den Fakten, wie sie von smarten Cloud Computing-Anwendern verstanden werden.

  • Digitalisierung setzt Fachabteilungen unter Druck

    In vielen Unternehmen ist das Data Warehouse in die Jahre gekommen. Gleichzeitig wachsen die Anforderungen der Fachabteilungen. Mit IoT und der Digitalisierung kommen zudem neue Herausforderungen hinzu. Ist das Data Warehouse all dem noch gewachsen? Ein Health-Check kann den Durchblick bringen. Das Data Warehouse (DWH) bildet das Fundament für Business Intelligence und Data Analytics-Plattformen. Es dient als zentraler Speicher für alle unternehmensrelevanten Daten, bereitet sie auf, setzt sie in Relation und stellt sie für Auswertungen zur Verfügung. Fachabteilungen ziehen daraus Kennzahlen und erstellen Berichte. Die meisten Unternehmen haben ihr Data Warehouse schon viele Jahre in Betrieb. Seit es damals aufgebaut wurde, hat sich jedoch einiges geändert. Durch die fortschreitende Digitalisierung ist das Datenvolumen enorm gewachsen. Gleichzeitig steigen die Anforderungen der Fachabteilungen. Sie benötigen ihre Auswertungen so schnell wie möglich und fordern immer wieder neue Kennzahlen ein, die erst einmal ins Data Warehouse integriert werden müssen. Oft ist das aufgrund der gewachsenen Komplexität schwierig. Erfüllt Ihr DWH noch die aktuellen Anforderungen und ist es für die Zukunft gewappnet? Die folgenden Fragen bringen es ans Licht.

  • Cloud- oder DevOps-Infrastrukturen

    In der jüngeren Vergangenheit wuchs unter IT-Fach- und Führungskräften die Überzeugung, dass Public Key Infrastruktur (PKI) eine veraltete Technologie und damit überflüssig sei. Ganz im Gegenteil, meinen die IT-Sicherheitsexperten der PSW Group, denn in Zeiten, in denen die Cloud, DevOps, IoT und Blockchain immer mehr an Bedeutung gewinnen, werden stärkere Sicherheitsvorkehrungen benötigt. Die PKI ist eine Sicherheitsinfrastruktur, die dazu dient, Services für den sicheren Datenaustausch zwischen den Anwendern bereitzustellen. Durch die PKI lassen sich digitale Zertifikate bereitstellen, verteilen sowie prüfen. Weiter kann die Zugehörigkeit von Public Keys sowie die Echtheit der Zertifikate zuverlässig bestätigt werden.