Sie sind hier: Startseite » Markt » Hintergrund

Cloud Computing: Netzwerke als Bremsklotz


Sind Firmenrechenzentren und Corporate Networks somit für Technologien wie Cloud Computing, Virtualisierung, Big Data, Colllaboration und Software Defined Networking (SDN) gerüstet?
Cloud Computing-Anwendungen stehen nur in unzureichender Qualität zur Verfügung
Firmenrechenzentren und Corporate Networks sind für Cloud Computing, Virtualisierung, Big Data, Colllaboration und Software Defined Networking nicht gerüstet


Hohe Belastung für die  Netzwerkinfrastruktur
Hohe Belastung für die Netzwerkinfrastruktur Dave Greenfield, Product Marketing Manager bei Silver Peak, Bild: Silver Peak Systems

(03.09.13) - Cloud Computing ist in deutschen Unternehmen "angekommen". Das bestätigen unter anderem Untersuchungen der Marktforschungsfirmen Experton Group und IDC. Demnach hat ein Großteil seine Bedenken bezüglich der Cloud überwunden und implementiert Cloud Computing-Umgebungen. Häufig sind dies Private Clouds, die im eigenen Rechenzentrum vorgehalten werden.

Auch die Virtualisierung von IT-Ressourcen, sprich Servern, Speicherkapazitäten und Netzwerk-Ports, kommt voran: Laut einer Studie, welche die Marktforschungsfirma Vanson Bourne im Auftrag des Switch- und Storage-System-Herstellers Brocade durchführte, sind 46 Prozent der Server in Unternehmen in Deutschland, Großbritannien, Frankreich und Nordamerika bereits virtualisiert.

Sind Firmenrechenzentren und Corporate Networks somit für Technologien wie Cloud Computing, Virtualisierung, Big Data, Colllaboration und Software Defined Networking (SDN) gerüstet? Nein, so die Untersuchung von Vanson Bourne: Laut 91 Prozent der befragten IT-Verantwortlichen sind erhebliche Investitionen in die Infrastruktur ihrer Rechenzentren erforderlich, um diese für die steigenden Anforderungen durch Cloud Computing, Virtualisierung oder Big Data-Projekte fit zu machen.

"Vor allem für die Netzwerkinfrastruktur bringt der Einsatz solcher Technologien eine deutlich höhere Belastung mit sich", sagt Dave Greenfield, Product Marketing Manager bei Silver Peak. "Viele Unternehmen übersehen jedoch diesen Faktor. Die Folge ist, dass beispielsweise Cloud-Anwendungen nur in unzureichender Qualität zur Verfügung stehen. Auch Big Data und Software Defined Networking sind ohne Netzwerkverbindungen mit einer gesicherten Dienstgüte und Bandbreite schlichtweg nicht denkbar."

Diese Einschätzung bestätigt die Studie von Vanson Bourne: Rund 61 Prozent der 1750 befragten IT-Experten gaben an, dass die Netzwerkinfrastruktur nicht den wachsenden Ansprüchen genügt. Und 41 Prozent mussten einräumen, dass Ausfallzeiten oder eine schlechte Verbindungsqualität bereits mindestens einmal finanzielle Schäden nach sich gezogen haben, etwa in Form von Umsatzeinbußen oder Strafzahlungen, weil Service Level Agreements (SLAs) gebrochen wurden.

WAN-Verbindungen müssen optimale Performance bringen
"Nicht die lokalen Netzwerke in einem Data Center oder an einem Standort sind das Kernproblem", erläutert Dave Greenfield. "Vielmehr übersehen Unternehmen und Organisationen in vielen Fällen die zentrale Rolle von Weitverkehrsverbindungen." Die Nutzung von Cloud Computing führt Schott zufolge dazu, dass der Bandbreitenbedarf drastisch ansteigt. Das tangiert auch WAN-Links (Wide Area Network), über die Cloud-Rechenzentren mit einem Firmen-Data-Center verbunden sind oder über die Mitarbeiter in Außenstellen auf Daten und Anwendungen in einem zentralen Rechenzentrum zugreifen.

"Virtualisierte Anwendungen wiederum sind extrem interaktiv. Das heißt, es werden ständig Daten über das Weitverkehrsnetz transportiert", so Greenfield weiter. "Auch solche Applikationen sind somit von qualitativ hochwertigen WAN-Verbindungen abhängig. Die erforderliche Qualität lässt sich nur mithilfe von WAN-Optimierung sicherstellen." Virtualisierte oder physische WAN Optimization Appliances lösen mehrere Probleme, welche die Übermittlung von (Echtzeit-)Daten über große Entfernungen beinträchtigen, etwa

• >> zu hohe Latenzzeiten (Latency), bedingt durch große Übertragungsdistanzen. Niedrige Latenzzeiten sind beispielsweise für Anwendungen wie Big Data (Echtzeitanalyse großer Datenbestände), den Zugriff auf Anwendungen in Cloud-Data-Centern oder das Spiegeln von Daten an anderen Standorten (Disaster Recovery) unverzichtbar.

• >> eine unzureichende Übertragungsqualität, bedingt durch die Überlastung von Switches und Routern auf der Übertragungsstrecke. Dies führt dazu, dass Datenpakete nicht oder in der falschen Reihenfolge übertragen werden und daher eine erneute Übermittlung erforderlich ist.

• >> Verbindungen mit zu niedriger Bandbreite. In diesem Fall lässt sich mithilfe von WAN-Optimierung der Datenverkehr über WAN-Verbindungen um bis zu 90 Prozent verringern. Das spart Geld und ermöglicht es einem Unternehmen, neue IT-Services auch an Standorten bereitzustellen, an denen nur WAN-Links mit niedriger Bandbreite zur Verfügung stehen.

Fehlerhafte WAN-Verbindungen kosten Geld
"WAN-Verbindungen sind nach unseren Erfahrungen in vielen Fällen dafür verantwortlich, dass IT-Services den Anwendern nicht in der erforderlichen Qualität zur Verfügung stehen", sagt Greenfield. Die Resultate der Studie von Vanson Bourne / Brocade unterstreichen dies. Demnach verzeichnen 16 Prozent der befragten Unternehmen täglich einen Ausfall des Netzwerks. Im Schnitt dauert ein solcher Vorfall rund 20 Minuten. Davon betroffen sind vor allem Datenbank-Anwendungen, Kommunikations-Tools und Office-Applikationen.

"Jeder IT-Leiter oder Geschäftsführer kann leicht hochrechnen, was es kostet, wenn in einer Außenstelle 100 Mitarbeiter 20 Minuten lang Däumchen drehen, weil die WAN-Verbindung streikt, und das unter Umständen mehrmals in der Woche", gibt Dave Greenfield zu bedenken. "Daher ist es für jedes Unternehmen auch aus wirtschaftlicher Sicht geradezu ein Muss, die Stabilität des Netzwerks und der Weitverkehrsverbindungen sicherzustellen. WAN Optimization spielt dabei eine zentrale Rolle." (Silver Peak: ra)



Silver Peak Systems: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • Datenschutzstrategien für hybride IT

    Eine von Arcserve beauftragte unabhängige Befragung unter IT-Führungskräften ergab, dass 80 Prozent schon einmal von Ransomware betroffen waren. Während 82 Prozent der Betroffenen angaben, dass sie den Schaden innerhalb von 48 Stunden beheben konnten, war dazu knapp ein Fünftel nicht in der Lage. Problematisch ist auch, dass bis zu 30 Prozent der Daten bei einem erfolgreichen Ransomware-Angriff nicht wiederhergestellt werden konnten.

  • Cloud-basierte Monetarisierung löst Probleme

    Mit ihrer jahrzehntelangen Erfahrung im Management wiederkehrender Kundenbeziehungen sind Telekommunikationsunternehmen (Telcos) attraktive Partner in der Abonnement-Wirtschaft. Ihr großer Kundenstamm, der sich durch historisch niedrige Abwanderungsraten auszeichnet, bietet eine solide Grundlage, um vom wachsenden Abonnementmarkt zu profitieren.

  • Fokus auf Datenschutz & Compliance

    IT-Ausgaben in der Finanzbranche werden 2025 auf über 58 Milliarden USD steigen, während Technologien wie generative Künstliche Intelligenz (GenAI) Arbeitsabläufe, Datenmanagement und Kundeninteraktionen revolutionieren. Gleichzeitig wird der sich vollziehende Generationswechsel bei den Anlegern endgültig ein neues Level an Digitalisierung fordern. Fünf zentrale Trends werden diesen Wandel prägen: die Optimierung von Kundenerlebnissen, die Einführung modularer Architekturen, datengetriebene Innovationen, die Konvergenz von Branchen und ein verstärkter Fokus auf Datenschutz und Compliance.

  • Optimierung der Cloud-Kosten oberste Priorität

    Das Jahr 2024 war das "Jahr der generativen KI", was zu einer raschen Ausweitung der Datenerzeugung, -verwaltung und -konsolidierung führte. Dieser Anstieg zeigt keine Anzeichen einer Verlangsamung. Darüber hinaus kam es 2024 zu den ersten großen Angriffen auf die Lieferkette auf globaler Ebene, angeführt von CrowdStrike, die Unternehmen dazu zwangen, die Cybersicherheit auf allen Ebenen zu überdenken.

  • Hybrid-Cloud als ausgewogenere Lösung

    Durch den rasanten technologischen Wandel sind datengesteuerte Initiativen in modernen Geschäftsstrategien wichtiger denn je. Im Jahr 2025 stehen die Unternehmen jedoch vor neuen Herausforderungen, die ihre Datenstrategien, ihre Bereitschaft für Künstliche Intelligenz (KI) und ihr allgemeines Vertrauen in Daten auf die Probe stellen werden. Insgesamt ist die Bereitschaft für KI in internationalen Unternehmen sehr gering (17 Prozent).

  • Hybride Ansätze statt Cloud Only

    Wie sieht die Perspektive für das Dokumentenmanagement im Jahr 2025 aus? Die Zukunft ist digital, so viel ist sicher. Mit der E-Rechnungspflicht, künstlicher Intelligenz und Cloud-Technologien stehen grundlegende Veränderungen bevor. Der DMS-Experte easy software AG hat die relevantesten Branchentrends zusammengefasst.

  • Migration in die Cloud

    Die Versicherungsbranche befindet sich in einem rasanten Wandel. Fadata, Anbieterin von Softwarelösungen für die Versicherungsbranche, wirft einen Blick auf das Jahr 2025 und beleuchtet die wichtigsten Entwicklungen und Trends in den Bereichen Versicherung und digitale Transformation. Die wichtigsten Trends, die laut Fadata die Zukunft der Versicherung prägen werden, sind Internalisierung, Prävention, Cloud-Migration, Embedded Insurance, Ökosystem-Entwicklung und Talent-Transformation. Diese sechs Trends treiben transformative Veränderungen in der gesamten Branche voran, wobei die Versicherer innovative Ansätze verfolgen, um Kundenbedürfnisse, betriebliche Effizienz, Sicherheit, Risiken und Marktanforderungen zu adressieren. Versicherer werden im Jahr 2025 ihre wichtigsten Abläufe zunehmend internalisieren. Sie wollen ihre Abläufe straffen, Kosten senken und die Datensicherheit erhöhen. All dies kann durch die verbesserte Steuerung der Prozesse erreicht werden, die eine Internalisierung ermöglicht.

  • NIS2 wird Bewusstsein für CPS-Sicherheit stärken

    Und wieder liegt ein herausforderndes Jahr hinter uns. Die geopolitische Lage insbesondere in der Ukraine und im Nahen Osten ist weiterhin angespannt, während die innenpolitische Situation in den zwei stärksten Volkswirtschaften Europas derzeit ungewiss erscheint. All dies hat auch Auswirkungen auf die Cybersecurity. Schon längst sollten wir dabei nicht nur an IT-Sicherheit denken, sondern auch an IoT und Betriebstechnik (OT), also an cyber-physische Systeme (CPS).

  • Generative KI mit bemerkenswerten Fortschritte

    Generative Künstliche Intelligenz (generative KI) hat in den letzten Jahren bemerkenswerte Fortschritte erzielt. Dies ist auch auf die steigende Zahl von Entwicklern zurückzuführen, die über ein immer umfangreicheres Know-how verfügen. Doch eine Frage brennt Unternehmen wie Investoren unter den Nägeln: Wann lässt sich mithilfe von KI die betriebliche Effizienz auf das nächste Level heben?

  • Datendschungel: Herausforderung & Chance

    Das Jahr 2024 markierte einen Wendepunkt für die generative KI. Chat GPT und andere Akteure haben sich zu einigen der am schnellsten wachsenden Plattformen der letzten Zeit entwickelt. Doch inmitten dieser aufregenden KI-Revolution wird ein entscheidender Aspekt oft übersehen: das Datenmanagement. Ein starkes und durchdachtes Datenmanagement könnte der Schlüssel sein, um das volle Potenzial von KI-Lösungen zu entfalten.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen