- Anzeige -


Sie sind hier: Startseite » Markt » Studien

Azure mit sehr guter Netzwerkperformance


"Cloud Performance Report": Gravierende Leistungsunterschiede zwischen AWS, Google Cloud Platform, Azure, Alibaba und IBM Cloud auf
Studie zur Performance von Cloud-Dienstleistern unterstützt IT-Führungskräfte mit umfassenden Daten bei strategischen Entscheidungen zu Cloud Computing-Services

- Anzeigen -





ThousandEyes gab die Ergebnisse seines jährlichen Cloud Performance Benchmark-Reports bekannt. Die Studie zeigt die Unterschiede in Bezug auf die globale Netzwerkperformance und Konnektivität der fünf großen Public Cloud-Anbieter auf. Untersucht wurden Amazon Web Services (AWS), Google Cloud Platform (GCP), Microsoft Azure, Alibaba Cloud und IBM Cloud. Der Report ist eine Hilfestellung für IT-Führungskräfte in Unternehmen, um qualifizierte Entscheidungen bezüglich Investitionen im Cloud Computing-Bereich zu treffen.

"Wenn Unternehmen sich vor die Entscheidung gestellt sehen, einen passenden Cloud Provider wählen zu müssen, liegen ihnen meist keine Daten zur jeweiligen Performance vor. Der Grund hierfür ist, dass solche Informationen nie vorhanden oder nur oberflächlich verfügbar waren", sagt Archana Kesavan, Director für Produktmarketing bei ThousandEyes. "Der Cloud Performance Report liefert Unternehmen hierzu passende Vergleichsdaten. Umfassende Informationen zur Cloud-Performance sind für die Planung und das weitere Vorgehen unerlässlich, um sicherzugehen, dass Kunden und Mitarbeiter die bestmöglichen Leistungen erhalten."

ThousandEyes bietet eine Plattform, die analysiert, wie Internet-, Cloud- und andere Drittanbieter sich gegenseitig beeinflussen und sich so auf die digitale Benutzererfahrung auswirken. Für Forschungszwecke wurde die Plattform dazu verwendet, die Netzwerkleistung in von globalen und innerhalb von Cloud-Umgebungen zu messen. Die Ergebnisse stammen aus einer Analyse von mehr als 320 Millionen Datenpunkten, die in 98 globalen Metropolregionen im Laufe von 30 Tagen gesammelt wurden. Dabei wurden umfassende Methoden zur Messung der Ende-zu-Ende-Performance sowie von Datenpfaden genutzt. Der Performance Report kann Unternehmen dabei unterstützen, die für sie relevanten regionalen und Cloud Provider-spezifischen Informationen zu erhalten.

Die wichtigsten Ergebnisse der Untersuchung lauten:

>> Beim Datenverkehr verlassen sich einige Cloud-Anbieter stark auf das frei zugängliche Internet statt auf ihre eigenen Backbones; eine Vorhersage der Leistung kann dadurch beeinflusst werden. Google Cloud und Azure nutzen bei der Koordination des Datenverkehrs ihrer Kunden verstärkt ihre privaten Backbone-Netzwerke, um Leistungsschwankungen zu verhindern, die mit der Nutzung des frei zugänglichen Internets einhergehen können. AWS und Alibaba Cloud greifen bei dem Großteil des Datenverkehrs auf das frei zugängliche Internet zurück. Dies führt zu einem höheren Betriebsrisiko, das die Vorhersage der Leistung beeinträchtigen kann. IBM verfolgt einen hybriden Ansatz, der sich regional unterscheidet.

>> Lateinamerika und Asien haben die höchsten Performance-Schwankungen über alle untersuchten Cloud-Anbieter hinweg, während in Nordamerika die Cloud-Performance im Allgemeinen konstant ist. Verantwortliche und Entscheidungsträger sollten aufgrund der Ergebnisse des Reports einen regional passenden Cloud Provider auswählen, um eine weltweit optimale Performance zu gewährleisten. Denn regionale Performance-Schwankungen können einen erheblichen Einfluss auf die Performancegewinne oder -verluste haben.

>> AWS Global Accelerator weist nicht immer eine bessere Performance auf als das frei zugängliche Internet. AWS Global Accelerator wurde im November 2018 eingeführt, um Kunden die Nutzung des privaten Backbone-Netzwerks von AWS gegen eine Gebühr zu ermöglichen. Standard von AWS ist hingegen der Datenverkehr über das frei zugängliche Internet. Trotz zahlreicher weltweiter Beispiele für Performancesteigerungen ist der Global Accelerator keine Universallösung. Verschiedene Beispiele zeigen, dass der Weg über das frei zugängliche Internet schneller und zuverlässiger arbeiten kann als der Global Accelerator. Teils unterscheiden sich die Ergebnisse nur geringfügig.

>> Cloud-Performance basiert auf der Wahl des Breitband-ISP. Unternehmen, die einen Performancevorsprung erzielen wollen, sollten ihren Breitband-ISP-Anbieter danach auswählen, auf welche Cloud sie am stärksten angewiesen sind. Dies kann zu Performancegewinnen und -verlusten führen, je nachdem, welche Breitband-Provider Unternehmen für die Verbindung mit der jeweiligen Cloud nutzen.

>> Die Great Firewall of China sorgt bei allen Cloud-Anbietern für Performanceverluste. Obwohl Alibaba seinen Ursprung in China hat, tritt beim Passieren der Great Firewall of China ein Paketverlust auf – genau wie bei allen anderen Cloud-Anbietern. Dies beweist, dass Alibaba keine gesonderte Stellung innehat. Unternehmen mit Kunden in China, die aufgrund strenger Regularien bezüglich Datenverkehr und Datenschutz zögern, eine Hosting-Umgebung in China zu nutzen, können Hongkong als Option in Betracht ziehen. Der Datenverkehr von Hongkong nach China durch Alibaba Cloud hatte den geringsten Paketverlust, gefolgt von Azure und IBM.

Ergebnisse aufgeschlüsselt nach Cloud Providern
Der letztjährige Cloud Performance Report verglich die drei größten Cloud Provider mit den höchsten Marktanteilen, also AWS, Azure und GCP. Alibaba Cloud und IBM Cloud kamen in diesem Jahr neu hinzu, sodass zu diesen Diensten keine Vergleichsdaten vorliegen. Deutliche Unterschiede zeichneten sich zwischen einzelnen Cloud-Anbietern im Bezug auf Gesamtperformance und Konnektivität ab.

Die wichtigsten Erkenntnisse, aufgeschlüsselt nach Cloud Providern, lauten:

>> AWS weist allgemein eine geringe Latenz auf und konnte im Vergleich zum letzten Jahr insgesamt besser abschneiden. Die Kennzahlen zur Vorhersehbarkeit der Leistung haben sich deutlich verbessert, in Asien gab es zudem eine starke Verringerung der Variabilität um 42 Prozent. Im Vergleich zu Azure und Google Cloud Platform hat AWS jedoch immer noch eine geringere Leistungsvorhersehbarkeit, da der Provider weitgehend das frei zugängliche Internet anstelle des eigenen Backbones nutzt.

>> Azure überzeugt weiterhin durch die sehr gute Netzwerkperformance. Diese hat ihren Grund in der Nutzung des eigenen Backbones, das für den Datenverkehr der Benutzer in Cloud Hosting-Umgebungen genutzt wird. Besondere Veränderungen im Vergleich der Daten von 2018 und 2019 sind eine 50-prozentige Verbesserung der Vorhersehbarkeit der Performance in Sydney, während in Indien ein Rückgang der Leistungsvorhersehbarkeit um 31 Prozent zu verzeichnen war. Trotz eines leichten Rückgangs gegenüber dem Vorjahr ist Azure in Asien im Vergleich zu den anderen Cloud-Anbietern weiterhin führend bei der Vorhersage von Leistungszahlen.

>> Bei Google Cloud favorisiert man weiterhin die Nutzung des eigenen Backbones für die Bereitstellung von Traffic in der Cloud. Benutzer profitieren von einer starken Performance in den meisten Hosting-Regionen. Der Cloud Provider weist weltweit aber immer noch einige signifikante Lücken auf, die seit der Veröffentlichung des Reports im letzten Jahr nicht geschlossen wurden. Der Datenverkehr aus Europa und Afrika benötigt 2,5 bis 3-mal länger, um nach Indien zu gelangen, da Daten zunächst um die Welt reisen, anstatt eine direkte Verbindung zu nutzen. Google Cloud verringerte zudem die Transparenz des internen Netzwerks, so dass es schwieriger wurde, die Netzwerkpfade und -leistung zu analysieren.

>> Alibaba Cloud bietet im Vergleich mit anderen Providern eine ähnliche Performance. Der Provider ähnelt AWS in Bezug auf Verbindungsmuster, Regionspositionen und sogar der einzelnen Benennung von Regionen. Wie AWS setzt Alibaba Cloud für den Großteil des Datenverkehrs stark auf das frei zugängliche Internet und nicht auf sein eigenes privates Backbone-Netzwerk. Besonders ist hierbei, dass der Datenverkehr zwischen Regionen nicht zwischen einzelnen Dependancen von Alibaba Cloud stattfindet, sondern aus der internen Cloud austritt, das Internet durchquert und anschließend wieder in das regionale Cloud-Netzwerk eintritt.

>> Auch die Performance von IBM Cloud ist mit der anderer großer Cloud-Provider vergleichbar. IBM verfolgt einen hybriden Ansatz bei der Koordinierung des Datenverkehrs, in dessen Rahmen die Nutzung des eigenen privaten Backbones und des frei zugänglichen Internets variiert, abhängig davon, auf welche Regionen der Benutzerzugriff erfolgt.

"Bisher haben die meisten IT-Entscheider bei der Suche nach dem passenden Cloud-Anbieter auf Faktoren wie den Preis oder die Nähe zum Nutzer geachtet. Dabei wurde die zugrundeliegende Netzwerkarchitektur oft völlig außer Acht gelassen, obwohl diese einen erheblichen Einfluss auf die Performance haben kann", erläutert Zeus Kerravala, Principal Analyst, ZK Research. "Der Cloud Performance Benchmark Report 2019 von ThousandEyes zeigt, wie sehr sich die Leistungen der bekanntesten Cloud-Service-Provider unterscheiden können. Die Einblicke beweisen, dass Unternehmen weiterhin ihre Netzwerkinformationen und Leistung messen sollten, um sicherzustellen, dass sie die Leistung von Cloud-Providern erhalten, die sie erwarten."
(ThousandEyes: ra)

eingetragen: 26.11.19
Newsletterlauf: 03.02.20

ThousandEyes: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Studien

  • Gesamtpotenzial rund 488 Mrd. EUR durch KI

    Technologien und Anwendungen auf Basis Künstlicher Intelligenz (KI) haben ein enormes Wirtschaftspotenzial. Eine vorgestellte gemeinsame Studie von eco - Verband der Internetwirtschaft e.V. und Arthur D. Little, unterstützt vom Vodafone Institut, untersucht erstmals anhand von 150 Use Cases, welche Effekte konkret für Unternehmen in Deutschland durch KI zu erwarten sind. Die Erkenntnis: Wird KI flächendeckend eingesetzt, ist ein Wachstum des Bruttoinlandsprodukts von über 13 Prozent bis 2025 (im Vergleich zu 2019) realistisch. Dies entspricht einem Gesamtpotenzial von ca. 488 Mrd. Euro. Davon entfallen ca. 330 Mrd. Euro (70 Prozent) auf Kosteneinsparungen und ca. 150 Mrd. Euro (30 Prozent) auf Umsatzpotenziale für alle Branchen. Absolut profitieren am meisten die Branchen Handel & Konsum sowie Energie, Umwelt & Chemie mit je knapp unter 100 Milliarden Euro. Besonders große Chancen sehen die Verfasser für Industrie 4.0: Mit etwas über 50 Prozent (182,5 Mrd. EUR) steckt das größte Kosteneinsparpotenzial in der Unterstützung der Produktion durch KI.

  • Ängste vor geopolitischer Instabilität

    Laut dem Research- und Beratungsunternehmen Gartner könnten sich Ängste vor geopolitischer Instabilität auf den globalen Offshore-Dienstleistungsmarkt auswirken, da Führungskräfte in den Bereichen Beschaffung und Lieferantenmanagement ihre Optionen zur Risikominderung überprüfen. Der Offshore-Outsourcing-Markt war in den letzten Jahren relativ stabil, wobei Unternehmen eine Mischung aus Onshore-, Nearshore- und Offshore-Ressourcen mit relativ stabilen Nachfrage- und Angebotsmustern nutzen. Jüngste Ereignisse wie die Terroranschläge in Sri Lanka, der Handelsstreit zwischen den USA und China und die politischen Spannungen in Hongkong wecken jedoch Ängste vor Lieferstörungen.

  • Azure mit sehr guter Netzwerkperformance

    ThousandEyes gab die Ergebnisse seines jährlichen Cloud Performance Benchmark-Reports bekannt. Die Studie zeigt die Unterschiede in Bezug auf die globale Netzwerkperformance und Konnektivität der fünf großen Public Cloud-Anbieter auf. Untersucht wurden Amazon Web Services (AWS), Google Cloud Platform (GCP), Microsoft Azure, Alibaba Cloud und IBM Cloud. Der Report ist eine Hilfestellung für IT-Führungskräfte in Unternehmen, um qualifizierte Entscheidungen bezüglich Investitionen im Cloud Computing-Bereich zu treffen. "Wenn Unternehmen sich vor die Entscheidung gestellt sehen, einen passenden Cloud Provider wählen zu müssen, liegen ihnen meist keine Daten zur jeweiligen Performance vor. Der Grund hierfür ist, dass solche Informationen nie vorhanden oder nur oberflächlich verfügbar waren", sagt Archana Kesavan, Director für Produktmarketing bei ThousandEyes. "Der Cloud Performance Report liefert Unternehmen hierzu passende Vergleichsdaten. Umfassende Informationen zur Cloud-Performance sind für die Planung und das weitere Vorgehen unerlässlich, um sicherzugehen, dass Kunden und Mitarbeiter die bestmöglichen Leistungen erhalten."

  • Der hybriden Cloud gehört die Zukunft

    Nutanix legte die Ergebnisse der zweiten Ausgabe ihrer Marktstudie "Enterprise Cloud Index" vor. Die Untersuchung misst die Fortschritte, die Unternehmen bei der Implementierung und Nutzung privater, hybrider und öffentlicher Cloud Computing-Umgebungen machen. Die aktuelle Studie fördert eine starke Umschichtung von Investitionen in Richtung Hybrid-Cloud-Architekturen zutage. Die Befragten berichten von stabilen und substanziellen Plänen zur Implementierung hybrider Umgebungen in den kommenden fünf Jahren, 85 Prozent der Studienteilnehmer sehen in der hybriden Cloud das ideale IT-Betriebsmodell.

  • Cloud im Mainstream angekommen

    Laut dem Research- und Beratungsunternehmen Gartner wird der weltweite Markt für Public Cloud Services im Jahr 2020 um 17 Prozent auf insgesamt 266,4 Milliarden US-Dollar wachsen, gegenüber 227,8 Milliarden US-Dollar im Jahr 2019. "Die Cloud ist jetzt im Mainstream angekommen", sagt Sid Nag, Research Vice President bei Gartner. "Die Erwartungen an die Ergebnisse im Zusammenhang mit Cloud-Investitionen sind daher ebenfalls gestiegen. Zukunftsweisende Lösungen der nächsten Generation sind fast immer ‚Cloud-gestützt', das heißt sie bauen auf den Stärken einer Cloud-Plattform auf, um digitale Geschäftsfunktionen zu ermöglichen."

  • Datenstrategie für das Kundenwissen

    Für die Mehrheit der Finanzinstitute im deutschsprachigen Raum (82 Prozent) hat es eine hohe Priorität, die Bindung zu ihren Kunden zu verbessern. Um dies zu erreichen, wird insbesondere eine Datenstrategie von 71 Prozent der Befragten als entscheidend angesehen. Zu diesen Ergebnissen kommt eine aktuelle, internationale Studie von Exasol, die unter 457 Finanzinstituten aus Deutschland, Österreich, der Schweiz, Großbritannien und den USA, davon 153 aus dem deutschsprachigen Raum, durchgeführt wurde. Die Exasol AG zeigt mit dieser Marktumfrage, wie Finanzunternehmen Datenanalysen heute für die Kundenbindung einsetzen. "Die Ergebnisse der Studie spiegeln deutlich wider, dass die befragten Finanzinstitute das Potential von Datenanalyse für eine erfolgreichere Kundenbindung anerkennen", so Carsten Weidmann, Technical Alliance Manager der Exasol AG und ergänzt: "Mit 95 Prozent im deutschsprachigen Raum und 86 Prozent international nutzen auch tatsächlich schon fast alle Abteilungen der Unternehmen Datenanalysen für verschiedene Bereiche."

  • Trendstudie zur Digitalisierung

    Bei der Digitalisierung rückt in deutschen Unternehmen immer öfter neben dem Einsatz neuer Technologien die Gestaltung der notwendigen Veränderungsprozesse in den Mittelpunkt. So setzt aktuell rund jedes zweite Unternehmen (47 Prozent) mit 100 oder mehr Mitarbeitern Change-Management-Methoden ein, um Strukturen anzupassen und die Belegschaft mitzunehmen. Vor zwei Jahren lag der Anteil gerade einmal bei 36 Prozent. Vor allem Großunternehmen mit 500 oder mehr Mitarbeitern greifen auf Change-Management-Methoden zurück, hier beträgt der Anteil sogar 57 Prozent. Das ist das Ergebnis einer repräsentativen Umfrage von Bitkom Research im Auftrag von Tata Consultancy Services (TCS) unter 953 Unternehmen mit 100 oder mehr Mitarbeitern in Deutschland. Dabei wird der Veränderungsprozess am häufigsten von eigenen Digitalisierungseinheiten oder dem Chief Digital Officer (CDO) verantwortet (35 Prozent). In rund jedem vierten Unternehmen ist dafür die Geschäftsführung bzw. der Vorstand (26 Prozent) oder die interne Unternehmenskommunikation (23 Prozent) zuständig.

  • Wichtigstes Kapital eines Unternehmens

    Eine aktuelle Studie der Exasol AG zeigt, dass Daten zu einer wichtigen Währung für Unternehmen geworden sind. Doch das reine Sammeln von Daten bietet ohne die richtigen Analysen und das Ableiten relevanter Erkenntnisse keinen Mehrwert. 77 Prozent der Befragten gaben an, Daten heute als das höchste Gut ihres Unternehmens zu bewerten. Gleichzeitig befürchten jedoch 72 Prozent der Teilnehmer negative Auswirkungen auf die finanzielle Leistung, wenn Unternehmen nicht in der Lage sind, aus Datenanalysen echte Erkenntnisse zu gewinnen. Darüber hinaus waren 82 Prozent der befragten Unternehmen der Meinung, dass in den nächsten 18 Monaten die Geschwindigkeit, mit der Daten analysiert werden können, zu einem entscheidenden Erfolgsfaktor wird. Die Exasol AG hat die Studie gemeinsam mit dem Marktforschungsinstitut YouGov unter 1.000 IT-Führungskräften aus 13 Branchen in Deutschland, Großbritannien und den USA durchgeführt.

  • Daten zur SSO-Nutzung

    Bitglass hat ihren diesjährigen "Cloud Adoption Report 2019" veröffentlicht, für den das Unternehmen Informationen zum Status der Cloud-Nutzung in mehr als 138.000 Firmen weltweit gesammelt und ausgewertet hat. Die Ergebnisse zeigen, dass bereits 86 Prozent der Unternehmen Cloud-basierte Tools implementiert haben. Nur 34 Prozent nutzen jedoch Single Sign-On (SSO), eines der einfachsten und wichtigsten Cloud-Sicherheits-Tools. Bereits seit fünf Jahren untersucht Bitglass die Cloud-Nutzung in Unternehmen, um daraus Trends abzuleiten. Für den diesjährigen Report hat Bitglass die Einführung verschiedener Cloud-basierter Tools, darunter Microsoft Office 365, die G Suite von Google, Amazon Web Services (AWS), Slack, Salesforce, Box und ServiceNow, genauer analysiert sowie Daten zur SSO-Nutzung erhoben.

  • Data Warehouse modernisieren

    Das Business Application Research Center (BARC) veröffentlicht "The Data Management Survey 19", eine neue Studie, die auf einer aktuellen weltweiten Umfrage unter 782 Nutzern von Datenmanagementsoftware basiert. Die Umfrageergebnisse geben Einblicke in aktuelle Ansätze zur Modernisierung des Data Warehouse sowie einen Vergleich von elf führenden Datenmanagement-Produkten. Bekanntlich fallen etwa 70 bis 80 Prozent des Aufwandes im Data Warehousing auf die Datenintegrationsprozesse. Es ist daher nicht verwunderlich, dass Anwender vor allem mittels ETL-Automatisierung und Data-Warehouse-Automation versuchen ihre DWH-Umgebung zu modernisieren. Laut dem Data Management Survey 19 sind Datenintegrationstechnologien nach wie vor die wichtigste Technologie für diesen Zweck (42 Prozent der Befragten), dicht gefolgt von Data-Warehouse-Automationslösungen (37 Prozent) und Datenmodellierungswerkzeugen (31 Prozent).