Meilenstein der Quantum Supremacy


Um Quanten-basierte Cloud-Dienste zu entwickeln, egal ob für kommerzielle oder akademische Zwecke, muss Google Quantenbits (Qubits) und Netzwerkdaten zusammenführen
Die Überlegenheit der Quantencomputer ist belegt – aber ohne maximale Transparenz in den Datenverkehr wird es nicht erfolgreich sein


Von Ron Lifton, Senior Enterprise Solutions Manager bei Netscout

Obwohl es zweifellos ein enormer Meilenstein ist, dass Google die Überlegenheit der Quantencomputer – die so genannte Quantum Supremacy – belegen konnte, steht dem Unternehmen noch eine gewaltige Aufgabe bevor.

Wenn schnelles und leistungsfähiges Quanten-Computing über die Cloud verfügbar wird, können riesige Datenmengen und Aufgaben millionenfach schneller bearbeitet werden. Die Technik wird damit unser Alltags- und Geschäftsleben entscheidend prägen. Beispielsweise könnten Anwendungen, die auf Quanten-Computing basieren, so diverse Problemfelder wie Verkehrsstaus, Internetkriminalität oder Krebserkrankungen einschränken oder gar verhindern. Dass Google nun den Meilenstein der Quantum Supremacy erreicht hat, bedeutet jedoch noch nicht, dass sie nun den Fuß vom Gas nehmen können. Vielmehr hat das Unternehmen damit den Startschuss für das Wettrennen um die Kommerzialisierung des Quanten-Computing gegeben. Denn nur mit dem Beleg, dass etwas möglich ist, kann man die Technologie noch lange nicht beherrschen.

Um Quanten-basierte Cloud-Dienste zu entwickeln, egal ob für kommerzielle oder akademische Zwecke, muss Google Quantenbits (Qubits) und Netzwerkdaten zusammenführen. Wenn Quanten-Cloud-Dienste jemals in der ersten Liga mitspielen sollen, benötigen sie immer eine Korrelation zu den im netzwerk verfügbaren Traffic-Daten, um den Benutzern einen Mehrwert zu bieten. Dies erzeugt eine besondere Herausforderung für IT- und Sicherheitsexperten, die einerseits die Verfügbarkeit von Services sicherstellen und eine andererseits einwandfreie Benutzererfahrung bieten müssen. Zum einen lösen Quanten-Cloud-Dienste eine Million Berechnungen gleichzeitig; zum anderen werden die Ergebnisse via Datentransfer über ein Cloud-, SD-WAN- oder ein 5G-Netzwerk bereitgestellt. Es spielt keine Rolle, ob Quanten-Computing heute oder morgen eine 100 Millionen Mal schnellere Antwort liefern kann als ein normaler Computerchip, wenn eine davon abhängige Anwendung Leistungsprobleme aufweist, die resultierenden Daten nicht sicher am Endgerät ankommen oder ein Datenschutzrisiko in Ihrem lokalen Rechenzentrum lauert.

Unabhängig davon, wie die Welt des Quanten-Computings in Zukunft aussehen wird, müssen IT-Teams wie NetOps und SecOps immer noch Netzwerkdaten verwenden, um einen umfassenden Einblick in den Datenverkehr zu erhalten, unabhängig davon, ob dieser im lokalen Rechenzentren oder in einer Cloud-Umgebung stattfindet. Netzwerkdaten werden verwendet, um Sichtbarkeitslücken zu füllen und damit Informationen einzusehen, die anderen verwehrt bleiben. Dies hilft wiederum dabei, verwertbare Informationen zu erhalten, um Cyber-Angriffe zu erkennen oder Beeinträchtigungen in der Verfügbarkeit schnell zu beheben. Quanten-Computing erhöht zwar die Geschwindigkeit, erweitert jedoch auch die Komplexität der Infrastruktur in ganz neue Dimensionen – was wiederum zu völlig neuen Herausforderungen und Fehlern führen kann. Um das Risiko zu verringern, muss daher der tote Winkel bei der Bereitstellung von Diensten entfernt werden. Dazu müssen Netzwerkdaten weiter mit Informationen angereichert und mit anderen Daten in Korrelation gesetzt werden, um dadurch die Komplexität der Infrastruktur zu verringern und so maximale Transparenz zu erreichen. Nur dann kann die IT im Unternehmen die Probleme, die sich auf Serviceleistung und -sicherheit auswirken, verstehen.

Bei aller Aufregung um die zukünftigen Möglichkeiten des Quanten-Computings können und sollte die Bedeutung von Netzwerkdaten daher nicht ignoriert werden. Während Google nach qualitativ hochwertigen Qubits strebt und neue Wege der Quantum Supremacy beschreitet, beruht der Erfolg letztendlich auf der Verwendung der richtigen Daten für die Gewährleistung und Sicherheit von Diensten in Zeiten einer unbegrenzten Anzahl von Geräten, Cloud-Anwendungen und exponentieller Skalierbarkeit. (NetScout: ra)

eingetragen: 16.10.19
Newsletterlauf: 21.11.19

Netscout Systems: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Kommentare und Meinungen

  • E-Commerce-Richtlinie ablösen

    Das EU-Parlament entschied über den Digital Services Act (DSA) und den Digital Markets Act (DMA). Dazu erklärt eco Geschäftsführer Alexander Rabe: "Der Digital Services Act bietet die Möglichkeit, den horizontalen Rechtsrahmen an die technologischen Entwicklungssprünge der letzten 20 Jahre anzupassen und damit die E-Commerce-Richtlinie abzulösen, die den Gegebenheiten der digitalen Kommunikation nicht mehr vollumfänglich gerecht wurde."

  • Nearshoring eine perfekte Lösung

    Während die Digitalisierung zügig voranschreitet, nimmt der Mangel an IT-Fachkräften stetig zu. Laut einer aktuellen Umfrage von Bitkom blieben im Jahr 2021 branchenübergreifend 96.000 IT-Stellen unbesetzt. Rund zwei Drittel (65 Prozent) aller befragten Unternehmen beklagten den Mangel an Fachkräften und fast ebenso viele (66 Prozent) erwarten, dass sich die Situation in Zukunft weiter verschärfen wird.

  • Die Angriffe auf Cloud-Service-Anbieter

    Mit dem Anstieg hybrider Arbeitsmodelle sehen wir, dass Unternehmen vermehrt Workloads (IT-Serviceeinheiten mit bestimmter Aufgabe) in die Cloud verlagern. Dieser Wandel bietet zwar große Vorteile in Bezug auf Flexibilität und Skalierbarkeit, birgt aber auch erhöhte Risiken für Sicherheit und Compliance. Ein einfacher Konfigurationsfehler kann dazu führen, dass Ihr gesamtes Unternehmen Bedrohungsakteuren ausgesetzt ist, die so auf Ihre kritischen Daten zuzugreifen oder Ransomware-Angriffe durchführen können.

  • Cloud Enabler: dedizierten Ansprechpartner stellen

    Immer mehr Unternehmen haben im Zuge der digitalen Transformation ihre IT bereits in die Cloud verlagert, sind gerade dabei oder planen die Migration. Ist der komplexe Prozess bewältigt, stehen Unternehmen vor der Frage, wie sie ihre Cloud Services managen. Zwar werden viele Aufgaben, die früher bei der eigenen IT-Abteilung angesiedelt waren, nun vom Cloud Provider als Service bezogen. Doch das Management gehört nicht dazu und muss von jemand anderem erbracht werden. Und auch für den Support muss eine gute Lösung gefunden werden.

  • Vorteile von Multi-Cloud-Arbitrage

    Während es von vielen als zynischer Trick gegen die führenden Cloud-Plattformen Microsoft und AWS angesehen wird, könnte das lange angekündigte BigQuery Omni, das Google auf der Next '21 allgemein freigibt, ein Meisterstück sein, mit dem Unternehmen die Möglichkeit erhalten, die Vorteile von Multi-Cloud-Arbitrage zu nutzen. Einfach ausgedrückt: Indem Google mit ihrer ganzen Macht eine Hybrid-Cloud-Strategie unterstützt, versetzt sie jeden in die Lage, über die vertraute Standardschnittstelle Daten abzufragen, die sich in anderen Clouds wie Microsoft Azure und AWS befinden - ohne Kopien der Daten zwischen den Clouds verschieben zu müssen.

  • Remote-Management über die Cloud

    Nach Solarwinds ist mit Kaseya binnen weniger Monate der zweite große Anbieter von Lösungen für Remote Management and Monitoring (RMM) zum Opfer von Hackern geworden - bereits vor zwei Jahren hatte es das deutsche Vorzeige-Start-up Teamviewer erwischt. Erneut sind damit auf einen Schlag hunderte oder sogar tausende Unternehmen ins Visier von Cyberkriminellen geraten, weil ihre remote gemanagten Systeme plötzlich für Eindringlinge offenstehen. Die Folgen sind kaum absehbar, denn die ersten Firmen - darunter die Supermarktkette Coop in Schweden - wurden bereits gezielt attackiert. Dem BSI zufolge sind zunehmend auch deutsche Unternehmen von Ransomware betroffen, die auf die Schwachstellen in der Kaseya-Software abzielt.

  • Auch in der Cloud hat Sicherheit ihren Preis

    Wer glaubt, dass die Daten in der Cloud in einem unangreifbarem Raum schweben, wird gerade eines Besseren belehrt, denn am 10. März 2021 brannte eines der Rechenzentren eines großen europäischen Cloud-Anbieters bis auf die Grundmauern nieder. In den fünf Etagen gingen über 12.000 Server in Flammen auf, wodurch laut Presse-Angaben auf einen Schlag alleine 3,6 Millionen Webseiten offline gingen. Viele denken, sich mit der Cloud auch ein Stück Sicherheit erkauft zu haben. In der Regel sind die Daten dort bestmöglich gegen viele Eventualitäten geschützt. Jedoch entbindet es die Dateninhaber nicht, die klassischen Sicherungsmaßnahmen der IT zu beachten. Die Welt ist nicht perfekt und immer kann die eine Festplatte zu viel ausfallen, ein Feuer ausbrechen oder ein tagelanger Starkregen die Wasserpumpen überfordern und die Stromzufuhr im Rechenzentrum stören. So ist es nicht das erste Mal, dass ein sicher geglaubtes System durch einen Störfall komplett ausgefallen ist.

  • Verantwortung für die Datensicherheit bewusst sein

    Unzählige Server und Daten wurden an einem französischen Rechenzentrums-Standort durch ein Feuer zerstört. Doch Unternehmen müssen einem solchen Ereignis nicht schutzlos ausgeliefert sein. Im Gegenteil, denn eine strategische Cloud-Migration lässt sich mit Disaster-Recovery- und Backup-Services so absichern, dass kein Geschäftsausfall droht. Am Straßburger Standort eines Cloud-Providers ist am 10. März 2021 eines der vier Rechenzentren komplett abgebrannt. 12.000 Server wurden völlig zerstört, samt Daten von zahlreichen Firmen und Organisationen. Die Brandursache steht noch nicht fest. Klar ist hingegen, dass auch die Unternehmen selbst etwas unternehmen müssen, um auf solche Katastrophenfälle sowie kleinere Störungen vorbereitet zu sein. Im besten Fall ist eine Firma in der Lage, den letzten Stand ihrer Datenbanken, Applikationen und Systeme sofort wieder einzuspielen, damit ihre geschäftskritischen Prozesse weiterlaufen.

  • DSGVO & Gesetzeslage in den USA

    Die Pandemie stellt im Moment einen Katalysator für die Digitalisierung dar. Wie nie zuvor wird von zuhause gearbeitet, gelernt und auch das Privatleben hat in Zeiten von Lockdowns und Ausgangssperren eine Verlagerung hin ins Internet erfahren. Insbesondere Unternehmen sind dazu verpflichtet, ihren Mitarbeitern die Arbeit von zuhause aus zu ermöglichen. Um den reibungslosen Wechsel ins Homeoffice zu gewährleisten, sind Cloud-Dienste hier das Mittel der Wahl - oftmals von US-amerikanischen Tech-Riesen wie Microsoft, Google und AWS. Firmen jedweder Größe setzen auf die "Hyperscaler", weil diese ihnen Sicherheit, Stabilität und Skalierbarkeit versprechen.

  • Public Cloud in der Finanzwelt

    13 europäische Finanzinstitute - darunter Commerzbank und Deutsche Börse - haben die European Cloud User Coalition (ECUC) gebildet, um ein regelkonformes Public-Cloud-Ökosystem zu schaffen. Der zukünftige Übergang stellt Sicherheitshindernisse dar, die über das Netzwerk angegangen werden müssen. Simon Pamplin, technischer Direktor bei Silver Peak, kommentiert die Herausforderung.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen