Meilenstein der Quantum Supremacy


Um Quanten-basierte Cloud-Dienste zu entwickeln, egal ob für kommerzielle oder akademische Zwecke, muss Google Quantenbits (Qubits) und Netzwerkdaten zusammenführen
Die Überlegenheit der Quantencomputer ist belegt – aber ohne maximale Transparenz in den Datenverkehr wird es nicht erfolgreich sein


Von Ron Lifton, Senior Enterprise Solutions Manager bei Netscout

Obwohl es zweifellos ein enormer Meilenstein ist, dass Google die Überlegenheit der Quantencomputer – die so genannte Quantum Supremacy – belegen konnte, steht dem Unternehmen noch eine gewaltige Aufgabe bevor.

Wenn schnelles und leistungsfähiges Quanten-Computing über die Cloud verfügbar wird, können riesige Datenmengen und Aufgaben millionenfach schneller bearbeitet werden. Die Technik wird damit unser Alltags- und Geschäftsleben entscheidend prägen. Beispielsweise könnten Anwendungen, die auf Quanten-Computing basieren, so diverse Problemfelder wie Verkehrsstaus, Internetkriminalität oder Krebserkrankungen einschränken oder gar verhindern. Dass Google nun den Meilenstein der Quantum Supremacy erreicht hat, bedeutet jedoch noch nicht, dass sie nun den Fuß vom Gas nehmen können. Vielmehr hat das Unternehmen damit den Startschuss für das Wettrennen um die Kommerzialisierung des Quanten-Computing gegeben. Denn nur mit dem Beleg, dass etwas möglich ist, kann man die Technologie noch lange nicht beherrschen.

Um Quanten-basierte Cloud-Dienste zu entwickeln, egal ob für kommerzielle oder akademische Zwecke, muss Google Quantenbits (Qubits) und Netzwerkdaten zusammenführen. Wenn Quanten-Cloud-Dienste jemals in der ersten Liga mitspielen sollen, benötigen sie immer eine Korrelation zu den im netzwerk verfügbaren Traffic-Daten, um den Benutzern einen Mehrwert zu bieten. Dies erzeugt eine besondere Herausforderung für IT- und Sicherheitsexperten, die einerseits die Verfügbarkeit von Services sicherstellen und eine andererseits einwandfreie Benutzererfahrung bieten müssen. Zum einen lösen Quanten-Cloud-Dienste eine Million Berechnungen gleichzeitig; zum anderen werden die Ergebnisse via Datentransfer über ein Cloud-, SD-WAN- oder ein 5G-Netzwerk bereitgestellt. Es spielt keine Rolle, ob Quanten-Computing heute oder morgen eine 100 Millionen Mal schnellere Antwort liefern kann als ein normaler Computerchip, wenn eine davon abhängige Anwendung Leistungsprobleme aufweist, die resultierenden Daten nicht sicher am Endgerät ankommen oder ein Datenschutzrisiko in Ihrem lokalen Rechenzentrum lauert.

Unabhängig davon, wie die Welt des Quanten-Computings in Zukunft aussehen wird, müssen IT-Teams wie NetOps und SecOps immer noch Netzwerkdaten verwenden, um einen umfassenden Einblick in den Datenverkehr zu erhalten, unabhängig davon, ob dieser im lokalen Rechenzentren oder in einer Cloud-Umgebung stattfindet. Netzwerkdaten werden verwendet, um Sichtbarkeitslücken zu füllen und damit Informationen einzusehen, die anderen verwehrt bleiben. Dies hilft wiederum dabei, verwertbare Informationen zu erhalten, um Cyber-Angriffe zu erkennen oder Beeinträchtigungen in der Verfügbarkeit schnell zu beheben. Quanten-Computing erhöht zwar die Geschwindigkeit, erweitert jedoch auch die Komplexität der Infrastruktur in ganz neue Dimensionen – was wiederum zu völlig neuen Herausforderungen und Fehlern führen kann. Um das Risiko zu verringern, muss daher der tote Winkel bei der Bereitstellung von Diensten entfernt werden. Dazu müssen Netzwerkdaten weiter mit Informationen angereichert und mit anderen Daten in Korrelation gesetzt werden, um dadurch die Komplexität der Infrastruktur zu verringern und so maximale Transparenz zu erreichen. Nur dann kann die IT im Unternehmen die Probleme, die sich auf Serviceleistung und -sicherheit auswirken, verstehen.

Bei aller Aufregung um die zukünftigen Möglichkeiten des Quanten-Computings können und sollte die Bedeutung von Netzwerkdaten daher nicht ignoriert werden. Während Google nach qualitativ hochwertigen Qubits strebt und neue Wege der Quantum Supremacy beschreitet, beruht der Erfolg letztendlich auf der Verwendung der richtigen Daten für die Gewährleistung und Sicherheit von Diensten in Zeiten einer unbegrenzten Anzahl von Geräten, Cloud-Anwendungen und exponentieller Skalierbarkeit. (NetScout: ra)

eingetragen: 16.10.19
Newsletterlauf: 21.11.19

Netscout Systems: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Kommentare und Meinungen

  • Backups in der Cloud

    Egal wo sich geschäftskritische Daten und Workloads befinden - sie müssen entsprechend geschützt werden, um einen kontinuierlichen Betrieb sicherzustellen. Im Rahmen der gängigen 3-2-1-Backup-Regel, die von den meisten Unternehmen genutzt wird, werden immer mehr Backups in der Cloud gespeichert.

  • Vorteile der Multi-Cloud-Arbitrage nutzen

    Die im Januar 2024 in Kraft getretene EU-Datenverordnung, die den Wettbewerb fördern soll, indem sie Cloud-Kunden den Anbieterwechsel erleichtert, wirbelt den Markt für Cloud-Dienste kräftig durcheinander - zum Vorteil von Unternehmen, meint Jamil Ahmed, Director und Distinguished Engineer bei Solace. Offener Datentransfer zwischen den großen Cloud-Plattformen ist damit Wirklichkeit geworden.

  • eco zur AI Act-Abstimmung im EU-Parlament

    Im Europäischen Parlament fand die finale Abstimmung über den Artificial Intelligence Act (AI Act) statt, der wegweisende Regelungen für den Einsatz von Künstlicher Intelligenz in der EU vorsieht.

  • Cloud-Kunden den Anbieterwechsel erleichtern

    Die im Januar 2024 in Kraft getretene EU-Datenverordnung, die den Wettbewerb fördern soll, indem sie Cloud-Kunden den Anbieterwechsel erleichtert, wirbelt den Markt für Cloud-Dienste kräftig durcheinander - zum Vorteil von Unternehmen, meint Jamil Ahmed, Director und Distinguished Engineer bei Solace.

  • Kriterien im Umgang mit KI-Systemen

    eco - Verband der Internetwirtschaft e.V. forderte anlässlich der Abstimmung über den AI Act im Ausschuss der ständigen Vertreter der EU-Mitgliedsstaaten eine praxistaugliche Umsetzung und EU-weit einheitliche Kriterien im Umgang mit KI-Systemen.

  • Trends der Netzwerktechnologie 2024

    Künstliche Intelligenz und Cloud Computing ergänzen sich symbiotisch. Obwohl ML und KI keine neuen Technologien und Konzepte sind, hat die Verfügbarkeit großer Rechen- und Speicherkapazitäten über die Cloud die jüngsten Entwicklungen von KI beschleunigt.

  • Datenmengen häufen sich

    Immer mehr Unternehmen in Deutschland setzen auf Cloud Computing - Tendenz steigend. Dabei nennt sich die Verlagerung von Rechenressourcen wie etwa Daten, Anwendungen oder IT-Prozesse in die Cloud-Migration.

  • Datenflut in der Multi-Cloud-Welt

    Künstliche Intelligenz (KI) markiert aktuell einen wichtigen Wendepunkt für die Technologiebranche. Die in den 1950er Jahren von John McCarthy geprägt Technik hat sich jahrzehntelang hauptsächlich im Hintergrund weiterentwickelt, bis die Veröffentlichung des generativen KI-Tools ChatGPT den Durchbruch brachte.

  • Bitkom zum KI-Aktionsplan

    Bitkom begrüßt den KI-Aktionsplan des BMBF. Schon heute ist Deutschland in der Forschung rund um KI sehr gut aufgestellt und es ist richtig, sie weiter auszubauen. Wie diese Initiative des Forschungsministeriums in die Gesamtstrategie der Bundesregierung zur Künstlichen Intelligenz eingebettet werden soll, bleibt hingegen offen.

  • Digitale-Dienste-Gesetz deutlich homogener

    Das Gesetz über digitale Dienste (Digital Service Act, DSA) wurde im November 2022 im EU-Parlament verabschiedet und soll zusammen mit dem Gesetz über digitale Märkte (Digital Markets Act, DMA) in den kommenden Jahren die Standards für einen sichereren und offeneren digitalen Raum für Nutzer sowie gleiche Wettbewerbsbedingungen für Unternehmen innerhalb der EU setzen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen