Sie sind hier: Startseite » Markt » Tipps und Hinweise

Vier Technologien für IoT-Daten-Management


Vorteile von traditionellem Cloud- und Edge-Computing: In IoT-Projekten haben es Unternehmen häufig mit unstrukturierten Daten zu tun
Um hier ein ausgewogenes Data Tiering zu erreichen, eignen sich besonders Hybrid-Cloud-Strukturen


Karsten Stöhr ist Data Architect bei DataStax

Laut einer Studie von Gartner planen 66 Prozent der befragten Unternehmen, 5G bis 2020 etabliert zu haben. Immerhin 59 Prozent wollen mit dem Einsatz des neuen Netzes auch Use Cases im Bereich Internet of Things (IoT) angehen. Nicht zu Unrecht. Denn der neue Kommunikationsstandard ebnet den Weg dafür, endlich vollumfänglich von den Daten zu profitieren, die neue Technologien generieren.

Smartphones, Smart Cities, Smart Homes und Smart Cars gestalten unsere digitale Welt neu und schaffen eine massive Infrastruktur aus sensorischen Daten. Und diese Masse an Daten wird mit dem Einsatz neuer Technologien weiter steigen – auf 175 Zettabytes in fünf Jahren, wie es IDC voraussagt. Jedoch machen wir auch unentwegt Fortschritte, was die Nutzung dieser Daten angeht. So stehen uns, nicht zuletzt dank 5G, schon heute Mittel dazu zur Verfügung, die noch vor fünf Jahren unvorstellbar gewesen wären. Vier solcher Schlüsseltechnologien, die ein leistungsfähiges Management von IoT-Daten in skalierbarer Form ermöglichen, werden im Folgenden beleuchtet:

1. Zeitreihen-Datenbanken
Zeitreihendaten machen in IoT-Projekten einen großen Teil der anfallenden Daten aus. Betrachtet man Produktionsergebnisse im Laufe der Zeit, lassen sich Aussagen über den Einfluss bestimmter Parameter treffen, Trends bewerten oder Muster in den Daten identifizieren. So könnten beispielsweise Temperaturschwankungen eines Brennofens die Qualität des Endprodukts beeinflussen. Die Einsichten entstehen hier aus der Analyse von Zeitreihendaten, also dem Abgleich von Werten über eine bestimmte Zeit hinweg. Datenbanken für das Management solcher Daten müssen meist eine große Menge an Schreibvorgängen unterstützen. Auch wenn die einzelnen Datensätze klein sein mögen, ergibt sich die Herausforderung durch die hohe Anzahl an Datensätzen, die über einen Zeitraum anfällt.

Der Ansatz, Zeitreihendaten zu verwalten, unterscheidet sich daher stark vom bekannteren relationalen Datenmodellierungsansatz. In einem Zeitreihen-Datenmodell speichert der Anwender Daten in Spalten und nicht in einem traditionellen zeilenbasierten Modell. Dies ermöglicht es der Datenbank, Daten effizient auf den Speicher zu schreiben und für Analysezwecke zu lesen. Zudem wird die Zeit bis zur Rückgabe einer Anfrage verkürzt. Weitere Vorteile von Zeitreihen-Datenbanken sind Nutzerfreundlichkeit und Skalierbarkeit sowie Features wie Komprimierung, Data-Lifecycle-Management und Datenverdichtung.

2. Echtzeit-Analyse dank Stream-Architektur
IoT-basierte Anwendungen verarbeiten in der Regel Millionen oder sogar Milliarden Datenpunkte am Tag. Einige davon erfordern eine umgehende Reaktion. Das gelingt nur, indem Unternehmen ein System zur Datenstromverarbeitung einsetzen. Denn Lösungen wie beispielsweise Apache Kafka leiten die Daten ab dem Zeitpunkt des Entstehens direkt in das Analysesystem. Im Gegensatz zu einer Batch-Verarbeitung, bei der Informationen über einen längeren Zeitraum gesammelt und dann gemeinsam analysiert werden, stehen die Einsichten aus den generierten Daten in Stream-basierten Architekturen in Echtzeit zur Verfügung. Dabei kann eine solche Architektur große Datenmengen nicht nur aus einer, sondern aus mehreren Quellen verarbeiten.

Das macht sie beispielsweise sehr effektiv für die Verwaltung von Clickstream-Analysen, also dem Sammeln von Besucherdaten auf Websites und deren Auswertung. In einem E-Commerce-Shop können anhand dieser Einsichten dann Angebote oder Produktempfehlungen für den Kunden im Handumdrehen personalisiert werden. Daher ist Echtzeit-Streaming ein unglaublich leistungsfähiges Werkzeug zur IoT-Datenverwaltung auf Unternehmensebene.

3. Data Tiering
Je nach Anwendungsfall, bieten sich für die Ablage von Daten verschiedene Speicherstufen wie Flash-Speicher, traditionelle SAN/NAS-Speicher-Arrays, Objektspeicher oder die Cloud an. Data Tiering sorgt dafür, dass die Daten zwischen den Speicherstufen verschoben werden können, ohne dass wichtige Informationen verloren gehen oder sich die Kosten erhöhen. So werden immer die richtigen Anforderungen in Bezug auf Speicherplatz, Geschwindigkeit und Kosten erfüllt.

In IoT-Projekten haben es Unternehmen häufig mit unstrukturierten Daten zu tun. Um hier ein ausgewogenes Data Tiering zu erreichen, eignen sich besonders Hybrid-Cloud-Strukturen. Denn sie kombinieren die Vorteile von traditionellem Cloud- und Edge-Computing: Sie bieten eine schnelle, aber sicherere Datenverarbeitung, die zudem näher an der Quelle und bei Bedarf auch in einem zentralen Repository stattfindet. Dies ermöglicht mehr Flexibilität beim Verschieben von Daten, beispielsweise in Public Clouds – die Kontrolle über die Daten bleibt jedoch beim Unternehmen. Zudem werden so Nachteile der alleinigen Nutzung der Public Cloud umgangen, wie hohe Bandbreitenkosten, Sicherheitsrisiken, Zugriffsmuster oder Performance-Probleme.

4. Erweiterte Replikation
Wird das Skalieren einer Datenbank nötig, ermöglicht Replikation den Aufbau einer verteilten Datenbank. Indem Daten aus einer Datenbank auf einem Computer oder Server in eine Datenbank auf einem anderen Rechner kopiert werden, lässt sich von zwei oder mehr Standorten simultan auf die gleichen Daten zugreifen. Das Wichtige: Der Informationsstand ist für alle Benutzer der gleiche. Er kann zudem beliebig oft kopiert werden, um neue Analysemodelle aufzusetzen. Anwendungen zur Datenreplikation werden daher für Analysen von IoT-Daten immer wichtiger. Denn sie erlauben die Analyse großer Datenmengen in komplexen, verteilten Umgebungen. Nur durch diese Analyseergebnisse können aber Unternehmen Nutzungsmuster leichter erkennen oder Schwachstellen in angeschlossenen Geräten identifizieren — was letztlich zur Entwicklung verbesserter vernetzter Produkte beiträgt.

Erweiterte Replikationsstrategien umgehen sogar weite räumliche Distanzen. In einem Hub-and-Spoke-Modell beispielsweise können Daten von entfernten Standorten zu einem zentralen Hub repliziert werden. Auf diese Weise werden im zentralen Hub alle entfernten Standorte nachgebildet, jeder Standort muss sich aber nur um seine eigenen Daten kümmern und keine Gedanken über die Übertragung machen. Gerade mit der Weiterentwicklung von Edge- und Near-Edge-Computing gewinnt dieses Modell stark an Bedeutung. Auch in IoT-Umgebungen wird diese erweiterte Datenreplikation künftig eine wichtige Rolle spielen. Denn so lässt sich eine konsistente Kopie der Daten über alle Knoten hinweg bereitstellen, was die Datenverfügbarkeit erhöht und die Verfügbarkeit sicherstellt.
(DataStax: ra)

eingetragen: 04.03.20
Newsletterlauf: 14.05.20

DataStax: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Tipps und Hinweise

  • Optimale Wissensspeicher

    Graphdatenbanken sind leistungsstarke Werkzeuge, um komplexe Daten-Beziehungen darzustellen und vernetzte Informationen schnell zu analysieren. Doch jeder Datenbanktyp hat spezifische Eigenschaften und eignet sich für andere Anwendungsfälle. Welche Graphdatenbank ist also wann die richtige? Aerospike empfiehlt Unternehmen, ihre Anforderungen unter vier Gesichtspunkten zu prüfen.

  • Zugang zu anfälligen Cloud-Hosts

    Zwischen 2023 und 2024 haben laut einer aktuellen Studie 79 Prozent der Finanzeinrichtungen weltweit mindestens einen Cyberangriff identifiziert (2023: 68 Prozent). Hierzulande berichtet die BaFin, dass 2023 235 Meldungen über schwerwiegende IT-Probleme eingegangen sind. Fünf Prozent davon gehen auf die Kappe von Cyberangreifern.

  • Wachsende SaaS-Bedrohungen

    Die jüngsten Enthüllungen über den massiven Cyberangriff von Salt Typhoon auf globale Telekommunikationsnetzwerke sind eine deutliche Erinnerung an die sich entwickelnde und ausgeklügelte Natur von Cyberbedrohungen. Während die Angreifer sich darauf konzentrierten, Kommunikation abzufangen und sensible Daten zu entwenden, werfen ihre Handlungen ein Schlaglicht auf ein umfassenderes, dringenderes Problem: die Unzulänglichkeit traditioneller Datensicherungsmethoden beim Schutz kritischer Infrastrukturen.

  • Einführung des Zero-Trust-Frameworks

    Die Cyber-Sicherheit entwickelt sich mit rasanter Geschwindigkeit, weshalb eine traditionelle Verteidigung den Anforderungen nicht mehr gerecht wird. Moderne Cyber-Bedrohungen bewegen sich inzwischen mühelos seitlich innerhalb von Netzwerken und nutzen Schwachstellen aus, die mit traditionellen Perimeter-Schutzmaßnahmen nicht vollständig behoben werden können.

  • Leitfaden für eine erfolgreiche DRaaS-Auswahl

    Investitionen in DRaaS (Disaster-Recovery-as-a-Service) sind sinnvoll und zukunftsweisend, denn DRaaS hilft den Unternehmen, ihre IT-Systeme und Daten im Fall eines Datenverlusts schnell wiederherzustellen. Allerdings sollte man im Vorfeld eine gründliche Marktanalyse durchführen und sich über die Funktionsweise und Kosten der verschiedenen Lösungen informieren.

  • ERP-Software muss ein Teamplayer sein

    So wichtig ERP-Systeme auch sind, bei der Auswahl der richtigen Lösung und Anbieter gibt es für Unternehmen eine Reihe von Aspekten zu beachten - schließlich bringen nur passgenaue und ausgereifte Systeme auch die erwünschten Vorteile. IFS erklärt, worauf es bei der Suche ankommt.

  • Grundlage für zukunftssichere Rechenzentren

    Rechenzentren sind das Rückgrat unserer digitalen Welt. Betreiber dieser Infrastrukturen stehen dabei vor immensen Herausforderungen: Sie müssen nicht nur den ununterbrochenen Betrieb und höchste Sicherheitsstandards sicherstellen, sondern auch strengere Umwelt- und Effizienzkriterien einhalten.

  • Cloud-basierte Tests

    Mit der Digitalisierung steigt das Datenvolumen und der Energieverbrauch. Daher stehen Unternehmen jetzt vor der Herausforderung, ihre IT nachhaltiger zu gestalten. Auch das Qualitätsmanagement kann dazu einen wertvollen Beitrag leisten, indem es den CO2-Fußabdruck von Software verringert.

  • Was ist der richtige Cloud-Speicher für KMU?

    Verschiedene Arten von Unternehmen haben unterschiedliche IT-Anforderungen. So haben kleine und mittelständische Unternehmen natürlich nicht die gleichen Anforderungen wie große internationale Unternehmen.

  • ITAM on-premises versus Software-as-a-Service

    IT Asset Management (ITAM) schafft die Basis für Cybersecurity, Kostenkontrolle und effizientes IT-Management. Doch vor allem im Mittelstand fehlen häufig Manpower und Expertise, eine ITAM-Lösung inhouse zu betreiben. Software-as-a-Service-Angebote versprechen Abhilfe.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen