Sie sind hier: Startseite » Markt » Tipps und Hinweise

Vier Technologien für IoT-Daten-Management


Vorteile von traditionellem Cloud- und Edge-Computing: In IoT-Projekten haben es Unternehmen häufig mit unstrukturierten Daten zu tun
Um hier ein ausgewogenes Data Tiering zu erreichen, eignen sich besonders Hybrid-Cloud-Strukturen


Karsten Stöhr ist Data Architect bei DataStax

Laut einer Studie von Gartner planen 66 Prozent der befragten Unternehmen, 5G bis 2020 etabliert zu haben. Immerhin 59 Prozent wollen mit dem Einsatz des neuen Netzes auch Use Cases im Bereich Internet of Things (IoT) angehen. Nicht zu Unrecht. Denn der neue Kommunikationsstandard ebnet den Weg dafür, endlich vollumfänglich von den Daten zu profitieren, die neue Technologien generieren.

Smartphones, Smart Cities, Smart Homes und Smart Cars gestalten unsere digitale Welt neu und schaffen eine massive Infrastruktur aus sensorischen Daten. Und diese Masse an Daten wird mit dem Einsatz neuer Technologien weiter steigen – auf 175 Zettabytes in fünf Jahren, wie es IDC voraussagt. Jedoch machen wir auch unentwegt Fortschritte, was die Nutzung dieser Daten angeht. So stehen uns, nicht zuletzt dank 5G, schon heute Mittel dazu zur Verfügung, die noch vor fünf Jahren unvorstellbar gewesen wären. Vier solcher Schlüsseltechnologien, die ein leistungsfähiges Management von IoT-Daten in skalierbarer Form ermöglichen, werden im Folgenden beleuchtet:

1. Zeitreihen-Datenbanken
Zeitreihendaten machen in IoT-Projekten einen großen Teil der anfallenden Daten aus. Betrachtet man Produktionsergebnisse im Laufe der Zeit, lassen sich Aussagen über den Einfluss bestimmter Parameter treffen, Trends bewerten oder Muster in den Daten identifizieren. So könnten beispielsweise Temperaturschwankungen eines Brennofens die Qualität des Endprodukts beeinflussen. Die Einsichten entstehen hier aus der Analyse von Zeitreihendaten, also dem Abgleich von Werten über eine bestimmte Zeit hinweg. Datenbanken für das Management solcher Daten müssen meist eine große Menge an Schreibvorgängen unterstützen. Auch wenn die einzelnen Datensätze klein sein mögen, ergibt sich die Herausforderung durch die hohe Anzahl an Datensätzen, die über einen Zeitraum anfällt.

Der Ansatz, Zeitreihendaten zu verwalten, unterscheidet sich daher stark vom bekannteren relationalen Datenmodellierungsansatz. In einem Zeitreihen-Datenmodell speichert der Anwender Daten in Spalten und nicht in einem traditionellen zeilenbasierten Modell. Dies ermöglicht es der Datenbank, Daten effizient auf den Speicher zu schreiben und für Analysezwecke zu lesen. Zudem wird die Zeit bis zur Rückgabe einer Anfrage verkürzt. Weitere Vorteile von Zeitreihen-Datenbanken sind Nutzerfreundlichkeit und Skalierbarkeit sowie Features wie Komprimierung, Data-Lifecycle-Management und Datenverdichtung.

2. Echtzeit-Analyse dank Stream-Architektur
IoT-basierte Anwendungen verarbeiten in der Regel Millionen oder sogar Milliarden Datenpunkte am Tag. Einige davon erfordern eine umgehende Reaktion. Das gelingt nur, indem Unternehmen ein System zur Datenstromverarbeitung einsetzen. Denn Lösungen wie beispielsweise Apache Kafka leiten die Daten ab dem Zeitpunkt des Entstehens direkt in das Analysesystem. Im Gegensatz zu einer Batch-Verarbeitung, bei der Informationen über einen längeren Zeitraum gesammelt und dann gemeinsam analysiert werden, stehen die Einsichten aus den generierten Daten in Stream-basierten Architekturen in Echtzeit zur Verfügung. Dabei kann eine solche Architektur große Datenmengen nicht nur aus einer, sondern aus mehreren Quellen verarbeiten.

Das macht sie beispielsweise sehr effektiv für die Verwaltung von Clickstream-Analysen, also dem Sammeln von Besucherdaten auf Websites und deren Auswertung. In einem E-Commerce-Shop können anhand dieser Einsichten dann Angebote oder Produktempfehlungen für den Kunden im Handumdrehen personalisiert werden. Daher ist Echtzeit-Streaming ein unglaublich leistungsfähiges Werkzeug zur IoT-Datenverwaltung auf Unternehmensebene.

3. Data Tiering
Je nach Anwendungsfall, bieten sich für die Ablage von Daten verschiedene Speicherstufen wie Flash-Speicher, traditionelle SAN/NAS-Speicher-Arrays, Objektspeicher oder die Cloud an. Data Tiering sorgt dafür, dass die Daten zwischen den Speicherstufen verschoben werden können, ohne dass wichtige Informationen verloren gehen oder sich die Kosten erhöhen. So werden immer die richtigen Anforderungen in Bezug auf Speicherplatz, Geschwindigkeit und Kosten erfüllt.

In IoT-Projekten haben es Unternehmen häufig mit unstrukturierten Daten zu tun. Um hier ein ausgewogenes Data Tiering zu erreichen, eignen sich besonders Hybrid-Cloud-Strukturen. Denn sie kombinieren die Vorteile von traditionellem Cloud- und Edge-Computing: Sie bieten eine schnelle, aber sicherere Datenverarbeitung, die zudem näher an der Quelle und bei Bedarf auch in einem zentralen Repository stattfindet. Dies ermöglicht mehr Flexibilität beim Verschieben von Daten, beispielsweise in Public Clouds – die Kontrolle über die Daten bleibt jedoch beim Unternehmen. Zudem werden so Nachteile der alleinigen Nutzung der Public Cloud umgangen, wie hohe Bandbreitenkosten, Sicherheitsrisiken, Zugriffsmuster oder Performance-Probleme.

4. Erweiterte Replikation
Wird das Skalieren einer Datenbank nötig, ermöglicht Replikation den Aufbau einer verteilten Datenbank. Indem Daten aus einer Datenbank auf einem Computer oder Server in eine Datenbank auf einem anderen Rechner kopiert werden, lässt sich von zwei oder mehr Standorten simultan auf die gleichen Daten zugreifen. Das Wichtige: Der Informationsstand ist für alle Benutzer der gleiche. Er kann zudem beliebig oft kopiert werden, um neue Analysemodelle aufzusetzen. Anwendungen zur Datenreplikation werden daher für Analysen von IoT-Daten immer wichtiger. Denn sie erlauben die Analyse großer Datenmengen in komplexen, verteilten Umgebungen. Nur durch diese Analyseergebnisse können aber Unternehmen Nutzungsmuster leichter erkennen oder Schwachstellen in angeschlossenen Geräten identifizieren — was letztlich zur Entwicklung verbesserter vernetzter Produkte beiträgt.

Erweiterte Replikationsstrategien umgehen sogar weite räumliche Distanzen. In einem Hub-and-Spoke-Modell beispielsweise können Daten von entfernten Standorten zu einem zentralen Hub repliziert werden. Auf diese Weise werden im zentralen Hub alle entfernten Standorte nachgebildet, jeder Standort muss sich aber nur um seine eigenen Daten kümmern und keine Gedanken über die Übertragung machen. Gerade mit der Weiterentwicklung von Edge- und Near-Edge-Computing gewinnt dieses Modell stark an Bedeutung. Auch in IoT-Umgebungen wird diese erweiterte Datenreplikation künftig eine wichtige Rolle spielen. Denn so lässt sich eine konsistente Kopie der Daten über alle Knoten hinweg bereitstellen, was die Datenverfügbarkeit erhöht und die Verfügbarkeit sicherstellt.
(DataStax: ra)

eingetragen: 04.03.20
Newsletterlauf: 14.05.20

DataStax: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Private AI verfolgt einen Plattform-Ansatz

    Der Einzug der generativen KI (GenAI) in die breite Öffentlichkeit hat das KI-Wachstum in Unternehmen vergangenes Jahr beschleunigt. Motiviert durch Wettbewerbsdruck und potenzielle Vorteile forcieren Unternehmen und Regierungen ihre KI-Strategie.

  • Mangelnde Vorbereitung auf SaaS-Ausfälle

    Der Hycu State of SaaS Resilience 2024 Report deckte zuletzt kritische Datensicherungslücken auf, da 70 Prozent der Unternehmen Datenverluste erleiden. Trotzdem verlassen sich 60 Prozent immer noch auf ihre Software-as-a-Service (SaaS)-Anbieter, um sich zu schützen, und setzen sich damit weiteren Risiken aus.

  • KI gewinnbringend einsetzen

    Das KI-Potenzial ist praktisch unerschöpflich. Doch um es richtig zu nutzen und daraus echte Wettbewerbsvorteile zu generieren, muss vorab die Bereitschaft des Unternehmens dafür geklärt werden. Der IT-Dienstleister CGI erklärt, warum der Readiness-Check so wichtig ist, was er genau analysiert und was mit den daraus gewonnenen Erkenntnissen passiert.

  • Herausforderungen von Edge AI

    Künstliche Intelligenz hat längst den Netzwerkrand erreicht. Um zeitkritischen Daten den Umweg über die Cloud und das Rechenzentrum zu ersparen, bringen Edge-AI-Lösungen Modelle direkt in die Anwendungen vor Ort. Dieser Weg bietet immense Vorteile - er ist aber auch mit einigen Stolpersteinen gepflastert, wie Couchbase, Anbieter einer Cloud-Datenbankplattform, zeigt.

  • Cloud-Datenschutz im Gesundheitswesen

    Daten im Gesundheitswesen gehören zu den kritischsten Vermögenswerten. Sie umfassen hochsensible Informationen wie Krankengeschichten, Behandlungsunterlagen und persönliche Daten. Der Schutz dieser Daten ist von größter Bedeutung, da sie durch nationale und globale Vorschriften als besondere Kategorien personenbezogener Daten eingestuft werden.

  • Generative KI mit Serverless optimieren

    Der Einsatz von generativer KI kann komplex und teuer sein. Serverlose Cloud-Dienste und Vektordatenbanken bieten eine Lösung, um diese Hürden zu überwinden und KI-Anwendungen effizient und skalierbar zu gestalten.

  • Sensible Daten in der Cloud schützen

    Wenn Unternehmen in der Cloud geistiges Eigentum oder persönliche Informationen verlieren, drohen ihnen erhebliche Konsequenzen. Mit den richtigen Maßnahmen für Datensicherheit in der Cloud können sie zuverlässig Vorsorge treffen. Forcepoint erläutert die fünf wichtigsten davon. Datensicherheit in der Cloud wird für Unternehmen zunehmend zu einem kritischen Bestandteil ihrer IT-Infrastruktur.

  • Dank der Cloud: Flexibilität und Skalierbarkeit

    Cloud-Marktplätze sind heute zu einem unverzichtbaren Dreh- und Angelpunkt für unabhängige Softwareanbieter (ISVs) geworden, um ihre Reichweite zu vergrößern, den Verkaufsprozess zu rationalisieren und Wachstum zu fördern. Erfolg ist jedoch nicht allein dadurch garantiert, dass ein Produkt auf einem Marktplatz gelistet ist.

  • Beste Rendite für Serverinvestitionen?

    Laut Statista schätzen IT-Experten weltweit im Jahr 2024 eine Aufteilung von fast 50/50 zwischen Onsite- und Cloud-gehosteten Servern in ihren Unternehmen. Aufgrund der riesigen Datenmengen und der zunehmenden Nutzung von KI, werden künftig immer mehr Server benötigt.

  • Digitale Transformation kommt nicht ins Rollen?

    Dass die Digitalisierung unaufhaltsam voranschreitet, ist keine Neuigkeit mehr, trotzdem haben bislang viele deutsche Unternehmen den entscheidenden Schritt zur digitalen Transformation noch nicht gewagt. Die Corona-Pandemie hat als Katalysator für einen Digitalisierungsschub gesorgt und viele Prozesse auf den Prüfstand gestellt.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen