Sie sind hier: Startseite » Markt » Hintergrund

Sechs Big Data-Prognosen für das Jahr 2017


Mittlerweile gibt es Datenplattformen basierend auf neuen Technologien, mit denen Big Data effizient verarbeitet und genutzt werden kann
Mit Hilfe von agilen Modellen und einem breiten Spektrum von Analysewerkzeugen können auf dem gleichen Datenbestand Batch-Analysen, interaktive Analysen sowie der Datentransport zwischen Systemen ("global messaging") realisiert werden


Der Markt befindet sich durch die digitale Transformation in einem Umbruch. Anfänglich war Big Data ein eher technisches Thema für IT-Experten. Mittlerweile erlernen Kunden, Firmen und Organisationen den Einsatz von datengetriebenen Technologien für neue Geschäftsmodelle und Projekte. Laut John Schroeder, Vorstandsvorsitzender und Mitbegründer von von MapR Technologies, Inc., hat sich der Fokus in der IT auf die Wertigkeit der Daten verschoben.

John Schroeder hat bezogen auf Markt-Trends für das Jahr 2017 sechs Prognosen aufgestellt.

1) Das Comeback der künstlichen Intelligenz
Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das es schon seit einigen Jahrzehnten gibt. Die Grundlagen der mathematischen Theorie der KI wurden bereits in den sechziger Jahren u.a. von Ray Solomonoff definiert. Bis vor einigen Jahren hatte KI relativ wenig Einfluss auf die klassische Datenverarbeitung. Zurzeit erfährt der Bereich der künstlichen Intelligenz jedoch eine Wiedergeburt in eine Welt, in der Daten und Informationen eine immer größere Rolle spielen. Begriffe wie maschinelles Lernen, kognitives Computing und neuronale Netze sind auf dem Anwendungsgebiet der Massendatenverarbeitung "mainstream" geworden. Dieser Trend wird sich auch 2017 verstärkt fortsetzen. Im Kern geht es hier überwiegend um die automatische und iterative Anwendung rechenintensiver Algorithmen auf großen Datenmengen.

Eine Ursache des Comebacks der künstlichen Intelligenz ist somit Big Data, das bekanntlich durch drei Hauptmerkmale charakterisiert wird – "Volume" (Daten-Volumen), "Velocity" (Daten-Entstehungsgeschwindigkeit) und "Variety" (Daten-Vielfalt).

Mittlerweile gibt es Datenplattformen basierend auf neuen Technologien, mit denen Big Data effizient verarbeitet und genutzt werden kann. Mit Hilfe dieser Plattformen können sowohl neue als auch klassische Modelle der Datenprozessierung horizontal skaliert werden. Hierbei wird im Vergleich zu traditionellen Systemen eine Kostenreduktion vom Faktor 10-20 erreicht.

2) Wettbewerbsvorteil vs. Governance
Für das Jahr 2017 wird ein Tauziehen zwischen der Daten-Wertschöpfung auf der einen und Daten-Governance auf der anderen Seite prognostiziert.

Viele Unternehmen besitzen wertvolle Informationen über Kunden und Partner. Die Vorreiter unter ihnen transformieren ihr Unternehmen vom Marktsegment Führer in eine datengetriebene Organisation.

Hierbei ist die digitale Transformation eine Gratwanderung zwischen der Einhaltung von Richtlinien, der Gewährung von Datensicherheit und Datenschutz und der Wertschöpfung aus Daten. Unternehmen aus dem Finanz- und Gesundheitswesen sind hierfür ein Paradebeispiel, da dort die Datenbasis gleichermaßen für regulierte und nicht regulierte Anwendungsfälle verfügbar sein muss.

Regulierte Anwendungsfälle setzen die Steuerung von Geschäftsprozessen, Daten-Qualität und Daten-Herkunft ("Lineage") voraus. Letzteres ermöglicht ausgehend von aggregierten Datensätzen die Rückverfolgung zu den ursprünglichen Daten. Die Einhaltung der Regularien ist notwendig und meist auch gesetzlich vorgeschrieben. Allerdings führt dies zu Einschränkungen bei der Umsetzung von nicht-regulierten Anwendungsfällen wie zum Beispiel die "360 Grad Kundensicht", da diese auf polystrukturierte und heterogene Daten zurückgreifen müssen, die sich nur mit großem Aufwand regulieren lassen.

3) Data-Lake für das analytische und operative Geschäft
"Stellen Sie sich ihre Möglichkeiten vor, wenn alle Daten in einem zentralen Data Lake sicher abgelegt sind und jede Abteilung ihres Unternehmens jederzeit kontrollierten Zugriff auf diese Daten hat" – dies klingt zunächst einmal sehr vielversprechend. Leider resultiert dies in der Praxis häufig eher in einen Datensumpf, der in Gestalt eines Data Warehouse Nachbaus operationale und Echtzeit-Anforderungen nicht erfüllt.

Unternehmen investieren in neue Geschäftsmodelle, um wettbewerbsfähig zu bleiben. Für die Realisierung dieser Anwendungsfälle wird eine agile Plattform benötigt, die gleichermaßen analytische und operationale Aufgaben übernehmen kann. Zum Beispiel werden im E-Commerce für den Besucher eines Web-Portals in nahezu Echtzeit individualisierte Produktempfehlungen berechnet und angezeigt. Medienunternehmen müssen in der Lage sein, personalisierte Inhalte anzubieten. Automobilhersteller und Unternehmen aus dem Maschinenbau müssen einen Datenaustausch zwischen Menschen und Maschinen ermöglichen, um in Echtzeit auf Ereignisse reagieren zu können.

4) Datenagilität schafft Wettbewerbsvorteile
Agile Softwareentwicklung in Kombination mit "Continuous Delivery" durch den DevOps-Ansatz ermöglichen die Entwicklung und das Ausrollen von qualitativ hochwertiger Software. Für 2017 wird prognostiziert, dass agile Ansätze auch verstärkt in den Bereich der Datenverarbeitung vordringen werden. Der Begriff Datenagilität beschreibt die Fähigkeit, den Kontext von Daten zu verstehen und daraus Unternehmensentscheidungen abzuleiten. Nicht ein großer Data-Lake alleine, sondern die Datenagilität verschafft letztendlich Wettbewerbsvorteile.

Mit Hilfe von agilen Modellen und einem breiten Spektrum von Analysewerkzeugen können auf dem gleichen Datenbestand Batch-Analysen, interaktive Analysen sowie der Datentransport zwischen Systemen ("global messaging") realisiert werden.

5) Blockchain verändert Finanzdienstleistungen
1998 hat Nick Szabo einen Aufsatz mit dem Titel "The God Protocol" verfasst. Darin sinnierte er über ein Protokoll, bei dem Gott der vertrauenswürdige Mittelsmann aller Transaktionen wäre.

Blockchain ist Mechanismus, der in sich an diesem Verfahren – wenn auch ohne direkte Einflussnahme von Gott – orientiert und die Grundlage für das "bitcoin" Protokoll ist.

Im weiteren Sinne ist Blockchain eine weltweit verteilte Datenbank, die das Speichern von Daten und Prozessieren von Transaktionen revolutioniert. Transaktionen werden in verketteten Blöcken gespeichert, wobei jeder Block auf seinen Vorgänger-Block referenziert und mit einer Prüfsumme versehen wird, in der die Prüfsummen aller vorausgehenden Blöcke mit einfließt. Folglich kann der Inhalt eines Blocks nicht geändert werden ohne Änderungen in allen nachfolgenden Blöcken vornehmen zu müssen.

Blockchain zeichnet sich durch große Effizienz und Sicherheit aus. Zum Beispiel müssten mit Blockchain Konsumenten nicht mehr auf eine SWIFT Transaktion warten und befürchten, dass es auf einem zentralen Daten-Center ein Datenleck gibt, das Schaden verursacht.

Für Unternehmen ermöglichen Blockchain Kosteneinsparungen und das Potenzial eines Wettbewerbsvorteils. Im Finanzwesen werden für das Jahr 2017 die Realisierung von vielen Anwendungsfällen erwartet, die auf dem o.g. Verfahren basieren und eine große Auswirkung auf das Speichern von Daten und Transaktionen haben werden.

6) Integration von maschinellem Lernen verstärkt den Einfluss von Microservices
Derzeit gibt es zahlreiche Aktivitäten, um maschinelles Lernen in den Architekturansatz der Microservices zu integrieren. Bislang haben sich Microservices überwiegend auf leichtgewichtige Services beschränkt. Microservices und maschinelles Lernen sind sich weitgehend im Rahmen der Nutzung und Verarbeitung von "Fast Data" begegnet. Für 2017 wird prognostiziert, dass neben den typischerweise eher "stateless" geprägten Microservices auch immer mehr "stateful" Applikationen und Services entstehen, die sich Big Data zunutze machen. Daneben wird maschinelles Lernen verstärkt in Szenarien zum Einsatz kommen, die große Mengen von historischen Daten benutzen, um den Kontext von "Fast Data" besser verstehen zu können.

"Unsere Prognosen werden stark von führenden Kunden beeinflusst, die durch die Integration von analytischen und operativen Anwendungsfällen einen erheblichen Mehrwert generieren", so John Schroeder. "Unsere Kunden nutzen die MapR konvergente Datenplattform für die agile und flexible Verwertung von Daten. Sie bietet ein breites Spektrum für die agile Datenverarbeitung durch Hadoop, Spark, SQL, NoSQL bis hin zum Streaming von Dateien und Nachrichten. Die MapR-Datenplattform ist eine einzigartige Kombination von Werkzeugen für die Umsetzung von aktuellen und zukünftigen Anwendungsfällen in privaten, öffentlichen und hybriden Cloud-Deployments."
(MapR Technologies: ra)

eingetragen: 10.01.17
Home & Newsletterlauf: 18.01.17

MapR Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Anwendungsfälle für KI

    Unternehmen erleben heute mit der Künstlichen Intelligenz (KI) einen Déjà-vu-Moment. Ähnlich wie bei früheren Technologiesprüngen - dem Aufkommen des PCs, des Internets oder der Cloud-Technologie - stehen sie an einem Wendepunkt, an dem die breite Einführung von KI die Unternehmenslandschaft transformiert.

  • Vom Kreditinstitut zur Technologie-Oase

    Wir schreiben das Jahr 2035: Sie wachen auf und überprüfen Ihre Finanzen über einen sprachaktivierten digitalen Assistenten, der als Hologramm von Elvis erscheint. Nach der Authentifizierung durch Stimm- und Fingerabdruck-Biometrie liefert Ihnen der verstorbene King of Rock'n'Roll einen Überblick über Ihre Ausgaben, Ersparnisse und Investitionen in einem personalisierten Dashboard, das alle Ihre Konten und Finanzdaten an einem Ort zusammenfasst.

  • Cloud-Drucklösungen spielen eine große Rolle

    Heutzutage lässt sich technischer Fortschritt kaum mehr mit dem bloßen Auge erkennen. Selten vergeht ein Tag ohne eine weitere Innovation, die für mehr Effizienz sorgt. Diese Entwicklung macht auch vor Druckern nicht Halt. Cloud-Lösungen ermöglichen zentrale Administration und Kosteneinsparungen bei lokalen Servern. Doch in diesem Zusammenhang geht die Tendenz eher in Richtung langsamer Wechsel in die Wolke. Warum ist das so? "In vielen Unternehmen - insbesondere aus Branchen, in denen sensible Daten auf der Tagesordnung stehen - herrschen Sicherheits- und Datenschutzbedenken.

  • Finanzbranche steht vor einem Wendepunkt

    Immer mehr traditionelle Banken erkennen endlich die Vorteile des Outsourcings, um ihren Weg zur Digitalisierung zu beschleunigen und so ihre Effizienz und Kundenzufriedenheit zu optimieren. In Deutschland bremsen jedoch regulatorische Anforderungen das Tempo der Transformation. Karl im Brahm, CEO von Objectway DACH, betont, dass Banken diese Hürden nur durch Kooperationen mit Fintechs überwinden können.

  • CPUs und DSAs für Cloud- und KI-Erfolg

    Die Chimäre ist in der griechischen Mythologie eine Kreuzung aus Löwe, Ziege und Schlange. Sie hat den Kopf des Löwen, den Körper der Ziege mit einem weiteren Ziegenkopf auf dem Rücken und den Schwanz der Schlange

  • Vertrauen gegenüber Generative AI schwindet

    Im letzten Jahr zeigten sich deutsche Unternehmen wenig beeindruckt von den Sicherheitsrisiken von ChatGPT und Co. Sie vertrauten den vielversprechenden Generative-AI-Anwendungen und ihren Vorteilen bedingungslos. Nun legen die Ergebnisse einer aktuellen Gigamon-Studie* jedoch nahe, dass die Skepsis gegenüber diesen Tools in den vergangenen zwölf Monaten zugenommen hat.

  • Bedeutung der Cyber-Sicherheit

    Wie in jedem Jahr, so hat auch in diesem die Firma IBM zusammen mit dem Ponemon Institute die Studie Cost of a Data Breach 2024 veröffentlicht. Die Ergebnisse sprechen Bände: Mit 4,88 Millionen US-Dollar (rund 4,50 Millionen Euro) je Sicherheitsverletzung im weltweiten Durchschnitt liegen diese Kosten 10 Prozent über dem Jahr 2023 mit 4,5 Millionen US-Dollar (rund 4,16 Millionen Euro) und erreichen ein Rekord-Hoch.

  • Sicherheit in der Cloud

    Der Cloud Computing-Markt wächst beständig weiter und ein Ende dieses Aufwärtstrends scheint nicht in Sicht zu sein. Laut Prognosen könnte er bis 2032 die Marke von gut 2,29 Milliarden US-Dollar knacken. Das würde einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 16,5 Prozent entsprechen.

  • Demokratisierung der Künstlichen Intelligenz

    Open Source basiert auf Zusammenarbeit und Transparenz. Dank dieser beiden unbestreitbaren Vorteile haben Open-Source-Lösungen das Potenzial, die Art und Weise zu revolutionieren, wie KI-Systeme entwickelt und eingesetzt werden. Ein offener Ansatz für Künstliche Intelligenz ist unerlässlich.

  • Wie KI den Customer Service revolutioniert

    Die IT-Branche ist ein Umfeld des ständigen Wettbewerbs. CIOs treiben heute die digitale Transformation voran und investieren in digitale Technologien, um die Effizienz und Rendite ihres Unternehmens zu maximieren. Da sie dafür nur wenig Zeit und Ressourcen für IT-Services aufwenden möchten, wenden sie sich immer mehr der generativen KI zu.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen