- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Sechs Big Data-Prognosen für das Jahr 2017


Mittlerweile gibt es Datenplattformen basierend auf neuen Technologien, mit denen Big Data effizient verarbeitet und genutzt werden kann
Mit Hilfe von agilen Modellen und einem breiten Spektrum von Analysewerkzeugen können auf dem gleichen Datenbestand Batch-Analysen, interaktive Analysen sowie der Datentransport zwischen Systemen ("global messaging") realisiert werden

- Anzeigen -





Der Markt befindet sich durch die digitale Transformation in einem Umbruch. Anfänglich war Big Data ein eher technisches Thema für IT-Experten. Mittlerweile erlernen Kunden, Firmen und Organisationen den Einsatz von datengetriebenen Technologien für neue Geschäftsmodelle und Projekte. Laut John Schroeder, Vorstandsvorsitzender und Mitbegründer von von MapR Technologies, Inc., hat sich der Fokus in der IT auf die Wertigkeit der Daten verschoben.

John Schroeder hat bezogen auf Markt-Trends für das Jahr 2017 sechs Prognosen aufgestellt.

1) Das Comeback der künstlichen Intelligenz
Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das es schon seit einigen Jahrzehnten gibt. Die Grundlagen der mathematischen Theorie der KI wurden bereits in den sechziger Jahren u.a. von Ray Solomonoff definiert. Bis vor einigen Jahren hatte KI relativ wenig Einfluss auf die klassische Datenverarbeitung. Zurzeit erfährt der Bereich der künstlichen Intelligenz jedoch eine Wiedergeburt in eine Welt, in der Daten und Informationen eine immer größere Rolle spielen. Begriffe wie maschinelles Lernen, kognitives Computing und neuronale Netze sind auf dem Anwendungsgebiet der Massendatenverarbeitung "mainstream" geworden. Dieser Trend wird sich auch 2017 verstärkt fortsetzen. Im Kern geht es hier überwiegend um die automatische und iterative Anwendung rechenintensiver Algorithmen auf großen Datenmengen.

Eine Ursache des Comebacks der künstlichen Intelligenz ist somit Big Data, das bekanntlich durch drei Hauptmerkmale charakterisiert wird – "Volume" (Daten-Volumen), "Velocity" (Daten-Entstehungsgeschwindigkeit) und "Variety" (Daten-Vielfalt).

Mittlerweile gibt es Datenplattformen basierend auf neuen Technologien, mit denen Big Data effizient verarbeitet und genutzt werden kann. Mit Hilfe dieser Plattformen können sowohl neue als auch klassische Modelle der Datenprozessierung horizontal skaliert werden. Hierbei wird im Vergleich zu traditionellen Systemen eine Kostenreduktion vom Faktor 10-20 erreicht.

2) Wettbewerbsvorteil vs. Governance
Für das Jahr 2017 wird ein Tauziehen zwischen der Daten-Wertschöpfung auf der einen und Daten-Governance auf der anderen Seite prognostiziert.

Viele Unternehmen besitzen wertvolle Informationen über Kunden und Partner. Die Vorreiter unter ihnen transformieren ihr Unternehmen vom Marktsegment Führer in eine datengetriebene Organisation.

Hierbei ist die digitale Transformation eine Gratwanderung zwischen der Einhaltung von Richtlinien, der Gewährung von Datensicherheit und Datenschutz und der Wertschöpfung aus Daten. Unternehmen aus dem Finanz- und Gesundheitswesen sind hierfür ein Paradebeispiel, da dort die Datenbasis gleichermaßen für regulierte und nicht regulierte Anwendungsfälle verfügbar sein muss.

Regulierte Anwendungsfälle setzen die Steuerung von Geschäftsprozessen, Daten-Qualität und Daten-Herkunft ("Lineage") voraus. Letzteres ermöglicht ausgehend von aggregierten Datensätzen die Rückverfolgung zu den ursprünglichen Daten. Die Einhaltung der Regularien ist notwendig und meist auch gesetzlich vorgeschrieben. Allerdings führt dies zu Einschränkungen bei der Umsetzung von nicht-regulierten Anwendungsfällen wie zum Beispiel die "360 Grad Kundensicht", da diese auf polystrukturierte und heterogene Daten zurückgreifen müssen, die sich nur mit großem Aufwand regulieren lassen.

3) Data-Lake für das analytische und operative Geschäft
"Stellen Sie sich ihre Möglichkeiten vor, wenn alle Daten in einem zentralen Data Lake sicher abgelegt sind und jede Abteilung ihres Unternehmens jederzeit kontrollierten Zugriff auf diese Daten hat" – dies klingt zunächst einmal sehr vielversprechend. Leider resultiert dies in der Praxis häufig eher in einen Datensumpf, der in Gestalt eines Data Warehouse Nachbaus operationale und Echtzeit-Anforderungen nicht erfüllt.

Unternehmen investieren in neue Geschäftsmodelle, um wettbewerbsfähig zu bleiben. Für die Realisierung dieser Anwendungsfälle wird eine agile Plattform benötigt, die gleichermaßen analytische und operationale Aufgaben übernehmen kann. Zum Beispiel werden im E-Commerce für den Besucher eines Web-Portals in nahezu Echtzeit individualisierte Produktempfehlungen berechnet und angezeigt. Medienunternehmen müssen in der Lage sein, personalisierte Inhalte anzubieten. Automobilhersteller und Unternehmen aus dem Maschinenbau müssen einen Datenaustausch zwischen Menschen und Maschinen ermöglichen, um in Echtzeit auf Ereignisse reagieren zu können.

4) Datenagilität schafft Wettbewerbsvorteile
Agile Softwareentwicklung in Kombination mit "Continuous Delivery" durch den DevOps-Ansatz ermöglichen die Entwicklung und das Ausrollen von qualitativ hochwertiger Software. Für 2017 wird prognostiziert, dass agile Ansätze auch verstärkt in den Bereich der Datenverarbeitung vordringen werden. Der Begriff Datenagilität beschreibt die Fähigkeit, den Kontext von Daten zu verstehen und daraus Unternehmensentscheidungen abzuleiten. Nicht ein großer Data-Lake alleine, sondern die Datenagilität verschafft letztendlich Wettbewerbsvorteile.

Mit Hilfe von agilen Modellen und einem breiten Spektrum von Analysewerkzeugen können auf dem gleichen Datenbestand Batch-Analysen, interaktive Analysen sowie der Datentransport zwischen Systemen ("global messaging") realisiert werden.

5) Blockchain verändert Finanzdienstleistungen
1998 hat Nick Szabo einen Aufsatz mit dem Titel "The God Protocol" verfasst. Darin sinnierte er über ein Protokoll, bei dem Gott der vertrauenswürdige Mittelsmann aller Transaktionen wäre.

Blockchain ist Mechanismus, der in sich an diesem Verfahren – wenn auch ohne direkte Einflussnahme von Gott – orientiert und die Grundlage für das "bitcoin" Protokoll ist.

Im weiteren Sinne ist Blockchain eine weltweit verteilte Datenbank, die das Speichern von Daten und Prozessieren von Transaktionen revolutioniert. Transaktionen werden in verketteten Blöcken gespeichert, wobei jeder Block auf seinen Vorgänger-Block referenziert und mit einer Prüfsumme versehen wird, in der die Prüfsummen aller vorausgehenden Blöcke mit einfließt. Folglich kann der Inhalt eines Blocks nicht geändert werden ohne Änderungen in allen nachfolgenden Blöcken vornehmen zu müssen.

Blockchain zeichnet sich durch große Effizienz und Sicherheit aus. Zum Beispiel müssten mit Blockchain Konsumenten nicht mehr auf eine SWIFT Transaktion warten und befürchten, dass es auf einem zentralen Daten-Center ein Datenleck gibt, das Schaden verursacht.

Für Unternehmen ermöglichen Blockchain Kosteneinsparungen und das Potenzial eines Wettbewerbsvorteils. Im Finanzwesen werden für das Jahr 2017 die Realisierung von vielen Anwendungsfällen erwartet, die auf dem o.g. Verfahren basieren und eine große Auswirkung auf das Speichern von Daten und Transaktionen haben werden.

6) Integration von maschinellem Lernen verstärkt den Einfluss von Microservices
Derzeit gibt es zahlreiche Aktivitäten, um maschinelles Lernen in den Architekturansatz der Microservices zu integrieren. Bislang haben sich Microservices überwiegend auf leichtgewichtige Services beschränkt. Microservices und maschinelles Lernen sind sich weitgehend im Rahmen der Nutzung und Verarbeitung von "Fast Data" begegnet. Für 2017 wird prognostiziert, dass neben den typischerweise eher "stateless" geprägten Microservices auch immer mehr "stateful" Applikationen und Services entstehen, die sich Big Data zunutze machen. Daneben wird maschinelles Lernen verstärkt in Szenarien zum Einsatz kommen, die große Mengen von historischen Daten benutzen, um den Kontext von "Fast Data" besser verstehen zu können.

"Unsere Prognosen werden stark von führenden Kunden beeinflusst, die durch die Integration von analytischen und operativen Anwendungsfällen einen erheblichen Mehrwert generieren", so John Schroeder. "Unsere Kunden nutzen die MapR konvergente Datenplattform für die agile und flexible Verwertung von Daten. Sie bietet ein breites Spektrum für die agile Datenverarbeitung durch Hadoop, Spark, SQL, NoSQL bis hin zum Streaming von Dateien und Nachrichten. Die MapR-Datenplattform ist eine einzigartige Kombination von Werkzeugen für die Umsetzung von aktuellen und zukünftigen Anwendungsfällen in privaten, öffentlichen und hybriden Cloud-Deployments."
(MapR Technologies: ra)

eingetragen: 10.01.17
Home & Newsletterlauf: 18.01.17

MapR Technologies: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Daten sicher aus der Public Cloud zurückführen

    In vielen Unternehmen findet im Umgang mit der Cloud inzwischen ein Umdenken statt und vermehrt wollen Unternehmen zumindest Teile ihrer Kerndaten und zentralen Anwendungen aus der Public Cloud zurückholen (Cloud Data Repatriation). Die Gründe für die Rückführung der Daten in das Unternehmen oder zum klassischen Hosting beschreibt Florian Malecki, International Product Marketing Senior Director bei StorageCraft, folgendermaßen: Laut der US-Analystenfirma IDC, haben 80 Prozent der Unternehmen ihre Workloads im vergangenen Jahr repatriiert. Es wird davon ausgegangen, dass in den nächsten zwei Jahren 50 Prozent der Anwendungen aus der Public Cloud an private oder lokale Hosting-Standorte zurückgeholt werden - teils aus Kostengründen oder wegen der Skalierbarkeit.

  • Trends für 2020: Die Zukunft der IT

    In Sachen IT haben sich 2019 zahlreiche Trends abgezeichnet, die sich im kommenden Jahr fortsetzen werden. Für viele Unternehmen stehen Automatisierungsmaßnahen sowie die konsequente Umsetzung von DevOps auf der To-Do-Liste nach wie vor weit oben. Ram Chakravarti, Chief Technology Officer bei BMC, zeigt, wie Sie 2020 mit entsprechendem Know-how und der richtigen Technologie die entscheidenden Fortschritte erzielen können. Wir kommen dem autonomen digitalen Unternehmen immer näher: Durch technologische Innovationen in den Bereichen AIOps und Edge Computing, die Annäherung zwischen IT-Service- und Betriebsmanagement sowie durch Konzepte wie SecOps und DevOps. Wichtig ist, sich nicht allein auf das Thema Monitoring zu konzentrieren: Unternehmen müssen vor allem dafür sorgen, auf allen Ebenen handlungsfähig zu sein oder zu werden. Das Stichwort heißt Actionability. Es geht darum, auf Erkenntnisse reagieren zu können, Probleme schnell zu beheben und vorherzusehen, wo sie auftreten könnten. Entscheidend ist dabei die Implementierung von Technologien, die entsprechende Erkenntnisse liefern. So erreichen Unternehmen in Sachen Automatisierung ein wettbewerbsfähiges Niveau.

  • Ausblick auf die Cybersicherheit in 2020

    Die Bedrohungslandschaft hat sich im abgelaufenen Jahr mehrfach stark verändert. Anlass genug also, immer wieder neu in die Zukunft zu blicken, um das Verständnis dieser Trends zu schärfen und um sich als Unternehmen in der Cybersicherheit gut aufzustellen. Fünf Experten von Sophos haben einen genauen Blick auf die wichtigsten Security-Faktoren geworfen, die sich 2020 maßgeblich auf die Cybersicherheit auswirken könnten. Hierzu zählen: Der Faktor Mensch, die 5G-Technologie, neue Ransomware, Cloud-Security, Machine Learning (ML) und die neue Rolle des Managed Service Provider (MSP) als Sicherheitsberater. Flexibilität ist für Unternehmen das A und O und Cloud Computing bietet genau dies. Mit sehr geringem Aufwand ist es möglich, Ressourcen nach Bedarf zu skalieren. Aber wenn es um die Sicherheit in der Cloud geht, kann diese Flexibilität zum Bumerang werden. Dabei besteht die größte Schwachstelle aus einer Fehlkonfiguration in der Cloud. Cloud-Plattformen sind komplex und ständigen Änderungen unterworfen. Daher ist es schwierig, die Auswirkungen einer veränderten Konfiguration hinsichtlich der Sicherheit einzuschätzen. Und eine manuelle kontinuierliche Überwachung ist nahezu unmöglich. Kriminelle wissen das und greifen Cloud Computing-Plattformen aus genau diesen Gründen an.

  • Digital Workspace-Trends 2020

    Jahr 2020 rückt Automation bei der Verwaltung von Endgeräten und ihrer Umgebungen immer stärker in den Vordergrund. Das ist die Einschätzung der Matrix42 AG. Gleichzeitig wird das Schaffen einer auf künstlicher Intelligenz (KI) und Machine Learning (ML) basierenden IT-Security nochmals erheblich an Bedeutung gewinnen. Laut Oliver Bendig, CEO bei Matrix42, sollten sich Unternehmen mit den folgenden sechs Digital Workspace Trends 2020 beschäftigen: Die digitale Transformation entwickelt sich in den Unternehmen schneller als das Security-Know-how. Zusätzlich wachsen durch eine zunehmende Agilisierung der IT die Bereiche IT Operations und Endpoint Security im Jahr 2020 immer stärker zusammen. Während jede auf Automatisierung basierende Produktivität in vielen Firmen bereits auf einem hohen Level rangiert, gibt es bei der IT-Sicherheit häufig noch Nachholbedarf. Statistiken wie etwa der der Lagebericht zur IT-Sicherheit 2019 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) zeigen, dass eine Aufrüstung im Hinblick auf automatisierte Endpoint Protection unerlässlich ist. Die Integration von Workspace Management und Endpoint Security wird somit für Unternehmen zunehmend wichtiger. Um digitales Arbeiten sicherer zu gestalten ohne die Produktivität der Mitarbeiter negativ zu beeinträchtigen.

  • Prognosen 2020: ROI-Analyse unerlässlich

    2020 sollten Unternehmen vernünftiger agieren und nicht auf die neuesten Tech-Trends setzen, ohne vorher den Return on Investment (ROI) zu analysieren. In den letzten Jahren haben sich Unternehmen gegenseitig überboten, bei den neuesten Technologietrends aufzuspringen und bei ihren überstürzten Modernisierungsversuchen auf ROI-Bewertungen verzichtet. 1,3 Billionen USD gaben Unternehmen im vergangenen Jahr für die digitale Transformation aus. Schätzungsweise wurden 70 Prozent dieser Investments jedoch verschwendet. Jede Anwendung und jeden Datensatz in die Cloud zu migrieren oder Serverless Computing auf sämtliche Workloads anzuwenden, ist nicht immer der sinnvollste Schritt - und ich gehe davon aus, dass die Unternehmen von ihrer übereifrigen Herangehensweise gelernt haben und ihre Erfahrungen im Jahr 2020 entsprechend umsetzen.

  • Cloud-Anwendungen für ERP und Controlling

    Das Jahr 2019 neigt sich dem Ende entgegen und viele Firmen- und Finanzentscheider fragen sich, worauf sie im kommenden Jahr achten sollten. Oracle möchte bei diesen Überlegungen unterstützen und teilt nun vier Cloud-ERP-Einblicke, die 2020 an Bedeutung gewinnen werden. Investitionen in innovative Technologien in diesen Bereichen unterstützten dabei, den künftigen Geschäftserfolg anzukurbeln. Die Art und Weise, wie Unternehmen ihre Dienstleistungen abrechnen, ist aktuell einem großen Wandel unterworfen. Ein Beispiel ist die britische Traditionsmarke Rolls Royce: Kunden dieses Anbieters können Triebwerke pro Flugstunde bezahlen, ein weiteres zkSystems, dass seinen Kunden hilft Equipment-as-a-Service-Geschäftsmodelle anzubieten, bei denen Unternehmen nur für die reine Maschinennutzung zahlen. In der Business-to-Consumer-(B2C)-Welt sind derartige Abo- und Sharing-Geschäftsmodelle seit Jahren bekannt und setzen sich immer mehr durch. Prominente Beispiele sind Netflix, Spotify oder die zahlreichen Carsharing-Angebote. 2020 werden B2B-Organisationen vermehrt ähnliche Modelle einführen. Das bedeutet gleichzeitig, dass Unternehmen Backoffice-Lösungen implementieren müssen, um den organisatorischen Wandel zu unterstützen.

  • Digitaltrends für 2020

    Technologien wie Künstliche Intelligenz und die Cloud entwickeln sich rasant weiter und werden auch in 2020 zu den dominierenden Themen der Digitalisierung gehören. Doch die Hürden auf dem Weg zur erfolgreichen Implementierung werden dank innovativer Lösungen wie Datenvirtualisierung immer kleiner. Künstliche Intelligenz ist in den vergangenen Jahren immer stärker auf das Radar von Unternehmen gerückt. Dabei dominierte vor allem das große Potenzial durch effizientere Prozesse und Automatisierung. Echte Use Cases waren bisher hingegen rar gesät. Das wird sich 2020 ändern: Die Verzahnung von KI mit Sprachassistenten wie Google und Alexa wird die Customer Experience auf ein neues Level heben. Natural Language Processing (NLP) hilft dabei, Kundenanfragen besser zu verstehen und schneller weiterzuverarbeiten, indem diese in analysierbare Daten konvertiert werden.

  • Datacenter-Trends für 2020

    Wachsende Datenmengen, eine sichere europäische Cloud (Datensouveranität), eine schnelle Modernisierung von Rechenzentren sowie der steigende Energieverbrauch sind aus Sicht von Rittal die IT-/Datacenter-Trends im Jahr 2020. Etwa die Verwendung von OCP-Technologie (Open Compute Project) und Wärmerückgewinnung bieten Lösungen für die aktuellen Herausforderungen. Im Jahr 2025 könnten Menschen und Maschinen bereits 175 Zettabyte an Daten erzeugen, prognostizieren die Marktforscher von IDC (International Data Corporation). Gespeichert auf herkömmliche DVDs, wären dies 23 Stapel mit Silberscheiben, die jeweils bis zum Mond reichen. Das jährliche Datenwachstum um durchschnittlich 27 Prozent sorgt auch für steigende Anforderungen an die IT-Infrastruktur.

  • Fünf Prognosen für die Cloud im Jahr 2020

    Für viele Unternehmen in Europa ist die Cloud in den vergangenen Jahren zum Standard geworden. Während sie heute alle von den Vorteilen profitieren, sollten sie allerdings nicht die entstehenden Herausforderungen aus dem Blick verlieren - etwa entsprechende Skill-Sets, kontinuierliche Weiterbildungen und das Thema Sicherheit. Allen Fallstricken zum Trotz werden 2020 neue Entwicklungen und Anwendungsbereiche sowohl den Cloud Computing-Markt selbst als auch die Anwenderunternehmen auf Trab halten. Mit dabei: neue Services, Experimente mit AR und VR sowie Neuerungen im Bereich Retail. Was sich im Detail ändern könnte, hat Rackspace CTO Lee James in seinen fünf Prognosen zu den Cloud-Trends 2020 zusammengefasst.

  • Multi-Cloud-Anwendungen weiter etablieren

    Experten von Talend haben sich mit aktuellen Trends aus dem Bereich der Cloud Computing-Lösungen beschäftigt und darauf basierend einige Vorhersagen für das nächste Jahr getroffen. Open Source-Technologien werden die Einführung von Multi-Cloud-Lösungen vorantreiben: Open Source-Technologien lösen die Grenzen zwischen den Cloud-Umgebungen auf. Sie sind Cloud-agnostisch, einfach zu Bedienen und ermöglichen so eine gemeinsame Umgebung. Die Möglichkeit, eine Reihe von Anwendungen zu unterstützen und sie in beliebigen Cloud- oder Open Source-Containern zu hosten, wird Multi-Cloud-Anwendungen weiter etablieren. Public Cloud-Anbieter wie Azure ARC, Google Anthos und Amazon Outposts werden Multi-Cloud-Anwendungen nutzen, die auf ihren Stacks basieren. Zwar sind die Anwendungsfälle heute noch selten, aber die Entwicklung wird sich 2020 weiter verstärken, da immer mehr Unternehmen die Fähigkeiten von Open Source-Technologien in Cloud-Umgebungen erkennen.