Sie sind hier: Startseite » Markt » Hintergrund

2016 kommt Big Data im Mainstream an


Big Data-Trends: Das Internet der Dinge und die Cloud sind Treibstoff für Big Data
Cloud Computing-Services werden vermehrt Sensordaten erfassen und für Big Data-Analysen und -Algorithmen bereitstellen

(16.02.16) - Daten sind das Gold des Digitalen Zeitalters. Sie helfen Unternehmen nicht nur ihre Ziele schneller zu erreichen und die Wettbewerbsposition zu stärken, sie ermöglichen es auch, die Kunden besser zu verstehen und Produkte und Services gezielter und schneller an den Markt anzupassen. Im Gegensatz zu Gold ist der Rohstoff Daten aber keineswegs endlich. Ganz im Gegenteil: Etwa alle 18 Monate verdoppeln sich die Terabytes an strukturierten und unstrukturierten digitalen Informationen. Die Herausforderung besteht vielmehr darin, aus dem unüberschaubaren Informationsfluss die wertvollen Körner zu sieben. Lange Zeit war die Nutzung und Analyse von Big Data ein Thema für IT- und Datenspezialisten – diese Ära ist nun vorbei, denn 2016 wird Big Data endlich im Mainstream ankommen. Oracle zeigt, welche Trends uns dieses Jahr rund um Big Data erwarten:

1) Ausgereifte Standardlösungen ersetzen die anfänglichen Spezialsysteme
Big Data-Pioniere hatten keine andere Wahl, als ihre eigenen Cluster und -Umgebungen zu entwickeln. Diese auf Hadoop, Spark oder anderen aufkommenden Technologien beruhenden Spezialsysteme zu entwickeln, zu verwalten und zu warten ist allerdings extrem zeit- und kostenaufwendig. So beträgt die durchschnittliche Entwicklungszeit sechs Monate. So viel Zeit hat heute niemand mehr? Kein Problem, denn dank Cloud Computining-Diensten und Anwendungen mit vorkonfigurierten Automatisierungen und Standards wird 2016 ein sehr viel größerer Anwenderkreis auf ausgereifte Lösungen zugreifen können.

2) Datenvirtualisierung wird Realität
Unternehmen erfassen heute nicht nur eine immer größer werdende Bandbreite an Daten, sie verwenden auch eine Vielzahl an Algorithmen, Analysen und Software-Anwendungen. Entwickler und Analytiker verlieren dadurch schnell mal den Überblick, wo welche Daten gespeichert sind oder haben Probleme mit den Zugriffsverfahren der jeweiligen Repositories. Daher werden Unternehmen 2016 nicht mehr nur auf eine einzelne Technologie setzen. Sie werden zukünftig vermehrt Daten virtualisieren. Die Benutzer und Anwendungen greifen dann über SQL, REST und andere Skriptsprachen auf diese virtualisierten Daten zu. Die richtige Technologie zur Datenvirtualisierung bietet dabei die gleiche Performance wie die nativen Methoden – einschließlich Rückwärtskompatibilität und Sicherheit.

3) Datenstromorientierte Programmierung beschleunigt das Tempo
In den Anfängen des Big Data-Einsatzes dominierte die manuell programmierte Datenverarbeitung. Neue Verwaltungswerkzeuge bringen nun bessere Voraussetzungen für eine anspruchsvollere Datenverarbeitung mit und werden die ursprünglichen Big Data-Technologien in den Hintergrund drängen. Darüber hinaus wird sich die datenstromorientierte Programmierung weiter etablieren. Diese setzt auf eine starke Parallelverarbeitung, erleichtert die Wiederverwendung von funktionalen Operatoren und unterstützt nahtlos Funktionen für Statistik und maschinelles Lernen.

4) Big Data wird zur Spielwiese von künstlicher Intelligenz
2016 wird vermehrt künstliche Intelligenz bei der normalen Datenverarbeitung eingesetzt – unter anderem maschinelles Lernen, automatische Texterkennung und Property-Graphen. Auf diese Technologien kann im Big Data-Umfeld bereits jetzt über API-Bibliotheken zugegriffen werden. Nun werden sie zum Standard in IT-Werkzeugen für Echtzeit-Analysen und Datenwissenschaft.

5) Das Internet der Dinge und die Cloud sind Treibstoff für Big Data
Big Data-Cloud-Dienste sind die heimlichen Treiber des Internets der Dinge (IoT). Cloud Computing-Services werden vermehrt Sensordaten erfassen und für Big Data-Analysen und -Algorithmen bereitstellen. Diese Analysen werden dann beispielsweise in der Entwicklung genutzt. So werden Fertigungsunternehmen mit Hilfe hochsicherer IoT-Cloud-Services Produkte entwickeln, die auf Grundlage von Datenanalysen eigenständig Aktionen ausführen. Eingriffe durch Menschen werden noch seltener nötig.

6) Datenvorschriften fördern die Hybrid Cloud
Je mehr über die Herkunft der Daten bekannt ist – und das bezieht sich nicht nur auf einen Sensor oder eine Datenbank, sondern auch auf die "Nationalität" der Daten –, desto leichter können Regierungen nationale Datenvorschriften durchsetzen. Internationale Unternehmen, die die Cloud nutzen wollen, geraten dadurch in ein Geflecht widerstrebender Interessen. Daher werden globale Unternehmen zunehmend Hybrid-Cloud-Infrastrukturen und regionale Rechenzentren etablieren. Diese stellen gewissermaßen den lokalen Vertreter eines größeren Cloud Computing-Dienstes dar. Damit senken Unternehmen nicht nur Kosten, sondern stellen auch die Compliance sicher.

Fazit
An Big Data führt kein Weg mehr vorbei. Die Werkzeuge für datenbasierte Entscheidungen stehen bereit. Jetzt liegt es an den Unternehmen, schnell Nutzen aus den neuen Möglichkeiten zu ziehen. Im Jahr 2016 wird sich die Spreu vom Weizen trennen. Nur Unternehmen, die aus ihren Daten schnell die richtigen Erkenntnisse ziehen, werden sich im globalen Wettbewerb behaupten können. (Oracle: ra)





Oracle: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Hintergrund

  • Nutzung von KI-Tools

    In einer Gartner-Studie¹ aus dem Jahr 2024 gaben zwei Drittel der Befragten an, dass Kunden zögern, wenn es um den Einsatz von KI im Kundenservice geht. Dies stellt Unternehmen vor ein Dilemma, da sie zunehmend auf KI setzen, um Kosten zu senken, Einblicke in Geschäftsprozesse zu gewinnen und mit innovativen Technologien auf dem neuesten Stand zu bleiben, während sie gleichzeitig die Kundenzufriedenheit aufrechterhalten.

  • Cloud-Edge-Infrastruktur in Europa

    eco - Verband der Internetwirtschaft e.V. übernimmt das Projektmanagement für das neu gestartete Projekt FACIS im Rahmen der europäischen Infrastrukturinitiative IPCEI-CIS/8ra . FACIS steht für das Konzept der Federation Architecture for Composed Infrastructure Services und wird seit November 2024 für die kommenden zwei Jahre vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) mit rund 6,8 Millionen Euro gefördert.

  • 2025 zeichnen sich fünf KI-Trends ab

    Scott Zoldi, KI-Visionär und Chief Analytics Officer bei Fico, sieht aktuell folgende fünf KI-Trends: Erkenntnis in Unternehmen reift: Nicht jede KI ist eine GenAI. Unternehmen befassen sich zunehmend mit dem geschäftlichen Mehrwert ihrer KI-Investitionen. Sie achten immer mehr darauf, bei welchen Herausforderungen GenAI eine gute Lösung bringt und wo traditionelle KI-Technologie und interpretierbares maschinelles Lernen die Alternative sind. Tatsächlich sind mehr als 80 Prozent aller KI-Systeme, die heute in Unternehmen im Einsatz sind, keine GenAI.

  • Nutzung von KI als Wirtschaftsfaktor

    Die Entwicklung und Adaption von Künstlicher Intelligenz in Deutschland geht einigen viel zu langsam. Ist das wirklich so? Tatsächlich haben wir die KI weder verschlafen noch mutwillig ein- und ausgebremst. Aber es gibt eine Reihe von Besonderheiten, die der Nutzung von KI als Wirtschaftsfaktor nicht förderlich sind.

  • Erste Warnungen in Europa vor US-Clouds

    Norwegen und Dänemark warnen vor US-Cloud-Anbietern. Werden Deutschland und weitere europäische Länder diesem Beispiel folgen? Wann werden Regeln zum Datenschutz verschärft und wie können Unternehmen diese Hürde meistern?

  • Weg zu mehr Nachhaltigkeit

    Die sich zunehmend verschärfende Energieknappheit stellt Industrie, Haushalte und Politik vor enorme Herausforderungen. In einigen Branchen führt dies bereits dazu, dass Produktionskapazitäten gedrosselt werden. Vor diesem Hintergrund geraten auch Rechenzentren ins Blickfeld, die als digitale Infrastrukturen der modernen Gesellschaft zwar eine zentrale Rolle spielen, aber auch als besonders energieintensiv gelten.

  • Von der Optimierung zur Transformation

    Generative Künstliche Intelligenz (GenAI) wird 2025 zum Standardwerkzeug der deutschen Wirtschaft. Nahezu acht von zehn Unternehmen (79 Prozent) setzen die Technologie ein oder haben es vor. Der Fokus liegt allerdings auf der Optimierung und nicht auf der Transformation des Geschäfts. Lediglich 46 Prozent der Entscheider sind der Meinung, dass es mittelfristig neue, vollständig KI-basierte Geschäftsmodelle geben wird.

  • Welche Chancen bieten AI und Automatisierung?

    Automatisierung am Arbeitsplatz, kombiniert mit Artificial Intelligence (AI), GenAI, Machine Learning (ML) und Orchestrierung, ermöglicht Unternehmen, Arbeitsabläufe auf ein neues Level zu heben. Durch diese Technologien lassen sich skalierbare, anpassungsfähige Geschäftsprozesse schaffen, die auf langfristige Ziele ausgerichtet sind.

  • Datenschutzstrategien für hybride IT

    Eine von Arcserve beauftragte unabhängige Befragung unter IT-Führungskräften ergab, dass 80 Prozent schon einmal von Ransomware betroffen waren. Während 82 Prozent der Betroffenen angaben, dass sie den Schaden innerhalb von 48 Stunden beheben konnten, war dazu knapp ein Fünftel nicht in der Lage. Problematisch ist auch, dass bis zu 30 Prozent der Daten bei einem erfolgreichen Ransomware-Angriff nicht wiederhergestellt werden konnten.

  • Cloud-basierte Monetarisierung löst Probleme

    Mit ihrer jahrzehntelangen Erfahrung im Management wiederkehrender Kundenbeziehungen sind Telekommunikationsunternehmen (Telcos) attraktive Partner in der Abonnement-Wirtschaft. Ihr großer Kundenstamm, der sich durch historisch niedrige Abwanderungsraten auszeichnet, bietet eine solide Grundlage, um vom wachsenden Abonnementmarkt zu profitieren.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen