Sie sind hier: Startseite » Markt » Tipps und Hinweise

Implementierung von Big Data-Technologien


Fünf Best Practices für einen erfolgreichen Einsatz von Big Data
Checkliste die fünf wichtigsten Erfolgsfaktoren bei der Einführung von Big Data – beispielsweise auf Basis von Hadoop oder NoSQL-Datenbanken


Viele Aspekte beeinflussen die Entscheidung, vorhandene IT-Systemlandschaften funktional weiter auszubauen und zu modernisieren. Big Data-Umgebungen etwa bieten eine hohe Flexibilität und Skalierbarkeit, um sehr große Datenmengen kosteneffizient zu erfassen und auszuwerten. Die Einführung von NoSQL-Datenbanken oder Hadoop, als typische Vertreter von Big Data-Umgebungen, ist oft der Anlass für eine evolutionäre Weiterentwicklung der eingesetzten Applikationen. Progress erläutert fünf Best Practices, die sich bei der Implementierung von Big Data-Projekten bereits bewährt haben.

1. Die Ziele eines Geschäftsprozesses verstehen.
Entsprechen langjährig genutzte Applikationen nicht mehr den Leistungserwartungen, entsteht schnell der Wunsch einer Migration auf ein anderes aktuelles Betriebssystem oder zumindest nach einer versionsmäßigen Erneuerung. Die geplante Einführung von Big Data-Technologie sollte Anlass sein, zunächst einmal zu prüfen, ob und wie eine Applikation aktuell die Anforderungen der Anwender im Rahmen eines bestimmten Geschäftsprozesses unterstützt. In vielen Fällen bietet die Integration von Big Data-Technologien zusätzliche Möglichkeiten, die betriebswirtschaftlichen Ziele einer Applikation genauer, schneller und umfassender zu erreichen.

2. Die benötigten Datenquellen ermitteln.
Die Kenntnis der Ziele eines Geschäftsprozesses bietet eine gute Grundlage für eine bessere Beurteilung der dafür benötigten Daten und der Skalierbarkeit. Die Einführung von Big Data-Technologien sollte daher auch als Anlass zu einer Ermittlung zusätzlicher Datenquellen dienen, mit denen sich die Effizienz von Geschäftsprozessen steigern lässt. Eine Applikation zur Analyse des Kundenverhaltens profitiert beispielsweise von Daten der Verkaufshistorie, von Daten aus dem Customer Service, von vorhandenen oder neu zu erstellenden Kundenprofilen oder der Auswertung von Social Media-Aktivitäten und -Kommentaren.

3. Überprüfbare Performancekriterien definieren.
Bei Big Data geht es immer um eine Leistungssteigerung, sei es eine schnellere Verarbeitung, die Einbeziehung größerer Datenmengen oder detailliertere Datenanalysen. Die Festlegung von Performancewerten ermöglicht einen Soll-Ist-Vergleich und ein frühzeitiges Gegensteuern bei Abweichungen. Das betrifft etwa schnellere Zugriffszeiten auf Daten oder die Unterstützung einer größeren Zahl gleichzeitiger Benutzer.

4. Skalierbarkeit berücksichtigen.
Die Anforderung nach einer höheren Performance ist eng mit der Skalierbarkeit verbunden. Bei allen Überlegungen zur Verbesserung der Performance müssen auch die Auswirkungen auf die Skalierbarkeit beachtet werden. Theoretisch heißt "linear skalierbar", dass sich bei einer Verdopplung der CPU-Leistung oder der Speicherkapazität auch die doppelte Performance ergibt. In der Praxis hat die Skalierung der Speicherkapazität mehrere Dimensionen.

Auch die physischen Speichersysteme zur Steuerung der einzelnen Festplatten und die CPU-Leistung müssen beispielsweise ausgebaut werden. Der weitere Ausbau erfordert daher eine Kostenanalyse der einzelnen Komponenten, um die angestrebte Performance betriebswirtschaftlich rechtfertigen zu können.

5. Den Bedarf an Datenintegration bewerten.
Eine Steigerung der Performance und Skalierbarkeit bei einem wachsenden Datenvolumen sowie eine Berücksichtigung diverser Datentypen bedeuten gleichzeitig höhere Anforderungen bei der Datenintegration. In vielen Fällen hat es sich bewährt, in kleinen bis mittelgroßen Big Data-Projekten die Datenintegration zu erproben sowie die damit verbundenen Prozesse und Architekturen zu etablieren, die dann auch auf größere Projekte übertragen werden können.

Die Integration der Daten in eine Big Data-Umgebung ist die eine Seite der Medaille, auch der umgekehrte Zugang sollte bedacht werden. Es sollte auch ein standardisierter Zugriff auf NoSQL-Datenbanken und eine Hadoop-Umgebung sichergestellt sein, damit Big Data-Analysen auch von den vorhandenen Applikationen genutzt werden können.

"Bei der Implementierung von Big Data-Technologien geht es immer um strategische Entscheidungen, von denen viele Geschäftsprozesse und Fachbereiche eines Unternehmens profitieren", sagt Olf Jännsch, Regional Vice President Central and Eastern Europe bei Progress. "Um eine hohe Flexibilität zu erzielen, sollten die eingesetzten Technologien strukturierte und unstrukturierte Daten unterstützen, eine hohe Verfügbarkeit bieten und plattformunabhängig einsetzbar sein – On-Premise, in der Cloud und in hybriden Architekturen. Sie bieten damit gleichzeitig einen wichtigen Hebel zur weiteren Modernisierung der langjährig genutzten Applikationslandschaften." (Progress: ra)

eingetragen: 11.09.16
Home & Newsletterlauf: 21.09.16

Progress Software: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Private AI verfolgt einen Plattform-Ansatz

    Der Einzug der generativen KI (GenAI) in die breite Öffentlichkeit hat das KI-Wachstum in Unternehmen vergangenes Jahr beschleunigt. Motiviert durch Wettbewerbsdruck und potenzielle Vorteile forcieren Unternehmen und Regierungen ihre KI-Strategie.

  • Mangelnde Vorbereitung auf SaaS-Ausfälle

    Der Hycu State of SaaS Resilience 2024 Report deckte zuletzt kritische Datensicherungslücken auf, da 70 Prozent der Unternehmen Datenverluste erleiden. Trotzdem verlassen sich 60 Prozent immer noch auf ihre Software-as-a-Service (SaaS)-Anbieter, um sich zu schützen, und setzen sich damit weiteren Risiken aus.

  • KI gewinnbringend einsetzen

    Das KI-Potenzial ist praktisch unerschöpflich. Doch um es richtig zu nutzen und daraus echte Wettbewerbsvorteile zu generieren, muss vorab die Bereitschaft des Unternehmens dafür geklärt werden. Der IT-Dienstleister CGI erklärt, warum der Readiness-Check so wichtig ist, was er genau analysiert und was mit den daraus gewonnenen Erkenntnissen passiert.

  • Herausforderungen von Edge AI

    Künstliche Intelligenz hat längst den Netzwerkrand erreicht. Um zeitkritischen Daten den Umweg über die Cloud und das Rechenzentrum zu ersparen, bringen Edge-AI-Lösungen Modelle direkt in die Anwendungen vor Ort. Dieser Weg bietet immense Vorteile - er ist aber auch mit einigen Stolpersteinen gepflastert, wie Couchbase, Anbieter einer Cloud-Datenbankplattform, zeigt.

  • Cloud-Datenschutz im Gesundheitswesen

    Daten im Gesundheitswesen gehören zu den kritischsten Vermögenswerten. Sie umfassen hochsensible Informationen wie Krankengeschichten, Behandlungsunterlagen und persönliche Daten. Der Schutz dieser Daten ist von größter Bedeutung, da sie durch nationale und globale Vorschriften als besondere Kategorien personenbezogener Daten eingestuft werden.

  • Generative KI mit Serverless optimieren

    Der Einsatz von generativer KI kann komplex und teuer sein. Serverlose Cloud-Dienste und Vektordatenbanken bieten eine Lösung, um diese Hürden zu überwinden und KI-Anwendungen effizient und skalierbar zu gestalten.

  • Sensible Daten in der Cloud schützen

    Wenn Unternehmen in der Cloud geistiges Eigentum oder persönliche Informationen verlieren, drohen ihnen erhebliche Konsequenzen. Mit den richtigen Maßnahmen für Datensicherheit in der Cloud können sie zuverlässig Vorsorge treffen. Forcepoint erläutert die fünf wichtigsten davon. Datensicherheit in der Cloud wird für Unternehmen zunehmend zu einem kritischen Bestandteil ihrer IT-Infrastruktur.

  • Dank der Cloud: Flexibilität und Skalierbarkeit

    Cloud-Marktplätze sind heute zu einem unverzichtbaren Dreh- und Angelpunkt für unabhängige Softwareanbieter (ISVs) geworden, um ihre Reichweite zu vergrößern, den Verkaufsprozess zu rationalisieren und Wachstum zu fördern. Erfolg ist jedoch nicht allein dadurch garantiert, dass ein Produkt auf einem Marktplatz gelistet ist.

  • Beste Rendite für Serverinvestitionen?

    Laut Statista schätzen IT-Experten weltweit im Jahr 2024 eine Aufteilung von fast 50/50 zwischen Onsite- und Cloud-gehosteten Servern in ihren Unternehmen. Aufgrund der riesigen Datenmengen und der zunehmenden Nutzung von KI, werden künftig immer mehr Server benötigt.

  • Digitale Transformation kommt nicht ins Rollen?

    Dass die Digitalisierung unaufhaltsam voranschreitet, ist keine Neuigkeit mehr, trotzdem haben bislang viele deutsche Unternehmen den entscheidenden Schritt zur digitalen Transformation noch nicht gewagt. Die Corona-Pandemie hat als Katalysator für einen Digitalisierungsschub gesorgt und viele Prozesse auf den Prüfstand gestellt.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen