- Anzeige -


Sie sind hier: Startseite » Markt » Unternehmen

Strategie und Lösungen für Big Data


Red Hat stellt Strategie für Big Data und Open Hybrid-Clouds vor: Big-Data-Infrastrukturlösungen und Applikationsplattformen für den Einsatz in Open Hybrid Clouds geeignet
Ferner wird das Unternehmen sein "Red Hat Storage Hadoop Plug-in" der Apache Hadoop Community zur Verfügung stellen


(12.03.13) - Red Hat hat ihre Strategie und Lösungen für Big Data vorgestellt. Unternehmen sind damit in der Lage, hochzuverlässige, skalierbare und einfach zu verwaltende Big-Data-Analytics-Applikationen zu erstellen und zu betreiben. Darüber hinaus wird das Unternehmen sein "Red Hat Storage Hadoop"-Plug-in der Apache Hadoop-Community zur Verfügung stellen. Das Ziel: "Red Hat Storage" soll zu einem Hadoop-kompatiblen Dateisystem für Big-Data-Umgebungen weiterentwickelt werden. Parallel dazu baut Red Hat ein umfangreiches Partnernetzwerk auf, um Unternehmen leistungsfähige Big-Data-Lösungen anbieten zu können. Dies ist ein weiteres Beispiel für die vielfältigen Initiativen von Red Hat im Big-Data-Sektor, die auf Innovationen aus der Open-Source-Community beruhen.

Die Big-Data-Infrastrukturlösungen und die Applikationsplattformen von Red Hat sind bestens für den Einsatz in Open-Hybrid-Clouds geeignet. In enger Kooperation mit der Open Source Community unterstützt Red Hat Kunden, die Big-Data-Anwendungen einsetzen. Viele Unternehmen weltweit nutzen Public Clouds, wie Amazon Web Services (AWS), für die Entwicklung, ein Proof-of-Concept und in der Pre-Production-Phase von Big-Data-Projekten. Anschließend übertragen sie die Ergebnisse in Private Clouds und bearbeiten mit ihren Analytics-Anwendungen sehr große Datenmengen.

Eine Open Hybrid Cloud ermöglicht Unternehmen, ihre Applikationen ohne Anpassungen von einer Public in eine Private Cloud zu übertragen. Red Hat engagiert sich im Rahmen von Projekten wie OpenStack und OpenShift Origin intensiv in der Open Cloud Community, um Unternehmen heute und in Zukunft optimal bei Big-Data-Projekten zu unterstützen.

Aktuell bietet Red Hat bereits eine Reihe von Lösungen an, mit denen Unternehmen Big-Data-Applikationen erstellen und betreiben können. Die Strategie konzentriert sich auf drei Hauptbereiche: Dazu gehört der Ausbau des Produktportfolios erstens bei Infrastrukturlösungen und zweitens bei Applikationsplattformen sowie drittens der Aufbau von Partnerschaften mit führenden Big-Data-Analytics-Anbietern und Systemintegratoren.

Big-Data-Infrastrukturlösungen

Red Hat Enterprise Linux:
Dem Linux Foundation Enterprise Linux User Report zufolge läuft die Mehrheit der Big-Data-Anwendungen unter Linux. Gleichzeitig ist Red Hat Enterprise Linux, die führende Lösung unter den kommerziellen Linux-Distributionen, die bedeutendste Plattform für Big-Data-Applikationen. Red Hat Enterprise Linux bietet eine hohe Leistung in verteilten Architekturen und enthält umfangreiche Features für Big Data. Die Verarbeitung riesiger Datenvolumina und anspruchsvolle Analytics-Berechnungen erfordern eine performante, zuverlässige, ressourceneffiziente und skalierbare Server- und Storage-Infrastruktur.

Red Hat Enterprise Linux adressiert diese Herausforderungen und bietet umfangreiche Features, um leistungsfähige Big-Data-Applikationen zu erstellen und sicher zu integrieren, die mit der hohen Geschwindigkeit mithalten können, mit der Daten generiert, analysiert und transferiert werden. Dies kann in der Cloud erfolgen, wo es einfacher ist, Daten aus einer Vielzahl von Quellen zu speichern, zu aggregieren und zu optimieren sowie sie plattformübergreifend zu integrieren – unabhängig davon, ob sie sich in physischen, virtuellen oder Cloud Computing-Umgebungen befinden.

Red Hat Storage Server:Auf Basis von Red Hat Enterprise Linux und dem verteilten Dateisystem GlusterFS können Unternehmen mit der Softwarelösung Red Hat Storage Server einen Pool standardbasierter Serversysteme miteinander verbinden und so eine kostengünstige, skalierbare und zuverlässige Big-Data-Umgebung aufbauen.

Im weiteren Verlauf des Jahres wird Red Hat ihr Hadoop Plug-in für Red Hat Storage an die Hadoop Community übergeben. Das Plug-in ist aktuell als Technology Preview erhältlich und bietet eine neue Storage-Option für den Unternehmenseinsatz von Hadoop, wobei die API-Kompatibilität beibehalten wird und ein lokaler Datenzugriff möglich ist, wie ihn die Hadoop-Community erwartet. Red Hat Storage Server bietet leistungsfähige Features für Big-Data-Applikationen wie Geo Replication, High Availability, POSIX-Compliance, Disaster-Recovery und -Management – unabhängig vom Ort der Datenspeicherung und unter Beibehaltung der API-Kompatibilität. Unternehmen erhalten damit eine vereinheitlichte Daten- und Scale-out-Storage-Software-Plattform, mit der sie Datei- und Objekt-basiert in physischen und virtuellen Umgebungen sowie in Public und Hybrid Clouds arbeiten können.

Red Hat Enterprise Virtualization:Red Hat Storage Server ist optimal auf Red Hat Enterprise Virtualization 3.1 abgestimmt und ermöglicht eine gemeinsame, sichere Nutzung eines Speicherpools, der von Red Hat Storage Server verwaltet wird. Unternehmen profitieren von dieser Integration durch geringere Betriebskosten, eine bessere Portabilität, freie Wahl bei der Infrastruktur, Skalierbarkeit, Verfügbarkeit und den Innovationen, wie sie durch die oVirt- und Gluster-Projekte gefördert werden. Durch die Kombination dieser Plattformen kann Red Hat ihre Open-Hybrid-Cloud-Strategie konsequent umsetzen: ein integrierter und konvergenter Knoten, bestehend aus Red Hat Storage Server und Red Hat Enterprise Virtualization, der gleichzeitig Rechen- und Speicherressourcen bereitstellt.

Applikations- und Integrationsplattformen

Red Hat JBoss Middleware:
Die Red Hat JBoss Middleware bietet Unternehmen leistungsfähige Funktionen für die Erstellung und die Integration von Big-Data-Applikationen, die mit neuen Technologien wie Hadoop oder MongoDB arbeiten. Big Data bringt nur dann einen Mehrwert, wenn Unternehmen schnell Informationen zur Verfügung haben und darauf intelligent reagieren können. Lösungen, die mit Red Hat JBoss Middleware erstellt wurden, können mit Hilfe schneller Messaging-Technologien Hadoop mit sehr großen Mengen unterschiedlichster Daten versorgen. Sie vereinfachen zudem die Zusammenarbeit mit MongoDB via Hibernate OGM und verarbeiten große Datenvolumina einfach und schnell mit Red Hat JBoss Data Grid. Die JBoss-Enterprise-Services-Plattform ermöglicht einen Zugriff auf Hadoop und auf traditionelle Datenquellen. Eine Mustererkennung in Datenströmen zur Identifizierung von Chancen und Risiken ist mit JBoss Enterprise BRMS möglich. Das Middleware-Portfolio von Red Hat bietet Unternehmen so eine umfangreiche Unterstützung bei Big Data.

Big-Data-Partnerschaften

Big-Data-Ecosystem-Partner:
Um Unternehmen ein umfangreiches Angebot an Big-Data-Lösungen anbieten zu können, wird Red Hat aus Gründen der Interoperabilität mit führenden Big-Data-Software- und -Hardware-Anbietern kooperieren. Zertifizierte und dokumentierteReferenz-Architekturen sollen Unternehmen bei der Integration und Implementierung komplexer Big-Data-Lösungen unterstützen.

Enterprise-Partner:Mit Hilfe von Integrationspartnern will Red Hat ein umfangreiches Big-Data-Solutions-Portfolio aufbauen und dazu die Referenz-Architekturen nutzen, die in Zusammenarbeit mit den Big-Data-Ecosystem-Partnern entstehen.
(Red Hat: ra)

Red Hat: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Unternehmen

  • Neue DSGVO-Vorschriften einhalten

    Talend, Anbieterin von Integrationslösungen für Cloud und Big Data, wird ein neues europäisches Rechenzentrum für die Lösung Talend Integration Cloud eröffnen, die Multi-Tenant, Scale-out, iPaaS-Lösung des Unternehmens. Das neue Datacenter soll die weltweite Expansion von Talend unterstützen sowie Kunden dabei helfen, die bevorstehende EU-Datenschutz-Grundverordnung (DSGVO) einzuhalten. Die Richtlinie soll den individuellen Datenschutz innerhalb der Europäischen Union stärken. Erste Kunden sollen das neue Rechenzentrum im vierten Quartal 2017 nutzen können. "Das neue Cloud-Rechenzentrum verstärkt Talends Engagement bei der Unterstützung von Kunden, die sich auf das Inkrafttreten der EU-Datenverordnung vorbereiten", sagt Ciaran Dynes, SVP Products bei Talend. "Mit mehr Kunden in Europa, die iPaaS nutzen, ist es unser Ziel den Prozess zu vereinfachen, mit dem Unternehmen Daten in umsetzbare Erkenntnisse konvertieren können. Das neue Rechenzentrum ist aber auch wichtig, um damit Unternehmen und deren Datenverantwortliche zu unterstützen, während sie neue Standards für Datensicherheit, Compliance und Governance definieren."

  • Managed Public Cloud Services

    Rackspace hat die Unterzeichnung einer Übernahmevereinbarung von Datapipe verkündet. Datapipe ist einer der weltweit führenden Anbieter von Managed Services in den Bereichen Public und Private Clouds, Managed Hosting und Colocation. Die Akquisition ist die größte in der Firmengeschichte von Rackspace und verhilft dem Unternehmen zu wichtigen neuen Kompetenzen. So kann Rackspace seinen Kunden künftig noch bessere Services bieten - weltweit und in noch größerem Umfang. Gemäß Industrieumfragen arbeiten die meisten Unternehmen heutzutage in drei oder mehr Clouds und werden dies auch in Zukunft tun. Auch Rackspace-Kunden äußerten ihr Bedürfnis nach erweiterten Kompetenzen bei der umfangreichen Verwaltung von mehreren Clouds. Mit der Übernahme von Datapipe wird Rackspace diese steigende Nachfrage nun erfüllen können.

  • Anwendungs-Portabilität von Cloud zu Cloud

    VMware stellt auf der VMworld 2017 Europe Innovationen vor, die "VMware Cloud Provider Partner" dabei unterstützen, VMware Workloads zu migrieren, Service-Angebote zu erweitern um Umsatz und Wachstum zu steigern, Kosten durch Automatisierung und einen effizienteren Betrieb zu senken und sich besser durch das VMware Cloud Provider-Programm zu differenzieren.

  • Fünf Rechenzentren in vier Metropolen

    Equinix hat in Übereinkunft mit der Carlyle Group die Akquisition von Itconic bekanntgegeben, Anbieterin von Rechenzentrums- sowie Konnektivitäts- und Cloud-Infrastruktur-Lösungen in Spanien und Portugal. Teil des Erwerbs ist auch CloudMas, eine Tochtergesellschaft von Itconic, welche Unternehmen bei der Einführung und Nutzung von Cloud Computing-Services unterstützt. Im zweiten Quartal des Jahres 2017 hat Itconic hochgerechnet Einnahmen in Höhe von 55,5 Millionen Euro (66,8 Millionen US-Dollar) generiert. Die Übernahme beider Unternehmen wird zu einem Preis von 215 Millionen Euro (259 Millionen US-Dollar) - all-cash Transaktion - erfolgen. Die Vereinbarung wurde am 8. September 2017 unterzeichnet. Die Übernahme soll gemäß herkömmlicher vertraglicher Vollzugsbedingungen und nach Genehmigung durch Aufsichtsbehörden erwartungsgemäß im 4. Quartal 2017 abgeschlossen sein.

  • "VMware Cloud Verified" zertifizierte Services

    OVH, eine internationaler Hyperscale-Cloud-Anbieterin, nahm als Global Diamond Sponsor an VMworld 2017 Europe teilnehmen. Als langjähriger VMware-Cloud Provider-Partner mit mehr als 200.000 VMs Tausender Kunden der SDDC Private Cloud wurde OVH von VMware in den letzten sechs Jahren fünf Mal als Service Provider of the Year ausgezeichnet und liefert nach "VMware Cloud Verified" zertifizierte Dienstleistungen.

  • Deutsche Markt für Squirro von großer Bedeutung

    Squirro, Anbieterin von Cognitive-Insights-Lösungen, intensiviert ab sofort ihr Geschäft in Deutschland. Zur umfassenden Analyse unstrukturierter Daten hat Squirro die Cloud Computing-Plattform "Cognitive Insights" entwickelt. Auf dieser Basis können Unternehmen aus Branchen wie Finanzdienstleistungen, Versicherungen, Telekommunikation und dem produzierenden Gewerbe Advanced-Context-Intelligence- und Insights-Lösungen nutzen. Cognitive-Insights basiert auf Data Engines und Technologien der künstlichen Intelligenz, kombiniert unstrukturierte Daten aus internen und externen Quellen und analysiert diese automatisiert mit Algorithmen. Die Cognitive Insights Engine von Squirro produziert damit direkt handlungsrelevante Erkenntnisse und ermöglicht Unternehmen, einen deutlichen Wettbewerbsvorsprung zu erzielen.

  • Führender Cloud-Hub in Deutschland

    Interxion hat den Bau ihres inzwischen bereits 13. Rechenzentrums auf dem Frankfurter Campus angekündigt. In das neue Data Center FRA13 investiert Interxion rund 90 Millionen Euro. Nach Fertigstellung wird das neue Rechenzentrum den Kunden insgesamt eine Netto-Rechenzentrumsfläche von etwa 4.800 Quadratmetern sowie eine Stromkapazität von 10 Megawatt bieten. Das Bauvorhaben wird in zwei Phasen durchgeführt. Die erste Phase von FRA13 wird voraussichtlich im vierten Quartal 2018 abgeschlossen sein und eine Fläche von rund 2.300 Quadratmetern umfassen. Die Eröffnung des zweiten Bauabschnitts von FRA13 mit etwa 2.500 Quadratmetern ist für das erste Quartal 2019 geplant.

  • Verwaltung & Pflege von IT & Software-Asset-Daten

    Flexera gab eine Vereinbarung zur Übernahme von BDNA bekannt, Anbieterin vom IT-Datenkatalog "Technopedia". "Indem Flexera ihre eigene umfassende Software Intelligence mit dem Repository von BDNA kombiniert, können wir in Zukunft die weltweit größte Plattform für IT-Asset-Daten zur Verfügung stellen", erklärt Jim Ryan, CEO von Flexera. "Man könnte die Plattform mit Rosetta Stone vergleichen: Alle Informationen zu IT-Assets werden in eine einheitliche Sprache übersetzt, kategorisiert, normalisiert und zur Verfügung gestellt und erlauben auf dieser Basis das Management bestehender und die Entwicklung zukünftiger Anwendungen." Grundlage der Plattform für IT-Asset-Daten sind zum einen die "Nexus Data Cloud" und das "Software Intelligence Repository" von Flexera und zum anderen das Hardware- und Software-Content-Repository von BDNA.

  • KI & IoT halten Einzug in alle Branchen

    Das Fujitsu Forum öffnet seine Pforten: Am 8. und 9. November 2017 treffen sich mehr als 12.000 Entscheider und IKT-Profis in München, um gemeinsam mit den Fujitsu Experten über zentrale Themen des digitalen Wandels wie Künstliche Intelligenz (KI), Internet of Things (IoT), Cloud Computing und Cyber Security zu diskutieren. Unter dem Motto "Human Centric Innovation: Digital Co-creation" präsentieren Fujitsu und seine Partner in zahlreichen Keynotes, Breakout Sessions sowie in einer umfangreichen Ausstellung Innovationen, Lösungen und Zukunftsvisionen zu diesen vier zentralen Bereichen.

  • Erfahrung mit führenden Technologien sammeln

    Talend, Anbieterin von Integrationslösungen für Cloud und Big Data, startet die neue "Talend Community". Damit verbessern sich für Entwickler die Möglichkeiten, Fachwissen und Erfahrung auszutauschen sowie technische Unterstützung zu erhalten, um weiterhin führend bei Themen zur Datenintegration zu bleiben. Talend Community bietet für alle Nutzer der Talend Enterprise-Lösungen sowie der Open Source-Produkte einen direkten Zugang zu Support, Weiterbildung und Vordenkern. Zudem ist die Community eine wichtige Komponente des globalen Talend-Ökosystems mit technischen Partnern und Systemintegratoren.