Zentrale Big Data-Anforderungen bewältigen
Red Hat und Hortonworks bringen "Apache Hadoop" in die Open Hybrid Cloud
Datenarchitekten werden in der Lage sein, Daten in einem einheitlichen, skalierbaren Open Source Repository zusammenzufassen
(05.03.14) - Red Hat und Hortonworks bauen ihre Kooperation weiter aus. Sie stimmen ihre Produktlinien noch besser aufeinander ab, vermarkten gemeinsam Lösungen und unterstützen zusammen ihre Kunden. Darüber hinaus kündigen beide Unternehmen ein Betaprogramm des Hortonworks Data Platform (HDP) Plug-Ins für Red Hat Storage an.
Hadoop setzt sich bei Big-Data-Unternehmenslösungen immer stärker durch. Einer IDC-Studie unter dem Titel "Trends in Enterprise Hadoop Deployments" zufolge nutzen bereits 32 Prozent der befragten Unternehmen Hadoop. Weitere 31 Prozent planen einen Einsatz in den nächsten zwölf Monaten und 36 Prozent eine spätere Implementierung.
Mit einem umfassenden Open-Source-Einsatz auf Basis der Hadoop-Plattform sind Unternehmen in der Lage, die zentralen Anforderungen aller Big Data-Entscheider in einem Unternehmen zu bewältigen. Red Hat und Hortonworks planen, die Apache-Hadoop-Plattform optimal auf Open-Hybrid-Cloud-Technologien wie Red Hat Enterprise Linux OpenStack Platform, OpenJDK, Red Hat JBoss Middleware und Red Hat Storage abzustimmen und auf dieser Basis Infrastrukturlösungen für die nächste Generation datengesteuerter Applikationen bereitzustellen. Unternehmen können damit schneller sehr große Datenmengen analysieren, sie erhalten einen genaueren Einblick in Geschäftsabläufe und können bessere Entscheidungen treffen.
Die erweiterte Kooperation von Red Hat und Hortonworks umfasst eine Reihe von Maßnahmen. Die wichtigsten im Überblick:
>> Datenarchitekten werden in der Lage sein, Daten in einem einheitlichen, skalierbaren Open Source Repository zusammenzufassen. In der aktuell verfügbaren Betaversion bietet die Hortonworks Data Platform (HDP) zusammen mit Red Hat Storage einen sicheren und zuverlässigen Speicherpool mit Schnittstellen zu Hadoop, POSIX und OpenStack Object Storage (Swift). Dadurch lässt sich die Flexibilität und Geschwindigkeit der Entwicklung und Implementierung neuer und vorhandener Analytics-Lösungen steigern
>> Der IT-Betrieb und die Entwickler können ihre Hadoop-Infrastruktur dynamisch skalieren, mit einer offenen und flexiblen Plattform neue Anforderungen aufgreifen und das gesamte Spektrum von physischen, virtuellen und Cloud-Deployment-Szenarien unterstützen
>> Kombiniert mit Red Hat Enterprise Linux und OpenJDK ermöglicht HDP eine schnellere Entwicklung unternehmensweiter Analytics-Applikationen. In Verbindung mit der Red Hat Enterprise Linux OpenStack Platform lassen sich mit HDP dynamische Hadoop-Services für sichere Private-Cloud-Infrastrukturen erstellen, die Kosten senken und die Flexibilität verbessern
Entwickler werden in der Lage sein, Analytics-Applikationen zu erstellen, die von neuen Datentypen profitieren. Datenanalysten erhalten über standardisierte Schnittstellen einen erleichterten Zugang zu den Daten. Durch die Verknüpfung von HDP mit Red Hat Enterprise Data Virtualization schafft Hadoop eine Verbindung zu vorhandenen Datenquellen, einschließlich Data Warehouses, SQL- und NoSQL-Datenbanken, internen und Cloud Computing-Applikationen sowie Flat- und XML-Files. Durch diese Lösung entsteht ein benutzerfreundliches, wiederverwendbares, virtuelles Datenmodell, das die unterschiedlichsten Datenquellen – inklusive Hadoop – integriert. Die Daten stehen bedarfsabhängig über Standard-SQL- und Web-Service-Schnittstellen für externe Applikationen zur Verfügung. (Red Hat: ra)
Red Hat: Kontakt und Steckbrief
Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.