Sie sind hier: Startseite » Markt » Hintergrund

Fehleinschätzungen rund um Linux-Container


Container werden Virtualisierungslösungen keineswegs komplett ersetzen beziehungsweise überflüssig machen
Container können nicht unabhängig betrieben werden können, sondern nur in Abhängigkeit vom Host-Betriebssystem-Kernel und den damit verbundenen Services


Nicht mehr völlig neu, aber immer noch mit zahlreichen Unklarheiten verbunden ist das Thema Linux-Container. Red Hat zeigt gängige Einschätzungen auf und überprüft sie auf ihren Wahrheitsgehalt. Es ist kein Geheimnis, dass Container zu den wichtigsten neueren IT-Trends zählen. Um eine sinnvolle Nutzung sicherzustellen, ist es aber erforderlich, die Stärken und Grenzen zu kennen – gerade auch hinsichtlich der Abgrenzung zu Virtualisierungslösungen. Vielfach herrschen hier auf Anwenderseite noch falsche Vorstellungen.Red Hat zeigt sechs gängige Fehleinschätzungen auf:

1. Container sind neu
Prinzipiell ist das Container-Konzept nichts Neues. Technisch betrachtet läuft ein Linux-Container isoliert in einer einzelnen Instanz des gemeinsam genutzten Host-Betriebssystems. Ähnliche Ansätze gibt es auch bei Unix Chroot, FreeBSD Jail oder Solaris Zone, der von Sun Microsystems bereits 2005 als Teil von Solaris 10 eingeführten Betriebssystem-Virtualisierung für x86- und SPARC-Systeme. Nicht zu vergessen ist, dass viele der mit Linux-Containern verbundenen Technologien wie Namespaces oder cgroups auch die Basis etlicher Platform-as-a-Service (PaaS)-Angebote der ersten Generation waren. Neu ist nur, dass Linux-Container-Technologien heute für eine große Bandbreite von Applikationen genutzt werden können: von Cloud-nativen Microservices bis zu vorhandenen Legacy-Systemen.

2. Container sind in sich abgeschlossene Entitäten
Trotz ihres Namens sind Container nicht komplett in sich geschlossene Einheiten. Jedes Container-Gastsystem nutzt dasselbe Host-Betriebssystem und dessen Services. Das reduziert zwar den Overhead und verbessert die Performance, kann aber andererseits auch potenzielle Herausforderungen hinsichtlich Sicherheit oder Interoperabilität mit sich bringen.

3. Container ersetzen Virtualisierung
Container werden Virtualisierungslösungen keineswegs komplett ersetzen beziehungsweise überflüssig machen, da sie sich für verschiedene Anwendungsszenarien eignen. Container-Lösungen bieten sich für Infrastrukturen an, in denen eine große Zahl von Applikationsinstanzen parallel beispielsweise auf Clustern oder in Private-, Public- oder Open-Hybrid-Cloud-Umgebungen betrieben wird und die Applikationen häufigen Updates und funktionalen Erweiterungen unterliegen. Auch bei Applikationen, die aus Komponenten bestehen und einer Microservices-Architektur folgen, bieten Container eine effiziente Möglichkeit, Lösungen ohne den bei traditionellen virtuellen Maschinen üblichen Overhead zu implementieren. Für andere Anwendungsfelder ist die Virtualisierung mit Hypervisoren nach wie vor die geeignete Lösung. Das gilt vor allem, wenn in IT-Umgebungen eine Betriebssystemunabhängigkeit gefordert ist und heterogene Welten mit unterschiedlichen Windows-Versionen und Linux unterstützt werden müssen. Schwerpunktmäßig wird die Virtualisierung weiterhin im Bereich traditioneller Applikationen genutzt werden, die nur in längeren Zyklen von mehreren Monaten geändert werden.

4. Container sind universell portabel
Zunächst ist zu berücksichtigen, dass Container nicht unabhängig betrieben werden können, sondern nur in Abhängigkeit vom Host-Betriebssystem-Kernel und den damit verbundenen Services. Um eine vollständige Portabilität über physische Hardware, Hypervisoren, Private Clouds und Public Clouds hinweg gewährleisten zu können, muss eine integrierte Plattform für die Applikationsbereitstellung vorhanden sein, die auf offenen Standards basiert.

5. Container sind prinzipiell sicher
Es gibt zahlreiche Gründe für den Container-Einsatz im Unternehmen, aber dabei müssen immer auch die mit der Technologie verbundenen Risiken Berücksichtigung finden. Bei zwei physischen Maschinen ist es möglich, diese vom Netzwerk zu isolieren; fällt eine aus oder wird sie mit einem Virus infiziert, bleibt das andere System geschützt. In einer containerisierten Umgebung hingegen wird der Betriebssystem-Kernel auf dem Host-System von allen Containern genutzt. Die damit einhergehenden Sicherheitsrisiken liegen auf der Hand. Deshalb müssen auf jeden Fall Technologien wie SELinux als zusätzlicher Layer für die Policy- und Zugriffsüberwachung genutzt werden. Auch Container-Scanner wie OpenSCAP oder Black Duck zur einfachen Überprüfung von Container-Inhalten empfehlen sich.

6. Container heißt Docker
Vielfach wird die Container-Technologie mit Docker gleichgesetzt. Das greift aber eindeutig zu kurz. Das Docker-Format hat sich zwar inzwischen als der De-facto-Standard bei Linux-Containern im Markt weitgehend durchgesetzt, aber die Docker-Nutzung erfordert deutlich mehr, gerade im Hinblick auf Aspekte wie Sicherheit, Orchestrierung oder Management. Und hier sind dann zusätzliche Lösungen wie SELinux, Kubernetes oder Red Hat CloudForms unverzichtbar.

"Hinsichtlich der vielfältigen Einsatzmöglichkeiten von Containern herrscht auf Unternehmensseite oft noch Unsicherheit. Die Entwicklung im Linux-Container-Bereich ist inzwischen derart weit fortgeschritten, dass nahezu jede Unternehmensanforderung abgedeckt werden kann, sowohl bei der Modernisierung vorhandener Infrastrukturen als auch bei der Umsetzung von Innovationen", erklärt Lars Herrmann, General Manager Integrated Solutions und Container Strategy bei Red Hat. (Red Hat: ra)

eingetragen: 06.11.16
Home & Newsletterlauf: 24.11.16

Red Hat: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • Datenschutzstrategien für hybride IT

    Eine von Arcserve beauftragte unabhängige Befragung unter IT-Führungskräften ergab, dass 80 Prozent schon einmal von Ransomware betroffen waren. Während 82 Prozent der Betroffenen angaben, dass sie den Schaden innerhalb von 48 Stunden beheben konnten, war dazu knapp ein Fünftel nicht in der Lage. Problematisch ist auch, dass bis zu 30 Prozent der Daten bei einem erfolgreichen Ransomware-Angriff nicht wiederhergestellt werden konnten.

  • Cloud-basierte Monetarisierung löst Probleme

    Mit ihrer jahrzehntelangen Erfahrung im Management wiederkehrender Kundenbeziehungen sind Telekommunikationsunternehmen (Telcos) attraktive Partner in der Abonnement-Wirtschaft. Ihr großer Kundenstamm, der sich durch historisch niedrige Abwanderungsraten auszeichnet, bietet eine solide Grundlage, um vom wachsenden Abonnementmarkt zu profitieren.

  • Fokus auf Datenschutz & Compliance

    IT-Ausgaben in der Finanzbranche werden 2025 auf über 58 Milliarden USD steigen, während Technologien wie generative Künstliche Intelligenz (GenAI) Arbeitsabläufe, Datenmanagement und Kundeninteraktionen revolutionieren. Gleichzeitig wird der sich vollziehende Generationswechsel bei den Anlegern endgültig ein neues Level an Digitalisierung fordern. Fünf zentrale Trends werden diesen Wandel prägen: die Optimierung von Kundenerlebnissen, die Einführung modularer Architekturen, datengetriebene Innovationen, die Konvergenz von Branchen und ein verstärkter Fokus auf Datenschutz und Compliance.

  • Optimierung der Cloud-Kosten oberste Priorität

    Das Jahr 2024 war das "Jahr der generativen KI", was zu einer raschen Ausweitung der Datenerzeugung, -verwaltung und -konsolidierung führte. Dieser Anstieg zeigt keine Anzeichen einer Verlangsamung. Darüber hinaus kam es 2024 zu den ersten großen Angriffen auf die Lieferkette auf globaler Ebene, angeführt von CrowdStrike, die Unternehmen dazu zwangen, die Cybersicherheit auf allen Ebenen zu überdenken.

  • Hybrid-Cloud als ausgewogenere Lösung

    Durch den rasanten technologischen Wandel sind datengesteuerte Initiativen in modernen Geschäftsstrategien wichtiger denn je. Im Jahr 2025 stehen die Unternehmen jedoch vor neuen Herausforderungen, die ihre Datenstrategien, ihre Bereitschaft für Künstliche Intelligenz (KI) und ihr allgemeines Vertrauen in Daten auf die Probe stellen werden. Insgesamt ist die Bereitschaft für KI in internationalen Unternehmen sehr gering (17 Prozent).

  • Hybride Ansätze statt Cloud Only

    Wie sieht die Perspektive für das Dokumentenmanagement im Jahr 2025 aus? Die Zukunft ist digital, so viel ist sicher. Mit der E-Rechnungspflicht, künstlicher Intelligenz und Cloud-Technologien stehen grundlegende Veränderungen bevor. Der DMS-Experte easy software AG hat die relevantesten Branchentrends zusammengefasst.

  • Migration in die Cloud

    Die Versicherungsbranche befindet sich in einem rasanten Wandel. Fadata, Anbieterin von Softwarelösungen für die Versicherungsbranche, wirft einen Blick auf das Jahr 2025 und beleuchtet die wichtigsten Entwicklungen und Trends in den Bereichen Versicherung und digitale Transformation. Die wichtigsten Trends, die laut Fadata die Zukunft der Versicherung prägen werden, sind Internalisierung, Prävention, Cloud-Migration, Embedded Insurance, Ökosystem-Entwicklung und Talent-Transformation. Diese sechs Trends treiben transformative Veränderungen in der gesamten Branche voran, wobei die Versicherer innovative Ansätze verfolgen, um Kundenbedürfnisse, betriebliche Effizienz, Sicherheit, Risiken und Marktanforderungen zu adressieren. Versicherer werden im Jahr 2025 ihre wichtigsten Abläufe zunehmend internalisieren. Sie wollen ihre Abläufe straffen, Kosten senken und die Datensicherheit erhöhen. All dies kann durch die verbesserte Steuerung der Prozesse erreicht werden, die eine Internalisierung ermöglicht.

  • NIS2 wird Bewusstsein für CPS-Sicherheit stärken

    Und wieder liegt ein herausforderndes Jahr hinter uns. Die geopolitische Lage insbesondere in der Ukraine und im Nahen Osten ist weiterhin angespannt, während die innenpolitische Situation in den zwei stärksten Volkswirtschaften Europas derzeit ungewiss erscheint. All dies hat auch Auswirkungen auf die Cybersecurity. Schon längst sollten wir dabei nicht nur an IT-Sicherheit denken, sondern auch an IoT und Betriebstechnik (OT), also an cyber-physische Systeme (CPS).

  • Generative KI mit bemerkenswerten Fortschritte

    Generative Künstliche Intelligenz (generative KI) hat in den letzten Jahren bemerkenswerte Fortschritte erzielt. Dies ist auch auf die steigende Zahl von Entwicklern zurückzuführen, die über ein immer umfangreicheres Know-how verfügen. Doch eine Frage brennt Unternehmen wie Investoren unter den Nägeln: Wann lässt sich mithilfe von KI die betriebliche Effizienz auf das nächste Level heben?

  • Datendschungel: Herausforderung & Chance

    Das Jahr 2024 markierte einen Wendepunkt für die generative KI. Chat GPT und andere Akteure haben sich zu einigen der am schnellsten wachsenden Plattformen der letzten Zeit entwickelt. Doch inmitten dieser aufregenden KI-Revolution wird ein entscheidender Aspekt oft übersehen: das Datenmanagement. Ein starkes und durchdachtes Datenmanagement könnte der Schlüssel sein, um das volle Potenzial von KI-Lösungen zu entfalten.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen