Sie sind hier: Startseite » Markt » Hintergrund

Fehleinschätzungen rund um Linux-Container


Container werden Virtualisierungslösungen keineswegs komplett ersetzen beziehungsweise überflüssig machen
Container können nicht unabhängig betrieben werden können, sondern nur in Abhängigkeit vom Host-Betriebssystem-Kernel und den damit verbundenen Services


Nicht mehr völlig neu, aber immer noch mit zahlreichen Unklarheiten verbunden ist das Thema Linux-Container. Red Hat zeigt gängige Einschätzungen auf und überprüft sie auf ihren Wahrheitsgehalt. Es ist kein Geheimnis, dass Container zu den wichtigsten neueren IT-Trends zählen. Um eine sinnvolle Nutzung sicherzustellen, ist es aber erforderlich, die Stärken und Grenzen zu kennen – gerade auch hinsichtlich der Abgrenzung zu Virtualisierungslösungen. Vielfach herrschen hier auf Anwenderseite noch falsche Vorstellungen.Red Hat zeigt sechs gängige Fehleinschätzungen auf:

1. Container sind neu
Prinzipiell ist das Container-Konzept nichts Neues. Technisch betrachtet läuft ein Linux-Container isoliert in einer einzelnen Instanz des gemeinsam genutzten Host-Betriebssystems. Ähnliche Ansätze gibt es auch bei Unix Chroot, FreeBSD Jail oder Solaris Zone, der von Sun Microsystems bereits 2005 als Teil von Solaris 10 eingeführten Betriebssystem-Virtualisierung für x86- und SPARC-Systeme. Nicht zu vergessen ist, dass viele der mit Linux-Containern verbundenen Technologien wie Namespaces oder cgroups auch die Basis etlicher Platform-as-a-Service (PaaS)-Angebote der ersten Generation waren. Neu ist nur, dass Linux-Container-Technologien heute für eine große Bandbreite von Applikationen genutzt werden können: von Cloud-nativen Microservices bis zu vorhandenen Legacy-Systemen.

2. Container sind in sich abgeschlossene Entitäten
Trotz ihres Namens sind Container nicht komplett in sich geschlossene Einheiten. Jedes Container-Gastsystem nutzt dasselbe Host-Betriebssystem und dessen Services. Das reduziert zwar den Overhead und verbessert die Performance, kann aber andererseits auch potenzielle Herausforderungen hinsichtlich Sicherheit oder Interoperabilität mit sich bringen.

3. Container ersetzen Virtualisierung
Container werden Virtualisierungslösungen keineswegs komplett ersetzen beziehungsweise überflüssig machen, da sie sich für verschiedene Anwendungsszenarien eignen. Container-Lösungen bieten sich für Infrastrukturen an, in denen eine große Zahl von Applikationsinstanzen parallel beispielsweise auf Clustern oder in Private-, Public- oder Open-Hybrid-Cloud-Umgebungen betrieben wird und die Applikationen häufigen Updates und funktionalen Erweiterungen unterliegen. Auch bei Applikationen, die aus Komponenten bestehen und einer Microservices-Architektur folgen, bieten Container eine effiziente Möglichkeit, Lösungen ohne den bei traditionellen virtuellen Maschinen üblichen Overhead zu implementieren. Für andere Anwendungsfelder ist die Virtualisierung mit Hypervisoren nach wie vor die geeignete Lösung. Das gilt vor allem, wenn in IT-Umgebungen eine Betriebssystemunabhängigkeit gefordert ist und heterogene Welten mit unterschiedlichen Windows-Versionen und Linux unterstützt werden müssen. Schwerpunktmäßig wird die Virtualisierung weiterhin im Bereich traditioneller Applikationen genutzt werden, die nur in längeren Zyklen von mehreren Monaten geändert werden.

4. Container sind universell portabel
Zunächst ist zu berücksichtigen, dass Container nicht unabhängig betrieben werden können, sondern nur in Abhängigkeit vom Host-Betriebssystem-Kernel und den damit verbundenen Services. Um eine vollständige Portabilität über physische Hardware, Hypervisoren, Private Clouds und Public Clouds hinweg gewährleisten zu können, muss eine integrierte Plattform für die Applikationsbereitstellung vorhanden sein, die auf offenen Standards basiert.

5. Container sind prinzipiell sicher
Es gibt zahlreiche Gründe für den Container-Einsatz im Unternehmen, aber dabei müssen immer auch die mit der Technologie verbundenen Risiken Berücksichtigung finden. Bei zwei physischen Maschinen ist es möglich, diese vom Netzwerk zu isolieren; fällt eine aus oder wird sie mit einem Virus infiziert, bleibt das andere System geschützt. In einer containerisierten Umgebung hingegen wird der Betriebssystem-Kernel auf dem Host-System von allen Containern genutzt. Die damit einhergehenden Sicherheitsrisiken liegen auf der Hand. Deshalb müssen auf jeden Fall Technologien wie SELinux als zusätzlicher Layer für die Policy- und Zugriffsüberwachung genutzt werden. Auch Container-Scanner wie OpenSCAP oder Black Duck zur einfachen Überprüfung von Container-Inhalten empfehlen sich.

6. Container heißt Docker
Vielfach wird die Container-Technologie mit Docker gleichgesetzt. Das greift aber eindeutig zu kurz. Das Docker-Format hat sich zwar inzwischen als der De-facto-Standard bei Linux-Containern im Markt weitgehend durchgesetzt, aber die Docker-Nutzung erfordert deutlich mehr, gerade im Hinblick auf Aspekte wie Sicherheit, Orchestrierung oder Management. Und hier sind dann zusätzliche Lösungen wie SELinux, Kubernetes oder Red Hat CloudForms unverzichtbar.

"Hinsichtlich der vielfältigen Einsatzmöglichkeiten von Containern herrscht auf Unternehmensseite oft noch Unsicherheit. Die Entwicklung im Linux-Container-Bereich ist inzwischen derart weit fortgeschritten, dass nahezu jede Unternehmensanforderung abgedeckt werden kann, sowohl bei der Modernisierung vorhandener Infrastrukturen als auch bei der Umsetzung von Innovationen", erklärt Lars Herrmann, General Manager Integrated Solutions und Container Strategy bei Red Hat. (Red Hat: ra)

eingetragen: 06.11.16
Home & Newsletterlauf: 24.11.16

Red Hat: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Anwendungsfälle für KI

    Unternehmen erleben heute mit der Künstlichen Intelligenz (KI) einen Déjà-vu-Moment. Ähnlich wie bei früheren Technologiesprüngen - dem Aufkommen des PCs, des Internets oder der Cloud-Technologie - stehen sie an einem Wendepunkt, an dem die breite Einführung von KI die Unternehmenslandschaft transformiert.

  • Vom Kreditinstitut zur Technologie-Oase

    Wir schreiben das Jahr 2035: Sie wachen auf und überprüfen Ihre Finanzen über einen sprachaktivierten digitalen Assistenten, der als Hologramm von Elvis erscheint. Nach der Authentifizierung durch Stimm- und Fingerabdruck-Biometrie liefert Ihnen der verstorbene King of Rock'n'Roll einen Überblick über Ihre Ausgaben, Ersparnisse und Investitionen in einem personalisierten Dashboard, das alle Ihre Konten und Finanzdaten an einem Ort zusammenfasst.

  • Cloud-Drucklösungen spielen eine große Rolle

    Heutzutage lässt sich technischer Fortschritt kaum mehr mit dem bloßen Auge erkennen. Selten vergeht ein Tag ohne eine weitere Innovation, die für mehr Effizienz sorgt. Diese Entwicklung macht auch vor Druckern nicht Halt. Cloud-Lösungen ermöglichen zentrale Administration und Kosteneinsparungen bei lokalen Servern. Doch in diesem Zusammenhang geht die Tendenz eher in Richtung langsamer Wechsel in die Wolke. Warum ist das so? "In vielen Unternehmen - insbesondere aus Branchen, in denen sensible Daten auf der Tagesordnung stehen - herrschen Sicherheits- und Datenschutzbedenken.

  • Finanzbranche steht vor einem Wendepunkt

    Immer mehr traditionelle Banken erkennen endlich die Vorteile des Outsourcings, um ihren Weg zur Digitalisierung zu beschleunigen und so ihre Effizienz und Kundenzufriedenheit zu optimieren. In Deutschland bremsen jedoch regulatorische Anforderungen das Tempo der Transformation. Karl im Brahm, CEO von Objectway DACH, betont, dass Banken diese Hürden nur durch Kooperationen mit Fintechs überwinden können.

  • CPUs und DSAs für Cloud- und KI-Erfolg

    Die Chimäre ist in der griechischen Mythologie eine Kreuzung aus Löwe, Ziege und Schlange. Sie hat den Kopf des Löwen, den Körper der Ziege mit einem weiteren Ziegenkopf auf dem Rücken und den Schwanz der Schlange

  • Vertrauen gegenüber Generative AI schwindet

    Im letzten Jahr zeigten sich deutsche Unternehmen wenig beeindruckt von den Sicherheitsrisiken von ChatGPT und Co. Sie vertrauten den vielversprechenden Generative-AI-Anwendungen und ihren Vorteilen bedingungslos. Nun legen die Ergebnisse einer aktuellen Gigamon-Studie* jedoch nahe, dass die Skepsis gegenüber diesen Tools in den vergangenen zwölf Monaten zugenommen hat.

  • Bedeutung der Cyber-Sicherheit

    Wie in jedem Jahr, so hat auch in diesem die Firma IBM zusammen mit dem Ponemon Institute die Studie Cost of a Data Breach 2024 veröffentlicht. Die Ergebnisse sprechen Bände: Mit 4,88 Millionen US-Dollar (rund 4,50 Millionen Euro) je Sicherheitsverletzung im weltweiten Durchschnitt liegen diese Kosten 10 Prozent über dem Jahr 2023 mit 4,5 Millionen US-Dollar (rund 4,16 Millionen Euro) und erreichen ein Rekord-Hoch.

  • Sicherheit in der Cloud

    Der Cloud Computing-Markt wächst beständig weiter und ein Ende dieses Aufwärtstrends scheint nicht in Sicht zu sein. Laut Prognosen könnte er bis 2032 die Marke von gut 2,29 Milliarden US-Dollar knacken. Das würde einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 16,5 Prozent entsprechen.

  • Demokratisierung der Künstlichen Intelligenz

    Open Source basiert auf Zusammenarbeit und Transparenz. Dank dieser beiden unbestreitbaren Vorteile haben Open-Source-Lösungen das Potenzial, die Art und Weise zu revolutionieren, wie KI-Systeme entwickelt und eingesetzt werden. Ein offener Ansatz für Künstliche Intelligenz ist unerlässlich.

  • Wie KI den Customer Service revolutioniert

    Die IT-Branche ist ein Umfeld des ständigen Wettbewerbs. CIOs treiben heute die digitale Transformation voran und investieren in digitale Technologien, um die Effizienz und Rendite ihres Unternehmens zu maximieren. Da sie dafür nur wenig Zeit und Ressourcen für IT-Services aufwenden möchten, wenden sie sich immer mehr der generativen KI zu.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen