Sie sind hier: Startseite » Markt » Tipps und Hinweise

Cloud-Trends werden Cloud-native


Ein Leben nach Jenkins: Consol stellt neue CI- und CD-Tools für Cloud-native Anwendungen auf den Prüfstand
Die DevOps-Methode soll den CI/CD-Circle beschleunigen. Cloud-native CI/CD Tools bringen diesen Prozess voran


Cloud-native Anwendungen stellen spezifische Anforderungen an die Softwareentwicklung und -bereitstellung. Klassische CI- und CD-Tools stoßen hier schnell an ihre Grenzen. Consol stellt drei neue CI- und CD-Projekte vor und beleuchtet ihr Potenzial. Im Zuge des allgemeinen Cloud-Trends werden Cloud-native Applikationen immer wichtiger. Sie basieren verstärkt auf Microservices-Architekturen, die neue Anforderungen an Continuous Integration (CI) und Continuous Delivery (CD) stellen. CI- und CD-Tools sowie Workflows müssen sich vor allem an die Geschwindigkeit und die Komplexität der Cloud-nativen Möglichkeiten anpassen.

"Klassische" CI- und CD-Tools wie Jenkins mit ihren Funktionalitäten sind hier weniger geeignet. Stattdessen rücken inzwischen vermehrt neue Tools ins Blickfeld, die direkt aus der Cloud-nativen Entwicklung heraus entstanden sind und somit keine "Altlasten" mit sich tragen. Wichtige Kriterien, die sie erfüllen sollten, sind unter anderem Hosting und Scheduling auf Kubernetes, Container als Pipeline-Schritte, Web-UI und "Pipeline as Code".

Consol stellt drei neue Projekte beziehungsweise Tools vor.

1. Argo
Das Argo-Projekt besteht im Kern aus der gleichnamigen Workflow-Engine, die explizit für Kubernetes entworfen wurde. Argo-Workflows bestehen aus einer Reihe von beliebigen Containern, die über die üblichen Container-Schnittstellen parametrisiert werden. Die Bestandteile der Lösung, die Workflow-Engine selbst und das "Argo Events" genannte Event-Subprojekt, sind sehr schnell installiert. Die Installation umfasst im Wesentlichen vier Controller-Pods und das UI-Pod und ist somit leichtgewichtig. Argo kann problemlos dezentral pro Projekt installiert werden.

Dem Projekt ist anzumerken, dass es sich generisch auf Workflows spezialisiert und nicht speziell auf Continuous Integration zugeschnitten ist. Dennoch ist es möglich, aus den Argo-Komponenten eine effektive und vor allem flexible CI-Pipeline aufzubauen. Dazu existieren diverse Beispiele in den Repositories des Herstellers. So kann etwa via Argo Events eine Webhook-URL eingerichtet werden. Bei Aufruf startet sie einen Argo-Workflow als Pipeline, dessen Definition aus dem Git-Repository zu laden ist. Das Repository wird im Payload des Aufrufs angegeben. Damit ergibt sich letztlich eine "Pipeline as Code"-Funktionalität.

Für die Konfiguration sowohl der Workflows als auch der Event-Handler verwendet Argo ausschließlich Kubernetes-Objekte und Custom Resources. Das relativ spartanische, aber funktionale Web-Dashboard informiert über den aktuellen Stand der Workflows. Ein Command Line Client für das Definieren und Starten der Pipelines und ein separates Tool namens "Argo CD" für den Aspekt Delivery runden das Angebot ab.

2. InfraBox
InfraBox von SAP wird als "Cloud Native Continuous Integration System" positioniert und setzt ebenfalls auf Kubernetes auf. Das Deployment besteht aus einer größeren Menge an Pods inklusive einiger externer Abhängigkeiten und ist deswegen nicht mehr wirklich leichtgewichtig zu nennen.

Allerdings ist InfraBox das Tool mit der breitesten Feature-Palette. Es bringt bereits eine eigene Docker-Registry mit und laut Dokumentation werden viele Einsatzszenarien unterstützt, unter anderem auch eine Multi-Cluster-Installation, die sich über mehrere Cloud Provider erstrecken kann. Sogar eine integrierte Unterstützung für die Provisionierung von End-2-End-Testumgebungen ist vorhanden.

Auch InfraBox setzt auf Custom Resource Definitions, um Pipelines, Funktionen und die Ausführung dieser Artefakte zu verwalten. Die Pipelines laufen in einem dedizierten Namespace "infrabox-worker", was aber eher schlecht zu dezentralen Pipelines passt.

Die Pipeline-Schritte nennt InfraBox "Jobs". Es gibt mehrere Job-Typen mit vorgefertigten Funktionen, etwa um Repositories auszuchecken oder Images in die Registry zu übertragen. Darüber hinaus existiert aber auch ein generischer Job-Typ "docker-image", der beliebige Images ausführen kann.

Nicht zuletzt sind noch erwähnenswert das Web-UI, das vergleichsweise komfortabel ist und die Möglichkeit benutzerdefinierter Darstellungen bietet, und das Command Line Interface "infraboxcli", das den Entwickler beim lokalen Debugging von Jobs unterstützt.

3. Tekton und Jenkins X
Tekton ist ein sehr junges Projekt. Ursprünglich ging es aus Googles "Knative"-Produkt hervor, einer standardisierten Plattform für Serverless-Applikationen auf Kubernetes. Tekton ist der extrahierte Kern der "Build"-Komponente von Knative. Das Projekt wird von der ebenfalls erst vor Kurzem gegründeten "Continuous Delivery Foundation" verwaltet, die nach eigenen Aussagen der Fragmentierung der CI- und CD-Landschaft entgegentreten will. Neben Google und weiteren Unternehmen ist hier auch CloudBees Mitglied. Der Jenkins-Hersteller plant, Tekton als alternative Engine seiner eigenen Cloud-nativen CI- und CD-Lösung "Jenkins X" zu nutzen. Jenkins X besteht bisher aus dem bekannten Jenkins plus Kubernetes-Anbindung und speziellem Tooling. Aktuell ist diese Integration aber noch experimentell.

Als dedizierte Cloud-native Lösung macht Tekton einiges richtig. Sie basiert vollkommen auf Kubernetes-Scheduling und Pipelines werden als einzelne Pods mit mehreren Containern als Build-Schritte ausgeführt, die unter voller Kontrolle der Pipeline-Definition stehen. Das Interfacing ist "sauber", das heißt, es gibt keine proprietären Kommunikationswege zwischen CI und Container. Als Image-Build-Tool wird "Kaniko" propagiert. Die Installation ist leichtgewichtig und es gibt zwei zentrale Verwaltungs-Pods. Die Pipelines selbst werden als Custom Resources in den jeweiligen Projekten definiert und dort auch ausgeführt.

Bei Tekton handelt es sich allerdings noch um ein Projekt im Aufbau – die aktuelle Version ist 0.8.0 – vor allem auch im Hinblick auf die Dokumentation. Konzepte wie Webhook-Verarbeitung und ein Command Line Interface sind vorgesehen. "Pipeline as Code" mit Bezug der Definition aus einem Code-Repository wird zumindest im Zusammenspiel mit Jenkins X vermutlich möglich sein. CloudBees hat bereits in Aussicht gestellt, eine automatische Migration der herkömmlichen Jenkins-Files in das neue Format anzubieten.
"Alle drei vorgestellten Lösungen befinden sich auf einem guten Weg, das CI- und CD-Erbe von Jenkins anzutreten, da sie die aus unserer Sicht erforderlichen Kriterien erfüllen, auch wenn sie verschiedene Ansätze verfolgen und unterschiedliche Anforderungen abdecken", erklärt Oliver Weise, Senior Software Engineer bei Consol. "Das Argo-Projekt beinhaltet ein umfassendes Tool-Set für Workflows auf Kubernetes, bei dem CI nur ein Anwendungsfall unter anderen ist. InfraBox ist im Gegensatz dazu eine klassische, zentralistische Lösung mit einem reichen Feature-Set, schlüsselfertigen Funktionalitäten und dem von Jenkins gewohnten Komfort. Und Tekton als zukünftige Engine von Jenkins X ist aktuell eher noch als eine perspektivische Lösung zu betrachten, verspricht aber durchaus, eine hochinteressante Alternative zu werden." (Consol: ra)

eingetragen: 04.11.19
Newsletterlauf: 19.12.19

Consol: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Private AI verfolgt einen Plattform-Ansatz

    Der Einzug der generativen KI (GenAI) in die breite Öffentlichkeit hat das KI-Wachstum in Unternehmen vergangenes Jahr beschleunigt. Motiviert durch Wettbewerbsdruck und potenzielle Vorteile forcieren Unternehmen und Regierungen ihre KI-Strategie.

  • Mangelnde Vorbereitung auf SaaS-Ausfälle

    Der Hycu State of SaaS Resilience 2024 Report deckte zuletzt kritische Datensicherungslücken auf, da 70 Prozent der Unternehmen Datenverluste erleiden. Trotzdem verlassen sich 60 Prozent immer noch auf ihre Software-as-a-Service (SaaS)-Anbieter, um sich zu schützen, und setzen sich damit weiteren Risiken aus.

  • KI gewinnbringend einsetzen

    Das KI-Potenzial ist praktisch unerschöpflich. Doch um es richtig zu nutzen und daraus echte Wettbewerbsvorteile zu generieren, muss vorab die Bereitschaft des Unternehmens dafür geklärt werden. Der IT-Dienstleister CGI erklärt, warum der Readiness-Check so wichtig ist, was er genau analysiert und was mit den daraus gewonnenen Erkenntnissen passiert.

  • Herausforderungen von Edge AI

    Künstliche Intelligenz hat längst den Netzwerkrand erreicht. Um zeitkritischen Daten den Umweg über die Cloud und das Rechenzentrum zu ersparen, bringen Edge-AI-Lösungen Modelle direkt in die Anwendungen vor Ort. Dieser Weg bietet immense Vorteile - er ist aber auch mit einigen Stolpersteinen gepflastert, wie Couchbase, Anbieter einer Cloud-Datenbankplattform, zeigt.

  • Cloud-Datenschutz im Gesundheitswesen

    Daten im Gesundheitswesen gehören zu den kritischsten Vermögenswerten. Sie umfassen hochsensible Informationen wie Krankengeschichten, Behandlungsunterlagen und persönliche Daten. Der Schutz dieser Daten ist von größter Bedeutung, da sie durch nationale und globale Vorschriften als besondere Kategorien personenbezogener Daten eingestuft werden.

  • Generative KI mit Serverless optimieren

    Der Einsatz von generativer KI kann komplex und teuer sein. Serverlose Cloud-Dienste und Vektordatenbanken bieten eine Lösung, um diese Hürden zu überwinden und KI-Anwendungen effizient und skalierbar zu gestalten.

  • Sensible Daten in der Cloud schützen

    Wenn Unternehmen in der Cloud geistiges Eigentum oder persönliche Informationen verlieren, drohen ihnen erhebliche Konsequenzen. Mit den richtigen Maßnahmen für Datensicherheit in der Cloud können sie zuverlässig Vorsorge treffen. Forcepoint erläutert die fünf wichtigsten davon. Datensicherheit in der Cloud wird für Unternehmen zunehmend zu einem kritischen Bestandteil ihrer IT-Infrastruktur.

  • Dank der Cloud: Flexibilität und Skalierbarkeit

    Cloud-Marktplätze sind heute zu einem unverzichtbaren Dreh- und Angelpunkt für unabhängige Softwareanbieter (ISVs) geworden, um ihre Reichweite zu vergrößern, den Verkaufsprozess zu rationalisieren und Wachstum zu fördern. Erfolg ist jedoch nicht allein dadurch garantiert, dass ein Produkt auf einem Marktplatz gelistet ist.

  • Beste Rendite für Serverinvestitionen?

    Laut Statista schätzen IT-Experten weltweit im Jahr 2024 eine Aufteilung von fast 50/50 zwischen Onsite- und Cloud-gehosteten Servern in ihren Unternehmen. Aufgrund der riesigen Datenmengen und der zunehmenden Nutzung von KI, werden künftig immer mehr Server benötigt.

  • Digitale Transformation kommt nicht ins Rollen?

    Dass die Digitalisierung unaufhaltsam voranschreitet, ist keine Neuigkeit mehr, trotzdem haben bislang viele deutsche Unternehmen den entscheidenden Schritt zur digitalen Transformation noch nicht gewagt. Die Corona-Pandemie hat als Katalysator für einen Digitalisierungsschub gesorgt und viele Prozesse auf den Prüfstand gestellt.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen