Sie sind hier: Startseite » Markt » Tipps und Hinweise

Kostenfallen im komplexen Projektmanagement


Sechs unerwartete Kosten einer Cloud-Migration und wie sie vermieden werden
Unternehmen sind – gewollt oder nicht – mit den Anforderungen eines aktiven Multi-Cloud-Managements konfrontiert


Von Thomas Köppner, Solution Consultant, Apptio

Bei Cloud-Strategien liegen die Tücken im Detail: Die variantenreichen Abrechnungsmodalitäten von Cloud-Providern und technische Fallstricke der eigenen IT-Infrastrukturen können Kostenvorteile schnell zunichte machen – es sei denn, so die Projekterfahrung von Apptio, Unternehmen wappnen sich mit Umsicht und Analysen gegen böse Überraschungen.

Mit den laufenden Digitalisierungsmaßnahmen haben Unternehmen bereits ein gutes Bewusstsein dafür entwickelt, dass sich die IT-Budgetplanungen und -Kostenstrukturen mit Cloud Computing-Umgebungen erheblich verändern. Doch es lauern kritische Kostenfallen, die im komplexen Projektmanagement einer Cloud-Migration schnell übersehen werden können.

Ein Thema, das Unternehmen auch im Cloud-Betrieb begleitet, wie eine aktuelle Studie von Harvard Business Review zeigt. Denn demnach ist zwar der Mehrwert, der aus dem Einsatz von Technologie resultiert, von höchster Bedeutung bei Budgetplanungen. Allerdings vertrauennur 62 Prozent den dazu verfügbaren Informationen. Die Hälfte der Befragten gibt an, dass sie den durch Technologieinvestitionen generierten Mehrwert nur ad hoc (31 Prozent) oder gar nicht (20 Prozent) messen, 16 Prozent tun dies nur zu bestimmten Projektmeilensteinen.

Aus derErfahrung mit Projekten zur Einführung von IT-Finanzmanagement hat Apptio die sechs wichtigsten Bereiche identifiziert, die Budgets einer Cloud-Migration sprengen können:

1. On-Premise-Verbindlichkeiten – sie beeinflussen Timing und Reihenfolge der Cloud-Migration
Bei der taktischen Planung, wann welche Workloads in die Cloud migriert werden sollen, stehen häufig geschäftsstrategische Kriterien im Vordergrund. Dabei werden allzu oft bestehende, dezentral verwaltete vertragliche Verpflichtungen übersehen, die mit dem bestehenden Rechenzentrum verbunden sind. Dies beginnt bei Mietverträgen und laufenden Abschreibungen der Hardware sowie deren Wartungs- und Support-Verträge, zu nennen sind zudem auch Aufwände in den Bereichen Asset Management, Administration und Audits.

Wichtig ist daher, vorab anhand der Laufzeiten die Gesamtkosten solcher On-Premise-Verträge zu klären, die parallel zum Cloud-Betrieb auflaufen. Dies erst ermöglicht eine realistische Kosten-Nutzen-Rechnung mit den nötigen Eckdaten, um ein kosteneffizientes Timing der Migration in die Cloud zu planen sowie zu entscheiden, in welchen Schritten bzw. in welcher Reihenfolge die Umstellung erfolgen sollte.

2. Fähigkeit zum aktiven Multi-Cloud-Management – für die nötige Korrelation zwischen technischem Monitoring und Kostenstrukturen
Die meisten Public-Cloud-Anbieter können aus einer Hand alle gängigen Cloud-Anforderungen erfüllen. Im Detail betrachtet variieren die Kosten und Leistungen allerdings, zudem soll die Abhängigkeit von nur einem Provider vermieden werden für eine ausgewogene Risikostreuung. Hinzu kommt, dass Multi-Cloud die Datensicherheit für Unternehmen unterstützt, indem Daten mit spezifischen Techniken codiert und über verschiedene Clouds verteilt werden für höheren Schutz vor Hackerangriffen und Datenverlusten.

So sind Unternehmen – gewollt oder nicht –mit den Anforderungen eines aktiven Multi-Cloud-Managements konfrontiert. Wer darauf technisch und organisatorisch mit entsprechenden Lösungen, Experten und Prozessen vorbereitet ist, vermeidet Kostenfallen – etwa durch Workload-Analysen für bessere Prognosen, Rightsizing und die Optimierung von Kosten, die aktive Nutzung der Elastizität von Cloud-Kapazitäten für Lastspitzen oder durch Monitoring, das ungenutzte Services oder Anomalien im Verbrauch identifiziert.

3. Abrechnungsvarianten – sie bestimmen die wirtschaftliche Kombination von Cloud-Services
Bei der Kostenschätzung und Budgetplanung für Cloud-Dienste ist es wesentlich zu verstehen, wie einzelne Cloud-Anbieter die Nutzung ihrer Ressourcen messen und nach welchen Kriterien abgerechnet wird – dies reicht von stundenweiser Abrechnung der Nutzung einzelner Instanzen über Kosten nach Datenmenge bis hin zum ausgehenden Datenverkehr in Gigabyte pro Monat, mit unterschiedlichen Commitments.

Das heißt, Unternehmen sollten einen möglichst detaillierten Einblick dazu haben, welche Cloud-Kapazitäten in welchen Qualitäten sie über welche Zeiträume in den verschiedenen Phasen der Cloud-Migration benötigen, um die optimale Kombination an Cloud-Services bzw. -Skalierung bei unterschiedlichen Anbietern zu beauftragen.

4. Von App-Performance bis Skalierung – verursachergerechte Kostenanalysen unterstützen Optimierung
Die Architektur und Performance von Anwendungen, was etwa den Bedarf an Arbeitsspeicher oder die Menge der Transaktionsdaten betrifft, spielt mit der zumeist großzügig dimensionierten Hardware in Rechenzentren kaum eine Rolle. Im Cloud-Betrieb kann das allerdings überraschend deutlich die Kosten in die Höhe treiben.

In Multi-Cloud-Umgebungen ist es ein oft unterschätzter Kostenfaktor, wenn durch Skalierung Anwendungen über Cloud-Grenzen hinweg Datenverkehr erzeugen. Viele Cloud-Provider berechnen nach ein- und ausgehendem Traffic. Hier ist es wichtig, dass die Kostenstrukturen bekannt sind und die Anwendungen nach Lastspitzen automatisiert wieder zurück skalieren.
Ähnliches gilt für Cloud-Speicher und andere Ressourcen, die beispielsweise DevOps-Teams in Projekten beanspruchen.
Bei der Cloud-Migration und im Betrieb ist daher von Beginn an eine verursachergerechte Kostenanalyse hilfreich, um schnell und gezielt steuernd eingreifen zu können.

5. Von Lift &Shift bis zu Altsystemen – sie bergen ungeahnte Kostenfallen
Von den vielen möglichen teuren Planänderungen bei Cloud-Migrationen sind zwei besonders hervorzuheben, die im Vorfeld durch genaue Prüfung vermieden werden können: Dies betrifft zunächst den beliebten "Lift &Shift"-Ansatz, bei dem schnell und ohne Anpassungen Anwendungen und Daten in die Cloud verschoben werden und selbst die einzelnen Cloud Services nicht auf die tatsächliche Nutzung dimensioniert wurden. Dieser vermeintlich günstige Weg kann eine unerwartete Kostenexplosion nach sich ziehen: Wenn erst im Nachhinein festgestellt wird, dass die Kosten der Public-Cloud-Infrastruktur deutlich teurer sind als die Rechenzentrums-Kosten und letztlich doch Architektur-Anpassungen für die Cloud erforderlich sind, verbunden mit erheblichem Projektierungsaufwand.

Ein weiterer Kostenfaktor kann durch Altsysteme bzw. Legacy Systems entstehen, die aus technischen Gründen nicht einfach migriert werden können, aber mit ihren Daten – zumeist aus rechtlichen Gründen – weiter vorgehalten werden müssen. Die Folge: On-Premise-Ressourcen können nicht im geplanten Maß abgeschaltet werden und belasten weiterhin IT-Budgets.

6. Exit-Strategie für On-Premise – mit konsequenten Analysen Redundanzen begrenzen
In der Übergangsphase sind redundante Kapazitäten in der Cloud und im Rechenzentrum unabdingbar. Diese Phase sollte mit einem konsequenten Monitoring der Workloads und Analysen des tatsächlichen Bedarfs in Korrelation zu den Kosten und deren Variablen bei dem/den Cloud-Anbietern verbunden sein. Neben der technischen Qualität stellt dieses Vorgehen sicher, dass Entscheidungen, wann welche Rechenzentrumskapazitäten abgeschaltet werden – oder eben nicht – rasch und konsequent getroffen werden können. Ansonsten droht die Gefahr, dass teure Redundanzen unnötig lange weitergeführt werden.

Fazit:
Die Umsetzung von Cloud-Strategien ist verbunden mit einem komplexen Wechselspiel zwischen Verbrauch und Kosten, das geprägt ist von unterschiedlichen technischen und wirtschaftlichen Variablen, die sich dynamisch verändern. Es braucht daher eine zeitnahe Verknüpfung zwischen IT- und Finanz-Monitoring mit Prozessen und Systemen, die gleichzeitig zu einer Cloud-Migration implementiert werden sollten. Dies mag für manche Unternehmen zunächst ungewohnt sein, aber es hilft nachhaltig, den optimalen wirtschaftlichen Mehrwert aus Cloud-Initiativen zu realisieren. (Apptio: ra)

eingetragen: 10.11.21
Newsletterlauf: 14.01.22

Apptio: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Tipps und Hinweise

  • Sicher modernisieren & Daten schützen

    Viele Unternehmen haben die Cloud-Migration ihrer SAP-Landschaften lange Zeit aufgeschoben. ERP-Anwendungslandschaften, sind über viele Jahre hinweg gewachsen, die Verflechtungen vielfältig, die Datenmengen enorm und die Abhängigkeit der Business Continuity von diesen Systemen gigantisch. Dennoch: Der Druck zur ERP-Modernisierung steigt und viele Unternehmen werden 2025 das Projekt Cloud-Migration mit RISE with SAP angehen.

  • Was tun mit ausgedienten Rechenzentren?

    Rund um die Jahrtausendwende begann in Deutschland ein wahrer Bauboom für Datacenter und Colocation-Flächen. Viele dieser Anlagen befinden sich auch heute noch in Betrieb. Doch die rasante Entwicklung der Informationstechnologie führt dazu, dass Rechenzentren in immer kürzeren Abständen modernisiert oder ersetzt werden müssen. Denn wann immer ein Betreiber den Spatenstich für ein neues Datacenter feiert, dürfen die Begriffe "Nachhaltigkeit" und "Umweltschutz" nicht fehlen.

  • Tipps für MSPs im Jahr 2025

    Ob durch technologische Innovationen, geschicktes Marketing oder eine starke Unternehmenskultur - mit den richtigen Maßnahmen können MSPs im Jahr 2025 nicht nur ihre Wettbewerbsfähigkeit steigern, sondern auch langfristig wachsen. Hier sind acht Tipps, die ihnen dabei helfen, das Jahr erfolgreich zu gestalten.

  • KI-Logik in der Unternehmenssoftware

    Für Unternehmen stellt sich nicht mehr die Frage, ob, sondern wie sie Künstliche Intelligenz für ihren Business Case nutzen. Der meist aufwändigen Implementierung von KI-Tools in bestehende Systeme sagt innovative Software jetzt den Kampf an - mit bereits in die Lösung eingebetteter KI. IFS, Anbieterin von Cloud-Business-Software, zeigt, wie Unternehmen anstatt der schwerfälligen Integration von externen Tools ein technologisches Komplettpaket erhalten, das sofort einsatzfähig ist.

  • Schutz von Cloud-Daten

    In der aktuellen Umfrage "2024 State of Cloud Strategy Survey" geben 79 Prozent der Befragten in Unternehmen an, dass sie Multicloud im Einsatz haben oder die Implementierung von Multicloud planen. Die Chancen stehen also gut, dass Multicloud-Strategien weiter zunehmen werden, wenngleich das nicht bedeutet, dass lokale und private Clouds verschwinden.

  • Das Herzstück des Betriebs

    Salt Typhoon mag ein Weckruf sein, aber es ist auch eine Gelegenheit, die Abwehrkräfte zu stärken und Unternehmen gegen aufkommende Bedrohungen zukunftssicher zu machen. Der Angriff hat Schwachstellen im Telekommunikations- und ISP-Sektor aufgedeckt, aber die daraus gezogenen Lehren gehen weit über eine einzelne Branche hinaus. Ob Telekommunikationsunternehmen, Internetdienstanbieter, SaaS-abhängiges Unternehmen oder Multi-Cloud-Unternehmen - Datensicherung muss für alle oberste Priorität haben.

  • Optimale Wissensspeicher

    Graphdatenbanken sind leistungsstarke Werkzeuge, um komplexe Daten-Beziehungen darzustellen und vernetzte Informationen schnell zu analysieren. Doch jeder Datenbanktyp hat spezifische Eigenschaften und eignet sich für andere Anwendungsfälle. Welche Graphdatenbank ist also wann die richtige? Aerospike empfiehlt Unternehmen, ihre Anforderungen unter vier Gesichtspunkten zu prüfen.

  • Zugang zu anfälligen Cloud-Hosts

    Zwischen 2023 und 2024 haben laut einer aktuellen Studie 79 Prozent der Finanzeinrichtungen weltweit mindestens einen Cyberangriff identifiziert (2023: 68 Prozent). Hierzulande berichtet die BaFin, dass 2023 235 Meldungen über schwerwiegende IT-Probleme eingegangen sind. Fünf Prozent davon gehen auf die Kappe von Cyberangreifern.

  • Wachsende SaaS-Bedrohungen

    Die jüngsten Enthüllungen über den massiven Cyberangriff von Salt Typhoon auf globale Telekommunikationsnetzwerke sind eine deutliche Erinnerung an die sich entwickelnde und ausgeklügelte Natur von Cyberbedrohungen. Während die Angreifer sich darauf konzentrierten, Kommunikation abzufangen und sensible Daten zu entwenden, werfen ihre Handlungen ein Schlaglicht auf ein umfassenderes, dringenderes Problem: die Unzulänglichkeit traditioneller Datensicherungsmethoden beim Schutz kritischer Infrastrukturen.

  • Einführung des Zero-Trust-Frameworks

    Die Cyber-Sicherheit entwickelt sich mit rasanter Geschwindigkeit, weshalb eine traditionelle Verteidigung den Anforderungen nicht mehr gerecht wird. Moderne Cyber-Bedrohungen bewegen sich inzwischen mühelos seitlich innerhalb von Netzwerken und nutzen Schwachstellen aus, die mit traditionellen Perimeter-Schutzmaßnahmen nicht vollständig behoben werden können.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen