- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Fünf Mythen über den Cloud-Einsatz


Die Public Cloud kann erhebliche Einsparungen gegenüber der klassischen Infrastruktur bieten, wenn sie für die entsprechenden Workloads genutzt wird
Die Private Cloud kann sich bei vielen anderen Workloads als wirtschaftlicher erweisen

- Anzeigen -





Wenn Menschen mit Komplexität und Unsicherheit konfrontiert werden, erschaffen sie Mythen, die ihnen helfen, damit umzugehen. Diese Tendenz zeigt sich seit der Zeit der griechischen Ependichter bis heute – und lässt sich auch mit Blick auf den sich schnell verändernden Marktplatz für Cloud Computing-Lösungen und die damit verbundenen Komplikationen der modernen IT beobachten. Aus der täglichen Zusammenarbeit mit Unternehmen heraus, hat Rackspace die fünf häufigsten Missverständnisse zum Cloud Computing-Einsatz zusammengestellt – zusammen mit den Fakten, wie sie von smarten Cloud Computing-Anwendern verstanden werden.

Mythos 1: Der Umzug in die Cloud mündet automatisch in der Public Cloud
Die Fakten: Einige Anbieter bieten nur Public Cloud-Lösungen an und argumentieren, dass diese alle Anforderungen eines Unternehmens abdecken. Die Wahrheit ist: In einem Enterprise-Application-Portfolio gibt es keine Einheitslösung. Für einige Anwendungen kann die Public Cloud die kostengünstigste Plattform sein. Für andere Anwendungen kann sie die teuerste sein. Daher ist es wichtig, die optimale Plattform für jede Anwendung auszuwählen. Nur so kann sie das leisten, was ein Unternehmen in Bezug auf Kosten, Performance, Zuverlässigkeit und Sicherheit benötigt.

Mythos 2: Public Cloud bietet immer eine bessere Leistung – und das bei geringen Kosten
Die Fakten: Die Public Cloud kann erhebliche Einsparungen gegenüber der klassischen Infrastruktur bieten, wenn sie für die entsprechenden Workloads genutzt wird. Die Private Cloud kann sich bei vielen anderen Workloads als wirtschaftlicher erweisen. Die Erfahrungen unserer Kunden sowie detaillierte Analysen zu Preisen und Nutzungsverhalten zeigen, dass Private Cloud as a Service (PCaaS) bei vielen Unternehmensanwendungen 30 bis 59 Prozent im Vergleich zu Public Cloud-Lösungen einsparen kann. PCaaS ist eine innovative Methode, um Private Cloud-Funktionen bei Bedarf über Cloud-APIs und mit Optionen für flexible, umlageorientierte Preise bereitzustellen. Damit vereint sie viele der Vorteile von Public Cloud und Private Cloud. Die Kosteneffizienz kann sich sowohl im Festpreis- als auch im Pay-as-you-go-Modell manifestieren.

Mythos 3: Der einzige Weg, IT on Demand zu liefern, führt über die Public Cloud
Die Fakten: Diese These galt früher. Heute aber lässt sich IT on Demand mit einer Private Cloud oder mehreren Clouds in verschiedenen Konfigurationen liefern – On-Premises oder gehostet, mit jährlicher oder Pay-as-you-go-Abrechnung. Mit diesen Konfigurationen behält die zentrale IT-Abteilung die Kontrolle über die Unternehmensarchitektur und sorgt für einen optimalen Mix aus Kosteneinsparungen, Performance, Zuverlässigkeit und Sicherheit. Anwendungen und deren Daten werden so leichter integriert. Mit diesem Ansatz können Unternehmen Doppelspurigkeiten, Kosten und Sicherheitsrisiken vermeiden, die dadurch entstehen, dass mehrere Abteilungen Schatten-IT-Implementierungen über öffentliche und interne Clouds hinweg betreiben.

Mythos 4: Unternehmen mit umfangreichen Verpflichtungen für Rechenzentren und Hardwareinvestitionen erleiden hohe Verluste, wenn sie in die Cloud wechseln
Die Fakten: Mit einer Kombination aus Public und Private Clouds sowie Colocation können Unternehmen einen sofortigen ROI erzielen und gleichzeitig den maximalen Wert aus ihren Investitionen in Rechenzentren herausholen. Smarte Cloud-Einsteiger arbeiten mit Managed Service Providern zusammen, die ihnen dabei helfen, herauszufinden, welche Anwendungen auf welchen Plattformen in welchen Einrichtungen am kostengünstigsten laufen. Eine der attraktivsten Lösungen für Unternehmen, die an umfangreiche Verpflichtungen für Rechenzentren gebunden sind liegt darin, Private Clouds als Service innerhalb dieser Datacenter zu erstellen und moderne Cloud-Funktionen als schlüsselfertigen, vollständig verwalteten Service bereitzustellen. Unternehmen profitieren so von den Vorteilen der Cloud und erzielen gleichzeitig eine hohe Rendite für ihre Investitionen in Rechenzentren.

Mythos 5: Die Public Cloud ist das Epizentrum der IT-Innovation
Die Fakten: Die großen Public Cloud-Anbieter führen Innovationen in der Tat sehr schnell ein und veröffentlichen täglich eigene neue Dienste und Funktionen. Dennoch bringt die Open-Source-Community mehr Innovation hervor, als ein einziger, proprietärer Cloud-Anbieter. Die neuesten Zahlen verraten uns, dass etwa zwei Millionen Entwickler an Open-Source-Projekten mit einem geschätzten FuE-Wert von mehr als 400 Milliarden US-Dollar arbeiten, verglichen mit 115.000 Entwicklern, die für einen großen Public Cloud-Anbieter an Projekten im Wert von etwa 23 Milliarden US-Dollar arbeiten. Beliebte und leistungsstarke Managementsysteme für unstrukturierte Daten und Frameworks für Big Data, künstliche Intelligenz und Internet of Things Frameworks – sie alle sind in einer Vielzahl von Private und Public Clouds verfügbar.

Fazit: Smarte Cloud-Anwender wählen die optimale Plattform für jede ihrer Anwendungen auf der Grundlage von Fakten und nicht von Mythen aus. Die erfolgreichsten Cloud-Einsteiger suchen sich einen unabhängigen, erfahrenen Partner mit Fachwissen über alle führenden Public und Private Cloud-Technologien. Er kann ihre Geschäftsanforderungen und -pläne bewerten und ihnen helfen, die richtige Cloud-Plattform für jeden Workload zu finden.
(Rackspace: ra)

eingetragen: 18.12.18
Newsletterlauf: 04.02.19

Rackspace: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Datenstrategie braucht mehr als Tools

    Die Menschheit produziert 2,5 Trillionen Bytes pro Tag. In den letzten zwei Jahren wurden mehr Daten gesammelt, als in der gesamten Menschheitsgeschichte zusammen. Für jeden Menschen entstehen pro Sekunde 1,7 Megabyte neue Rohinformationen. Kurzum: Die Datenflut ist unaufhaltsam. Wobei diese Datenflut nicht automatisch bedeutet, dass daraus auch Wissen entsteht. Daten und Informationen an sich haben zunächst keinen Wert. Sie sind wie Rohdiamanten, die erst durch ihre Verarbeitung Brillanz gewinnen. Auch für Unternehmen entfalten Kundendaten erst ihren Wert, wenn sie ausgewertet einen Erkenntnisgewinn liefern, der zu neuen Handlungsoptionen führt. Das bedeutet, dass Unternehmen eine Datenstrategie brauchen, die ihre Geschäftsprozesse fundiert und leitet.

  • Fünf Mythen über den Cloud-Einsatz

    Wenn Menschen mit Komplexität und Unsicherheit konfrontiert werden, erschaffen sie Mythen, die ihnen helfen, damit umzugehen. Diese Tendenz zeigt sich seit der Zeit der griechischen Ependichter bis heute - und lässt sich auch mit Blick auf den sich schnell verändernden Marktplatz für Cloud Computing-Lösungen und die damit verbundenen Komplikationen der modernen IT beobachten. Aus der täglichen Zusammenarbeit mit Unternehmen heraus, hat Rackspace die fünf häufigsten Missverständnisse zum Cloud Computing-Einsatz zusammengestellt - zusammen mit den Fakten, wie sie von smarten Cloud Computing-Anwendern verstanden werden.

  • Digitalisierung setzt Fachabteilungen unter Druck

    In vielen Unternehmen ist das Data Warehouse in die Jahre gekommen. Gleichzeitig wachsen die Anforderungen der Fachabteilungen. Mit IoT und der Digitalisierung kommen zudem neue Herausforderungen hinzu. Ist das Data Warehouse all dem noch gewachsen? Ein Health-Check kann den Durchblick bringen. Das Data Warehouse (DWH) bildet das Fundament für Business Intelligence und Data Analytics-Plattformen. Es dient als zentraler Speicher für alle unternehmensrelevanten Daten, bereitet sie auf, setzt sie in Relation und stellt sie für Auswertungen zur Verfügung. Fachabteilungen ziehen daraus Kennzahlen und erstellen Berichte. Die meisten Unternehmen haben ihr Data Warehouse schon viele Jahre in Betrieb. Seit es damals aufgebaut wurde, hat sich jedoch einiges geändert. Durch die fortschreitende Digitalisierung ist das Datenvolumen enorm gewachsen. Gleichzeitig steigen die Anforderungen der Fachabteilungen. Sie benötigen ihre Auswertungen so schnell wie möglich und fordern immer wieder neue Kennzahlen ein, die erst einmal ins Data Warehouse integriert werden müssen. Oft ist das aufgrund der gewachsenen Komplexität schwierig. Erfüllt Ihr DWH noch die aktuellen Anforderungen und ist es für die Zukunft gewappnet? Die folgenden Fragen bringen es ans Licht.

  • Cloud- oder DevOps-Infrastrukturen

    In der jüngeren Vergangenheit wuchs unter IT-Fach- und Führungskräften die Überzeugung, dass Public Key Infrastruktur (PKI) eine veraltete Technologie und damit überflüssig sei. Ganz im Gegenteil, meinen die IT-Sicherheitsexperten der PSW Group, denn in Zeiten, in denen die Cloud, DevOps, IoT und Blockchain immer mehr an Bedeutung gewinnen, werden stärkere Sicherheitsvorkehrungen benötigt. Die PKI ist eine Sicherheitsinfrastruktur, die dazu dient, Services für den sicheren Datenaustausch zwischen den Anwendern bereitzustellen. Durch die PKI lassen sich digitale Zertifikate bereitstellen, verteilen sowie prüfen. Weiter kann die Zugehörigkeit von Public Keys sowie die Echtheit der Zertifikate zuverlässig bestätigt werden.

  • Oft ist Outsourcing-Aufwand größer als der Nutzen

    Fachkräftemangel, Ressourcenknappheit, Wettbewerbsdruck: Die Gründe, warum Unternehmen Geschäfts- und IT-Abläufe auslagern, sind vielfältig. Eine Studie der Consultants von Axxcon kommt in diesem Zusammenhang zu dem Ergebnis, dass 81 Prozent der befragten Geschäftsführer und CIOs IT-Funktionen bereits ausgelagert haben, Tendenz steigend. Das Fraunhofer-Institut für Systemtechnik und Innovationsforschung (ISI) warnt jedoch: Oft ist der Outsourcing-Aufwand größer als der Nutzen. "Statt externe Partner im In- oder Ausland ins Boot zu holen, sollten Unternehmen die Möglichkeiten der Robotic Process Automation (RPA) nutzen", raten jetzt die deutschen RPA-Experten von Another Monday. Das Unternehmen informiert, in welchen Unternehmensbereichen Software-Roboter mehr bewirken und bessere Arbeit leisten als externe Outsourcing-Firmen.

  • Eindämmung der Schatten-IT

    Nicht nur die DSGVO macht es deutlich: In Zukunft stehen die Daten im Zentrum der IT-Sicherheitsstrategie. Dieser Strategiewechsel gestaltet sich für einige Unternehmen angesichts der wachsenden Migration in die Cloud als schwierig, da zu jeder Zeit sowohl der Überblick als auch die Kontrolle über sämtliche erhobenen Daten gefordert ist. Um diese Herausforderung meistern zu können, sind Cloud Access Security Broker (CASBs) entwickelt worden. Worauf Unternehmen bei der Auswahl achten sollten, erläutert der nachstehende Artikel.

  • Auf dem Weg ins Internet der Dinge

    Von smarten Haushaltsgeräten und Wearables, über intelligente Verkaufsautomaten und Self-Service-Kassen bis hin zu Connected Cars und der vernetzten Fabrik - das Internet der Dinge wächst unaufhaltsam. Über 20 Milliarden IoT-Geräte erwartet das Analystenhaus Gartner bis 2020. McKinsey prognostiziert dem Internet of Things für 2025 einen potentiellen Marktwert zwischen vier bis elf Billionen Dollar jährlich. Doch bei allem Potenzial hat IoT noch nicht den breiten Markt für Unternehmen erreicht, mit Ausnahme einiger Sektoren wie beispielsweise Energieversorgung und Logistik. Für viele Organisationen ist es noch ein weiter Weg, ihre Systeme mit Konnektivität und innovativen Softwaresystemen auszustatten, die die Effizienz und Kosteneinsparung des IoT-Konzepts ermöglichen.

  • Automation verbessert Security-Status deutlich

    Automation ist der entscheidende Faktor, der den Cloud-Erfolg sichert, meint NTT Security, das auf Sicherheit spezialisierte Unternehmen und "Security Center of Excellence" der NTT Group. Zwei Komponenten sind dabei ein Muss: die Compliance Automation und die Continuous Configuration Automation. NTT Security unterstützt Unternehmen bei der Realisierung von Automationsprojekten mit umfassendem Consulting. Immer mehr Unternehmen gehen in die Cloud, gerade die Nutzung von Infrastructure-as-a-Service (IaaS)-Angeboten liegt im Trend. Dabei wird nach Meinung von NTT Security vielfach übersehen, dass ein erfolgreiches IaaS-Deployment Automation voraussetzt, weil nur so das in der Cloud unerlässliche Sicherheitsniveau dauerhaft bereitgestellt werden kann.

  • Sechs Gründe für Datenvirtualisierung

    Im Zeitalter von Big Data und Cloud Computing, mit explodierendem Datenvolumen und zunehmender Datenvielfalt, können es sich Unternehmen nicht mehr leisten, zahlreiche Kopien und Reproduktionen der Daten zu speichern, die sie für ihr Geschäft benötigen. Deshalb werden bis 2020 mehr als ein Drittel (50 Prozent) der Unternehmen laut Gartner eine Form der Datenvirtualisierung als effiziente und kostensparende Option für die Datenintegration implementieren. Wie profitieren Unternehmen genau davon? Denodo zeigt die sechs wichtigsten Gründe auf, die für den Einsatz von Datenvirtualisierung sprechen.

  • Herausforderung: Budget-Flexibilität

    Der Multi-Cloud-Ansatz setzt sich zunehmend durch. Der Weg in die Multi-Cloud muss jedoch begleitet werden von einem Umdenken bei der Planung von IT-Budgets. Andernfalls können die Vorteile der Multi-Cloud nicht optimal ausgeschöpft werden. Bis 2019 wird der Anteil der Unternehmen, die einen Multi-Cloud-Ansatz verfolgen, auf 70 Prozent steigen - prognostiziert die Gartner Studie "Market Trends: Multi-Cloud Usage Will Drive Cloud Management Platform Growth". Hauptgrund für diese Entwicklung ist die höhere Flexibilität, die die Multi-Cloud bietet. Sie eröffnet Unternehmen die Möglichkeit, sich für die jeweils optimale Lösung zu entscheiden.