Sie sind hier: Startseite » Markt » Hintergrund

Das SDDC bietet mehr Flexibilität


In fünf Schritten zum Software Defined Data Center
Mit dem Software Defined Data Center das bieten, was im Rahmen des Cloud Computing eigentlich unmöglich ist

(21.05.14) - Das Software Defined Data Center (SDDC) liegt im Trend. Mehr und mehr Unternehmen denken darüber nach, ihr klassisches Rechenzentrum zu einem SDDC auszubauen. Nexinto zeigt die fünf wichtigsten Schritte auf dem Weg dorthin. Herkömmliche Cloud Computing-Angebote sind standardisiert und für viele Unternehmen daher ausreichend an die jeweiligen Anforderungen anpassbar. Das SDDC bietet hier mehr Flexibilität. Es kann individuelle Anforderungen abdecken und ist durch Virtualisierung doch soweit standardisiert, dass sich für die Nutzer deutliche Vorteile bei den Kosten und der Flexibilität der Inanspruchnahme ergeben. Mit dem SDDC-Konzept lassen sich die Ressourcen eines externen Rechenzentrums schnell und einfach nutzen.

In einem Software Defined Data Center (SDDC) sind alle Server-, Storage- und Netzwerk-Ressourcen über eine Software-Schicht virtualisiert. Von den individuellen Anforderungen an IT-Services für die Bereitstellung und Verwaltung von Ressourcen wird dabei über ein intelligentes Software-Management abstrahiert.

Das sind die fünf Schritte, die Anwender zum SDDC führen:

1.
Am Anfang steht – wie immer – ein Gespräch mit dem Consulting des Providers zur Aufnahme der Anforderungen für IT-Services, Policies, Abrechnung und Lifecycle-Management, also alles was für den Betrieb einer Lösung nötig ist und was dann auch in die SLA- und in die Kostenkalkulation eingeht.

2. Der SDDC-Provider stellt die benötigten Ressourcen über einen logischen Software-Layer bereit: Dieser abstrahiert die IT-Services von der Technik; er nimmt zum Beispiel Informationen über die benötigten CPU-Kerne und RAM-Kapazitäten, Storage-Volumen und Netzwerk-Adressen auf und leitet sie über APIs an die darunter liegende Infrastruktur weiter.

3. Nach Bereitstellung der virtualisierten Ressourcen wird über eine Automatisierungs- und Orchestrierungs-Engine die Installation des abgestimmten Betriebssystems sowie weiterer grundlegender Softwarekomponenten über das Netzwerk vorgenommen.

4. Anschließend übernimmt das Software-Management die Installation von Applikationen und Standard-Diensten für den jeweiligen IT-Service. Dazu werden die individuellen Anforderungen in logische Funktionalitäten umgesetzt, die mittels API jederzeit abgerufen werden können. Anstatt für jeden Kunden eine eigene Infrastruktur zu definieren und zu implementieren, werden die Definitionen in den Software-Layer verlagert und sind damit für künftige Anforderungen als Templates wiederverwendbar.

5. Innerhalb des Life-Cycle-Managements erfolgen Änderungen an den Hard- oder Softwarekomponenten für diese IT-Services nur noch über das zentrale Software-Management. Werden IT-Services außer Betrieb genommen, so werden die betreffenden Infrastruktur-Ressourcen ebenfalls über das zentrale Software-Management wieder freigegeben und stehen für eine erneute Verwendung bereit.

In diesem Prozess werden nicht nur die Ressourcen der Infrastruktur verteilt, sondern auch die sonstigen Funktionen, die man zum Betrieb benötigt, also Performance-, Kapazitäts- und Availability-Management. Ziel ist ein ganzheitliches Lifecycle-Management der Services und aller beteiligten Ressourcen. Damit lassen sich dann beispielsweise auch Engpässe oder Überlastungen rechtzeitig erkennen.

Die durch das SDDC-Konzept erreichte Automatisierung der Konfiguration der Infrastruktur sorgt für hohe Effizienz und niedrige Kosten. Vor allem aber lassen sich die Ressourcen auf diese Weise in sehr kurzer Zeit bereitstellen: Von den Anforderungen eines neuen Services bis zur Bereitstellung in der virtuellen Umgebung dauert es oft nur wenige Minuten.

"Mit dem Software Defined Data Center können wir etwas bieten, das im Rahmen des Cloud Computing eigentlich unmöglich ist: die individuelle Konfiguration standardisierter Ressourcen", erklärt Diethelm Siebuhr, CEO der Nexinto Holding in Hamburg. "Das schließt eine Lücke, die zuletzt ein starkes Hindernis für das Cloud Computing darstellte, etwa wenn es darum ging, bestimmte Orte für die Speicherung von Daten vorzuschreiben. Im Rahmen des SDDC lassen sich solche Anforderungen problemlos realisieren." (Nexinto: ra)

Nexinto: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • KI in der Abonnementwirtschaft

    Künstliche Intelligenz (KI) ermöglicht es Unternehmen heute mehr denn je, personalisierte Angebote für Produkte und Services zu erstellen. Im Business-to-Business (B2B) -Umfeld, birgt KI beispielsweise neue Möglichkeiten zur Abonnementverwaltung von Geschäftskunden oder verbessert die Kundenerfahrung.

  • Sicherheitsrisiken minimieren

    Retarus hat fünf zentrale Trends identifiziert, die die digitale Geschäftskommunikation im kommenden Jahr nachhaltig prägen werden. Diese Entwicklungen spiegeln nicht nur technologische Fortschritte wider, sondern auch die Verantwortung von Unternehmen.

  • Multi Cloud-Strategien werden immer wichtiger

    Die SEP wirft einen Blick in die Zukunft der Backup-Branche. Basierend auf umfangreichem Feedback von Partnern und Kunden benennt der führende deutsche Hersteller von Backup- und Disaster-Recovery-Software "Made in Germany", die fünf wichtigsten Trends für 2025. Dazu zählen Multi-Cloud, Schutz gegen Cyber Security und eine hohe Dynamik durch die Suche nach alternativen Virtualisierungslösungen wie Proxmox.

  • Cloud-Sicherheit bleibt entscheidend

    Tata Consultancy Services (TCS), eine der weltweit führenden IT-Beratungs- und Servicegesellschaften, hat seinen Cybersecurity Outlook 2025 veröffentlicht - eine Übersicht der relevanten Technologietrends und Schwerpunktthemen für das kommende Jahr. Danach werden Generative Künstliche Intelligenz (GenAI), Cloud-Sicherheit und widerstandsfähige Lieferketten für Unternehmen entscheidend sein, um künftige Cyber-Bedrohungen - auch durch die zunehmende Verbreitung von Next-Gen-Technologien - erfolgreich abzuwehren.

  • Erfolg generativer KI-Strategien in der Cloud

    2024 hat künstliche Intelligenz die Cloud-Landschaft geprägt und sowohl die Effizienz als auch die Entscheidungsfindung verbessert. Die Fortschritte in der KI haben die Nachfrage nach der Cloud angekurbelt, indem sie die Kosten der Cloud durch Optimierungsstrategien gesenkt, Sicherheitspraktiken verbessert und IT-Systeme automatisiert haben. Auch wenn die Richtung klar ist, werden 2025 zahlreiche neue Technologien die Grenzen von Cloud Computing erweitern.

  • Cloud-Strategien für mehr Sicherheit

    Künstliche Intelligenz (KI) und Quantentechnologien entwickeln sich rasant weiter. Dies treibt die Risiken von Cyberangriffen in neue Höhen. Unternehmen sind gefordert, sich intensiver denn je mit der veränderten Bedrohungslage auseinanderzusetzen und ihre IT-Sicherheit anzupassen.

  • Industrielle KI wird erwachsen

    Industrie 5.0, mehr Nachhaltigkeit, Kampf gegen den Arbeitskräftemangel: IFS prognostiziert, welche Herausforderungen die Fertigungsbranche im Jahr 2025 mit Hilfe von Künstlicher Intelligenz angehen wird.

  • Wohin zieht die Cloud?

    Jerome Evans, Gründer und Geschäftsführer der firstcolo GmbH, blickt voraus und betrachtet die anstehenden Entwicklungen rund um die Cloud in 2025: Die Einführung der Cloud hat nicht nur unsere Arbeitsweise, sondern auch unseren Alltag verändert.

  • Generative KI-Inferenz im Fokus

    Die fortschreitende Entwicklung der IT-Landschaft bringt neue Trends mit sich, die 2025 die Technologienutzung in Unternehmen grundlegend verändern werden. Themen wie generative KI und Datensouveränität werden Branchen dazu zwingen, ihre Strategien anzupassen und sich auf neue Realitäten einzustellen. Jeff Wittich, Chief Product Officer bei Ampere Computing, hat vier Prognosen für diese Zukunft formuliert.

  • Bewältigung der KI-Arbeitslasten

    Der Paradigmenwandel der stark digitalisierten Welt von heute stellt Unternehmen hinsichtlich ihrer IT-Infrastrukturen vor große Herausforderungen, bietet aber auch neue Chancen. Zunehmende Cyberbedrohungen, stärkere Virtualisierung oder Transformation durch künstliche Intelligenz (KI) - Unternehmen sind gezwungen, ihre Datenspeicherstrategien zu überdenken, um widerstandsfähig, flexibel und zukunftssicher zu bleiben.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen