
Die Zukunft braucht offene KI-Infrastrukturen
Künstliche Intelligenz: Der Anstieg des Inferenz-Bedarfs bringt eine entscheidende Herausforderung mit sich
Inferenzen umfassen sie eine stetig wachsende Bandbreite an Anwendungen, die in Hyperscale-Rechenzentren, Fabrikräumen, smarten Kameras, mobilen Geräten und eingebetteten Systemen zu finden sind
Von Jeff Wittich, Chief Product Officer bei Ampere
KI ist mehr als ein ominöses Hinterzimmer-Experiment. Die Technologie ist eine treibende Kraft, wenn es um Produkte, Entscheidungen und Nutzererfahrungen über jegliche Wirtschaftsbereiche hinaus geht. Mittlerweile stellen Unternehmen jedoch die Inferenz in den Mittelpunkt ihrer KI-Implementierungen. Hier können die Modelle ihren eigentlichen Mehrwert unter Beweis stellen – unter anderem in Form von Antworten auf drängende Fragen, Vorhersagen und Content-Generierung. Der Anstieg des Inferenz-Bedarfs bringt jedoch eine entscheidende Herausforderung mit sich. Bei Inferenzen handelt es sich nämlich nicht um einzelne Workloads.
Vielmehr umfassen sie eine stetig wachsende Bandbreite an Anwendungen, die in Hyperscale-Rechenzentren, Fabrikräumen, smarten Kameras, mobilen Geräten und eingebetteten Systemen zu finden sind. Gleichzeitig bringt jeder Anwendungsfall unterschiedliche Anforderungen in Sachen Latenz, Energieverbrauch, Kosten, Datendurchlauf und Platzbedarf mit sich. Die Tatsache, dass kein System allen auf einmal gerecht werden kann, unterstreicht einmal mehr, dass wir Einheitsinfrastrukturen für KI hinter uns lassen müssen.
Trotz der wachsenden Komplexität verlässt sich ein Großteil der Branche noch immer auf vertikal integrierte, geschlossene Systeme, die sich nur schwer individuell anpassen lassen. Dieser Ansatz reichte aus, als es vor allem noch darum ging, Modelle in kontrollierten Umgebungen zu trainieren. Allerdings entspricht er längst nicht mehr den Bedürfnissen moderner, sich schnell entwickelnder Implementierungen. Wer weiterhin diverse Workloads in starre Infrastrukturen zwängen will, riskiert, den gesamten Prozess zu drosseln, während die KI in beinahe jedem Bereich das Tempo ordentlich anzieht.
Demnach ist klar: KI-Infrastrukturen und -Ökosysteme müssen sich öffnen.
Eine offene, modulare und auf Standards basierende Infrastruktur ist notwendig, um mit der schnellen Diversifizierung von KI-Workloads mithalten zu können. Anstelle von Einheitslösungen lassen sich mit ihr Systeme um die speziellen Anforderungen von Implementierungen herum aufbauen. Zudem senkt eine solche Infrastruktur die Integrationshürden, begünstigt die Iteration auf Komponentenebene und ermöglicht so schnellere Innovationszyklen. Darüber hinaus fördert sie einen gesünderen und kompetitiveren Markt, auf dem Systemdesignern und Entwicklern nicht nur Standardkonfigurationen, sondern auch sinnvolle Optionen zur Verfügung stehen.
Schon jetzt trägt dieser Wandel erste Früchte. So unterstützen Initiativen wie das Datacenter-Modular-Hardware-System (DC-MHS) die Interoperabilität über verschiedene Anbieter und Komponenten hinweg – ein guter Anfang für ein Workload-getriebenes Design, das auf Modularität setzt. Allerdings kann keine Spezifikation diese Transformation allein tragen. Vielmehr braucht es ein breiteres, kollaboratives Ökosystem, das innovative Hardware-, Software- und Plattform-Anbieter miteinander verbindet und so die Anpassungsfähigkeit des gesamten KI-Stacks gewährleistet. Ein wirklich offenes Ökosystem geht jedoch über die reine Kompatibilität hinaus. Es ermöglicht der gesamten Wertschöpfungskette, ihre Innovationskraft frei zu entfalten und Lösungen zu entwickeln, die den vielfältigen, sich weiterentwickelnden Anforderungen innerhalb von Produktionsumgebungen gerecht werden.
Dafür braucht es ein neues Mindset, das beim Aufbau einer Infrastruktur nicht nur die Größe, sondern auch die Anpassungsfähigkeit sowie die Langlebigkeit berücksichtigt. Sowohl KI-Technologien als auch die entsprechenden Umgebungen entwickeln sich rasant weiter. Das bedeutet, dass Infrastruktur grundlegend neu gedacht werden muss. Als Kernprinzip sollte nicht nur die Leistung im Fokus stehen, sondern auch Offenheit, Modularität und Flexibilität. Die Systeme, die wir heute aufbauen, müssen die Workloads der Zukunft stemmen können.
Jetzt ist es Zeit zu handeln. Sowohl Hardware- als auch Software-Anbieter sowie Systementwickler und führende Tech-Experten müssen zusammenkommen und den Übergang hin zu einer offenen Infrastruktur vorantreiben. Dazu gehört es auch, sich in Sachen Standards anzugleichen, echte Interoperabilität zu gewährleisten und in Ökosysteme zu investieren, die die Entscheidungsfreiheit fördern und ein Workload-spezifisches Design ermöglichen. KI beeinflusst bereits zahlreiche Bereiche – jetzt fehlt nur noch eine auf die Zukunft ausgelegte Infrastruktur.
Über Ampere
Ampere ist ein modernes Halbleiterunternehmen, das die Zukunft des Cloud Computing mit den weltweit ersten Cloud-nativen Prozessoren gestaltet. Ampere-Prozessoren wurden für die nachhaltige Cloud mit der höchsten Leistung und der besten Leistung pro Watt entwickelt und beschleunigen die Bereitstellung aller Cloud Computing-Anwendungen. Ampere Cloud Native-Prozessoren bieten Cloud-Leistung, Energieeffizienz und Skalierbarkeit. (Ampere Computing: ra)
eingetragen: 05.07.25
Ampere: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.