Sie sind hier: Startseite » Fachartikel » Hintergrund

Digital Twin der Lieferkette


Flexibilität und Resilienz: Die umfassende Herausforderung des LkSG
Von der Strategie hin zur LkSG-konformen IT-Infrastruktur


Von Tobias Götz, Managing Partner KPS AG

Fällt das Wort Lieferkettensorgfaltspflichtengesetz (LkSG), schießt einem meist zeitgleich der Begriff Transparenz in den Kopf. Denn darum geht es doch, oder? Auch! Aber nur Transparenz über die eigene Lieferkette zu erhalten, bringt erstmal wenig. Der Trick ist, zeitgleich eine flexible, optimierte Lieferkette anzustreben – sowohl operativ als auch strategisch.

Das bedeutet natürlich nicht, dass ein umfangreicher Überblick über Geschäftspartner und Lieferanten zweitrangig ist – im Gegenteil, es ist ein wichtiger Bestandteil der Risikoerkennung. Die Sorgfaltspflichten, welche im LkSG festgelegt sind, umfassen allerdings weitaus mehr. Unternehmen tragen auch die Verantwortung, entsprechende Präventionsmaßnahmen zu etablieren, bei Verstößen effektiv Abhilfe zu schaffen und die Lieferkette neu zu strukturieren. Damit das klappt, ist eine digitale Transformation der gesamten Lieferkette nötig, die nicht nur transparent, sondern auch resilient und flexibel ist. Eine Mammutaufgabe für die meisten Unternehmen.

Denn ein einziger Händler verfügt oft über ein Netzwerk aus zahlreichen Lieferanten, Logistikdienstleistern und Lagern. Diese Lieferströme optimal und kosteneffizient zu planen, ist eine Herausforderung. Er erhält seine Waren beispielweise über den Luftweg, die Seestraße, Schienen- oder Straßentransport oder einer Kombination aus diesen. Hinzu kommen zahlreiche lokale Netzwerke, Zentral- und Regionallager. Fällt eine Option durch Umweltkatastrophen oder politische Einflüsse aus oder verändert ein Logistikpartner oder Hersteller sein Preisgefüge, sollte das System im Optimalfall nicht nur frühzeitig diese Veränderungen anzeigen, sondern automatisch alternative Routen und Partner anbieten, die den Umwelt- und Menschenrechtsanforderungen entsprechen. Doch wie ist das technisch umsetzbar?

Voraussetzung für ein umfängliches Risikomanagement ist die richtige strategische Ausrichtung der IT-Infrastruktur. Entscheidend dafür ist ein erfahrener Beratungspartner, welcher mit dem Wissen und Kenntnissen über die Anforderungen des Gesetzes eine detaillierte Analyse und einen Abgleich mit der bestehenden Infrastruktur vornimmt. Im Anschluss wird das IT-Zielbild mit den zukünftig geplanten Geschäftsmodellen und der Unternehmensstrategie abgeglichen. Wie wird sich das bisherige Geschäftsmodell ändern? Welche Märkte und Liefernetze sind in Zukunft relevant? Wie sieht das zukünftige Operating Model aus? Eine durchdachte Roadmap und etabliertere Best Practices helfen, Prioritäten festzulegen und die neue IT-Strategie zu planen.

Doch damit ist man noch nicht am Ziel. Steht die Strategie, folgt die Herausforderung der Umsetzung. Ein komplexes Unterfangen, denn eine LkSG-konforme IT-Infrastruktur umfasst zahlreiche Systeme, die ineinandergreifen müssen. Grundpfeiler sind ein Data Lake kombiniert mit der strukturierten Abbildung des End-to-End-Prozesses und entsprechender Monitoring- und Alerting-Fähigkeiten. Hier werden alle Informationen rund um die eigene Lieferkette erfasst, verwaltet und analysiert, bestenfalls in Echtzeit. Es ist auch wichtig, Risikomanagement-Systeme zu implementieren sowie Tools zur Berichterstattung und Compliance-Einhaltung, die im Idealfall KI-gesteuert sind und eine Automatisierung ermöglichen. Um Datenhoheit über die gesamte Lieferkette zu erhalten und diese auch resilient und flexibel zu gestalten, sollten die Systeme untereinander sowie mit Lieferanten- und Partner-Systemen interoperabel sein und die global definierten Standards von GS1/EPCGlobal erfüllen.

Nicht verwunderlich: Aufgrund dieser Komplexität setzen viele Unternehmen im Zuge des LkSG auf ein digitales Abbild ihrer Lieferkette und der zugehörigen Logistikprozesse – einen digitalen Zwilling. Dieser bildet alle Prozesse der realen Welt digital ab und erlaubt eine schnelle Reaktion auf sich ändernde Gegebenheiten in der Supply Chain. In Kombination mit den richtigen Tools sind zudem automatisierte Präventions- sowie Abhilfemaßnahmen möglich, die eine flexible Reaktion auf die komplexen Anforderungen der sich stetig verändernden Lieferketten erlauben. Unternehmen bleiben so stets regelkonform und können trotzdem kostenoptimiert arbeiten.

Ein digitaler Zwilling der Lieferkette ist jedoch erst der Anfang. Ausgehend von der Digitalisierung der Lieferkette können auch alle vor- und nachgelagerten Prozesse digitalisiert werden. Wer jetzt im Zuge der Erfüllung des LkSG ein solides Fundament baut und eine zukunftsgerichtete, digitale Transformation vollzieht, schafft neben der Gesetzeskonformität die Basis für zukünftige Wettbewerbsfähigkeit und ist gerüstet für die nächsten einschneidenden Störfaktoren auf dem globalen Markt.

Autor Tobias Götz ist Managing Partner bei KPS und Experte für Supply-Chain-Themen. Neben diversen Publikationen rund ums Supply Chain Management und aktueller Technologien ist er Dozent für Logistik und Transport an der DHBW Mannheim. Zu seinen Schwerpunkten gehören internationale IT-Transformationen und die Begleitung von Kunden von der ersten Idee über die Umsetzung bis zur Nachbetreuung. (KPS: ra)

eingetragen: 07.11.23
Newsletterlauf: 22.01.24

KPS: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Hintergrund

  • KI-Nutzung am Edge

    Nutzung von Synergien zwischen HCI, Cloud und Edge ermöglicht es Unternehmen, dezentralisierte Infrastrukturen einzurichten, um so das volle Potenzial von KI nutzen zu können. Hyperkonvergente Infrastruktur (HCI) kann viele der Leistungs-, Logistik- und Kostenprobleme beseitigen, die die Cloud nicht lösen kann.

  • Einsatz von Cloud-Umgebungen

    Das Thema Cloud ist in fast allen IT-Abteilungen nach wie vor allgegenwärtig. Aber immer häufiger stellt sich auch Ernüchterung ein: Die hohen Erwartungen an Kosteneinsparungen und Komplexitätsreduktion haben sich nicht überall erfüllt - oft ist sogar das Gegenteil eingetreten. Hinzu kommen neue Unsicherheiten durch aktuelle geopolitische Veränderungen und eine neue Wahrnehmung der Bedeutung von Digitaler Souveränität. Daher entscheiden sich immer mehr Unternehmen für eine (teilweise) Verlagerung von Workloads aus der Cloud auf eigene On-Premises-Strukturen. Doch auch da lauern Herausforderungen. Wie behält man die Kontrolle über beide Welten?

  • Unsicherheiten verändern die Cloud-Landschaft

    Die geopolitischen Entwicklungen der letzten Monate haben der Diskussion um digitale Souveränität neue Brisanz verliehen. Unmittelbar beobachten lässt sich eine zunehmende Nachfrage nach Alternativen zu US-amerikanischen Cloud-Diensten. Vielen Unternehmen ist bewusst geworden, dass ihre Abhängigkeit von Anbietern wie AWS, Azure oder Google Cloud ein Risiko darstellt, das weit über abstrakte Datenschutzbedenken hinausgeht.

  • Barrieren für den Datenzugriff abbauen

    Große Datenmengen stellen für Unternehmen eine immer größere Herausforderung dar. Unterstützt von Cloud-basierten Daten- und Orchestrierungsplattformen bieten sie jedoch auch wertvolle Chancen. Vor allem der Einsatz von KI- und ML-basierten Technologien erweist sich für das Aufbereiten und Analysieren großer Datenmengen als hilfreich.

  • Was bedeutet Datenqualität im KI-Kontext?

    Künstliche Intelligenz basiert auf guter Datengrundlage - an genau diesem Punkt kommt Datenqualität ins Spiel. Dabei bedeuten große Datenmengen nicht zwangsläufig, dass diese für einen KI-Anwendungsfall geeignet sind.

  • Herausforderungen für CIOs

    Die Fertigungsindustrie befindet sich in einem tiefgreifenden Wandel. Vernetzte und digitalisierte Smart Factories ersetzen heute die traditionellen Produktionslinien. IT-Systeme werden dabei nahtlos in sämtliche Fertigungsprozesse integriert, um in Echtzeit auf Daten zuzugreifen und Prozesse zu automatisieren.

  • Data Governance und Datensicherheit

    Sicheres Datenmanagement ist Pflicht. Die tatsächliche Gewährleistung angemessener Datenverwaltung und -sicherheit hängt aber von den technischen Möglichkeiten ab: Entscheidend sind Lösungen und entsprechende Plattformen, die die Dateninfrastruktur ausgestalten.

  • GPU-Infrastruktur von Cloud-Anbietern

    Große Hyperscale-Cloud-Computing-Unternehmen sind nach wie vor die Hauptabnehmer von KI-Hardware (z. B. GPUs und anwendungsspezifische integrierte Schaltkreise oder ASICs). Die Investitionsausgaben und Ausgabenprognosen für viele Unternehmensplattformen sind deutlich gestiegen - darunter Microsoft Azure, Amazon Web Services, Google, Oracle und Meta.

  • Auf dem Weg zum klimaneutralen Rechenzentrum

    ESRS, CSRD, EnEfG … um die verschiedenen gesetzlichen Nachhaltigkeits-Regularien zu erfüllen, benötigen Betreiber von Rechenzentren mehr Transparenz über den Energieverbrauch und die Treibhausgas-Emissionen ihrer IT-Infrastruktur.

  • Dokumentenmanagement und elektronische Signatur

    Damit Unternehmen nicht nur zeitgemäß, sondern auch zukunftsträchtig arbeiten, ist eine Digitalisierung ihrer Geschäftsprozesse unumgänglich. Viele manuelle und behäbige Abläufe lassen sich mit einem digitalen Dokumentenmanagement optimieren. Es gilt, Aufgaben und Dokumente digital zu organisieren und Abläufe so weit wie möglich zu automatisieren.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen