- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Technische Umsetzung von IoT-Projekten


Vier Dinge, die Sie bei IoT-Projekten unbedingt beachten sollten
Den wirtschaftlichen Nutzen eines IoT-Projekts kann man nicht am Schreibtisch oder in einer Laborumgebung ermitteln: Für den Proof of Value müssen Unternehmen ihr IoT-Szenario in die Praxis umsetzen

- Anzeigen -





Von Oliver Edinger, Vice President Sales der Software AG

Viele Unternehmen zögern noch bei der Umsetzung von Internet of Things (IoT)-Projekten. Sie verrennen sich in technischen Überlegungen, statt sich auf das zu fokussieren, worauf es eigentlich ankommt: Mit angemessenem Aufwand schnell einen wirtschaftlichen Nutzen zu erzielen. Mehr Mut ist gefragt. Die folgenden vier Tipps helfen dabei.

1. Proof of Value: Nach dem betriebswirtschaftlichen Nutzwert fragen
Unternehmen beginnen ein IoT-Projekt häufig mit einem Proof of Concept, um die technische Machbarkeit zu prüfen. Was Sie dabei verkennen: Die Basistechnologie ist heute so weit fortgeschritten, dass sie kein limitierender Faktor mehr ist. Man braucht sich darüber gar nicht so sehr den Kopf zu zerbrechen. Viel wichtiger ist die Frage, welchen betriebswirtschaftlichen Nutzen ein IoT-Projekt bringt. Deshalb sollte in einem kontrollierbaren produktiven Umfeld ein Proof of Value erfolgen. Dabei steht auf den ersten Blick meist die Steigerung der Prozesseffizienz im Vordergrund.

Ebenso wichtig sind aber die Fragen: Was kann ich tun, um den Kundennutzen zu erhöhen? Wie kann ich datengetriebene Dienstleistungen als zusätzliches Geschäftsmodell aufbauen? Schon im Proof of Value sollte man überlegen, auf welche Bereiche sich ein IoT-Projekt noch auswirken kann. Dabei ist es wichtig, die gesamte Wertschöpfungskette zu betrachten. Wenn ein Kompressoren-Hersteller zum Beispiel künftig keine Maschinen mehr verkauft, sondern Druckluft als Dienstleistung anbietet, muss er auch seine Rechnungsstellung ändern – neue Geschäftsmodelle können somit auch angestammte administrative Prozesse stark verändern.

2. Es ist ja „nur“ Software: Schnell mit Minimalansatz starten
Den wirtschaftlichen Nutzen eines IoT-Projekts kann man nicht am Schreibtisch oder in einer Laborumgebung ermitteln. Für den Proof of Value müssen Unternehmen ihr IoT-Szenario in die Praxis umsetzen. Dafür reicht zunächst ein minimaler Funktionsumfang, der sogenannte "Minimum Viable Product"-Ansatz (MVP). Wer gleich alle denkbaren Funktionen zum Start ausliefern will, blockiert sich nur selbst und verliert wertvolle Zeit. IoT-Anwendungen sind zum großen Teil Software-basiert. Das bedeutet: Man kann sie auch im laufenden Betrieb noch ändern, erweitern und an die aktuellen Bedürfnisse anpassen. Ein MVP muss im ersten Schritt nur das können, was zwingend nötig ist, um Nutzwert zu schaffen.

Dadurch können Unternehmen ihr IoT-Projekt schneller in die Praxis überführen und erste Erfahrungen sammeln. Sie erhalten zügig Rückmeldung von ihren Anwendern und können auf Basis dieses Feedbacks Anpassungen und Änderungen vornehmen. So ist die Chance viel größer, möglichst schnell eine IoT-basierte Lösung zu entwickeln, die gut bei den Kunden ankommt. Außerdem hat der Minimalansatz noch einen weiteren Vorteil: Sollte die IoT getriebene Innovation nicht den gewünschten Mehrwert liefern, sind nicht gleich große Summen verloren, sondern die Kosten bleiben überschaubar.

3. Teamplayer gefragt: Ein Ökosystem nutzen
IoT-Projekte sind kein Ein-Personen-Spiel. Sie erfordern Zusammenarbeit in vielen verschiedenen Sektoren. So benötigen Unternehmen nicht nur eine IoT-Plattform, sondern auch die geeignete Sensorik, um Daten abzugreifen. Sie müssen mit Retrofitting alte Maschinen IoT-fähig machen und benötigen eine geeignete Analytics-Lösung. Außerdem brauchen sie jemanden, der die Infrastruktur für die Datenübertragung bereitstellt. All dies kann ein einzelner Hersteller oder Dienstleister alleine nicht leisten. Vielmehr ist ein Netzwerk an kompetenten Partnern gefragt. Ein guter IoT-Plattform-Anbieter bringt ein solches Ökosystem gleich mit und kann geeignete Partner empfehlen. Das hat den Vorteil, dass die Projektteilnehmer schon häufig zusammengearbeitet haben und gut aufeinander eingespielt sind. Außerdem sparen sich Unternehmen viel Zeit und Kosten beim Auswahlprozess.

4. Make or buy: Horizontale Technik kaufen, vertikale Anwendungen selbst entwickeln
Bei der technischen Umsetzung ihrer IoT-Projekte stehen Unternehmen vor der Frage: Was soll ich kaufen und was besser selber entwickeln? Grundsätzlich empfiehlt es sich, die horizontale Technologieinfrastruktur, also die IoT-Plattform für das Device Management oder das Edge Computing, einzukaufen. Hier gibt es bereits hocheffektive Lösungen am Markt, sodass man das Rad nicht selbst neu erfinden muss. Die vertikale Anwendung sollte man auf dieser Infrastruktur dann selbst aufbauen, da sie geistiges Eigentum (Intellectual Property) des einzelnen Unternehmens ist, mit dem es sich von der Konkurrenz differenziert und sich nachhaltige Wettbewerbsvorteile verschaffen kann.

Mehr Mut zum Risiko
Eins ist klar: Wie jedes neue Produkt, das man auf den Markt bringt, kann auch eine IoT-basierte Innovation scheitern. Unternehmen dürfen jedoch nicht den Fehler machen, gleich wieder ganz auszusteigen. Die Erfahrungen sind wertvoll für die Zukunft. Empfehlenswert ist es, ein Portfolio aus IoT Use Cases in unterschiedlichen Bereichen – zum Beispiel Service, Logistik, Neue Produkte, Fertigung -- aufzubauen und in verschiedene Richtungen zu experimentieren. Nur wer sich traut, Fehler zu machen, kann Innovationen hervorbringen. Entscheidend ist, dass man die Fehler schnell macht und sie auch schnell wieder korrigiert. Unternehmen müssen im Hinblick auf IoT-Projekte mutiger werden, wenn sie das Potenziel von IoT zu ihrem Wettbewerbsvorteil nutzen wollen.

Über den Autor
Als Leiter des Internet of Things Competence Centers für Deutschland, Österreich und die Schweiz schreibt und referiert Oliver Edinger, Vice President Sales der Software AG, regelmäßig über Einsatzmöglichkeiten, Geschäftsnutzen, Trends und Herausforderungen des Internet der Dinge. Mit seiner über zwei jahrzehntelangen Erfahrung in der Software- und Systemintegrationsbranche ist er ausgewiesener Experte und anerkannter Gesprächspartner in zentralen Themenfeldern der digitalen Transformation.
(Software AG: ra)

eingetragen: 14.09.18
Newsletterlauf: 19.09.18

Software AG: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Grundlage für anstehende Pilotzertifizierungen

    Das Ziel des Forschungsprojektes "Auditor" ist, eine EU-weite nachhaltig anwendbare Datenschutzzertifizierung von Cloud-Diensten zu konzeptionieren, exemplarisch umzusetzen und zu erproben. Nun haben die Projektpartner einen wesentlichen Meilenstein erreicht: Mit der Neufassung des Kriterienkatalogs liegt ab jetzt ein Prüfstandard für die Datenschutz-Zertifizierung von Cloud-Diensten gemäß den Anforderungen der EU-Datenschutz Grundverordnung (DSGVO) vor. Ein Cloud-Anbieter muss in seiner Rolle als Auftragsverarbeiter Vorschriften erfüllen, um seine Datenverarbeitungsvorgänge zertifizieren zu lassen. Durch den "Auditor"-Kriterienkatalog werden die technikneutralen Vorschriften der DSGVO in prüffähige, normative Kriterien übersetzt.

  • Sechs Gründe für Cloud-basiertes Data Warehouse

    Ein Data Warehouse, das Daten aus verschiedenen Quellen zusammenfasst, um sie analysieren und darauf reagieren zu können, ist heute entscheidend für den Geschäftserfolg. Denn es verarbeitet schnell die enormen Datenmengen, die sich heute in Unternehmen ansammeln. Darauf basierend können Führungskräfte zuverlässige datenbasierte Entscheidungen treffen. Allerdings halten es fast zwei Drittel der kürzlich befragten Experten für "schwierig" oder "sehr schwierig", ihre Data Warehouse-Lösung zu verwalten. So entwickeln sich Cloud-basierte Data Warehouses aufgrund der steigenden Komplexität und Menge der Daten zur effizientesten Möglichkeit, diese Komplexität zu reduzieren und gleichzeitig die zunehmend geforderte Agilität, Sicherheit und Performance zu gewährleisten.

  • Nach Möglichkeit keine Nur-Cloud-Ansätze

    Cloud-Lösungen sind auch im IT-Security-Bereich zunehmend verbreitet. Viele Anbieter verlagern Sicherheitsmechanismen und andere Dienste in ihre Rechenzentren, anstatt diese auf klassische Weise bei den Kunden vor Ort (On-Premises) zu betreiben. Doch ist die Anti-Malware-Lösung aus der Cloud tatsächlich die geeignete Variante für jeden Anwendungsfall? Und wo genau liegen eigentlich die möglichen Vor- und Nachteile des Virenschutzes aus der Wolke?

  • Argumente für Unified Communications

    In der heutigen Arbeitswelt, die von Dienstleistungen und wissensbasierten Tätigkeiten geprägt ist, steigt die Bedeutung von Kommunikation und Zusammenarbeit immer weiter. Gleichzeitig erhöht die Consumerization den Druck auf Organisationen, ihren Mitarbeitern intuitive und einfach zu nutzende Applikation zur Verfügung zu stellen. Schon seit geraumer Zeit überlegen daher viele Unternehmen und IT-Führungskräfte, ihre Kommunikationslösungen zu streamlinen und Video, Telefonie, Chat und das Teilen von Dateien in einem zentralen System zusammenzuführen.

  • Cloud: Effizienter Weg zum E-Government

    Um in Zeiten von "Cloud first"-Strategien und IoT Bürgern bestmöglich behilflich zu sein, müssen sich auch die Behörden selbst neu erfinden - und mit ihnen die IT-Profis, die den digitalen Wandel gestalten und verwalten. Während neue Technologien im Privaten heute so schnell Einzug halten wie noch nie, sind IT-Experten in Behörden vielerorts noch mit Überzeugungsarbeit oder Kinderkrankheiten beschäftigt. Hie und da fehlen schlichtweg die Mittel, woanders ist die digitale Transformation eben noch kein Teil der Unternehmenskultur - beides kann sich negativ auf Effizienz und Sicherheit auswirken.

  • DataOps: Eine willkommene Hilfestellung

    In der heutigen Geschäftslandschaft ist jede Firma mit Wettbewerbsanspruch ein Datenunternehmen. Denn wer dauerhaft erfolgreich bleiben möchte, muss alle verfügbaren Daten strategisch einsetzen. Dabei sollen Firmen aber weiterhin sensible Kundeninformationen konsequent schützen und die Vielzahl neuer und strengerer Datenvorschriften (über)erfüllen. Gleichzeitig benötigen allerdings immer mehr Nutzer und Mitarbeiter Zugang zu immer mehr und umfangreicheren Datensätzen. Mit DataOps können Unternehmen hier die Balance zwischen Sicherheit und Zugänglichkeit finden.

  • AIOps-Ansatz liefert klare Vorteile

    Über Fehler in ihrem IT-Betrieb erfahren Unternehmen heute meist dadurch, dass sich Kunden über Probleme beschweren. Eine Umfrage von AppDynamics hat ergeben, dass 58 Prozent der IT-Teams durch Anrufe oder Kunden-E-Mails über Fehlfunktionen informiert werden. Führungskräfte oder andere Mitarbeiter außerhalb der IT entdecken 55 Prozent der bekannten Probleme. 38 Prozent werden durch User Posts in sozialen Netzwerken aufgedeckt. Natürlich wäre es für alle Beteiligten besser, wenn Unternehmen Fehler finden, bevor sich Kunden beschweren, oder sogar strukturelle Probleme so früh erkennen, dass Fehler gar nicht erst auftreten. Die enorme Komplexität heutiger Systeme und Infrastrukturen erlaubt das, zumindest auf konventionellen Wegen, nicht mehr. In einem vergleichsweise einfachen technischen System, wie einer Dampfmaschine, kann ein guter Maschinist durch regelmäßige Wartung für einen reibungslosen Betrieb sorgen. Er weiß, wo er seine Maschine schmieren muss, welche Belastungen er ihr zumuten kann und wann es Zeit wird, Verschleißteile auszutauschen. In modernen digitalen Systemen können Menschen dieses Verständnis nicht mehr erreichen.

  • Angst vor einem "Lock-in"

    Die Wahl der richtigen Plattform für Unternehmensapplikationen mag auf den ersten Blick nebensächlich erscheinen, dabei hat sie immensen Einfluss auf alle folgenden Entscheidungen im Hinblick auf die Entwicklungsumgebung. Denn fällt die Wahl auf den falschen Cloud Computing-Anbieter, das falsche Betriebssystem oder die falsche Programmiersprache kann das im Nachhinein bei Mitarbeitern zu Unzufriedenheit und Zähneknirschen führen und durch erhöhten Personalaufwand richtig teuer werden. Um das zu vermeiden, geht der Trend in Entwicklungsteams immer mehr zu (Software-)Containern und Microservices. Indem sie Fremdmaterial entfernen und die Größe der Images auf das erforderliche Maß reduzieren, erleichtern es Container, Software zielgerichtet einzusetzen. Und diese Konzentration auf das Wesentliche steigert die Produktivität von Entwicklern enorm. Eine Umfrage von 451 Research hat das jüngst noch einmal eindrucksvoll belegt: Rund 57 Prozent der befragten Unternehmen nannten die Produktivität der Entwickler als einen entscheidenden Grund für ihren Wechsel zu Containern.

  • Wie Hosting scheitern kann

    Wer ein Unternehmen betreibt, kommt um eine Präsenz im Web nicht herum. Egal ob Gastronomie, Industrie, Handwerk, Fashion, Kosmetik, Medien, Versicherungen oder Anwälte, selbst kleinste Privatunternehmer nutzen eine Internetseite, um ihre Dienste oder Produkte anzubieten. Dabei ist es wichtig, dass die Seite online immer verfügbar ist, sehr schnell lädt und es nicht zu Ausfallzeiten kommt. Je mehr Inhalt eine Website bietet und je höher die Besucherzahlen sind, umso größer ist die Gefahr, dass es zu Ausfällen oder langen Ladezeiten kommt. Dies betrifft jedoch nicht nur kleine Unternehmen, sondern auch Mittelständler und Enterprise. "Ein optimaler Webauftritt kann nur mithilfe von Hosting in professionellen Rechenzentren ausfallsicher und hochperformant abgebildet werden", weiß Torben Belz, Geschäftsführer der Plutex GmbH, und fügt hinzu: "Wer sich im Dschungel der Hosting-Optionen nicht auskennt, kann hier schnell Fehler machen."

  • Georedundanz gebender Rechenzentren

    Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI "Kriterien fu¨r die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" genau dokumentiert. Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern. Mit der neuen, im Dezember 2018 veröffentlichten Empfehlung, hebt das BSI diese Distanz drastisch an. "Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben", führt das BSI in seinen Standort-Kriterien unter Punkt 3.3 aus - 40-mal so viel wie bisher. "Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar", so das BSI weiter, " ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen". Doch auch dann, sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.