- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Application Intelligence & IoT-Anwendungen


IoT: Wenn vor lauter Devices der Blick für den Nutzer verloren geht
Obwohl IoT eigentlich das Top-Thema ist, werden die Wachstumsprognosen immer pessimistischer - Einer der Gründe dafür ist der falsche Fokus vieler Hersteller

- Anzeigen -





Die Wachstumsprognosen für das Internet der Dinge sind pessimistischer als noch vor einigen Jahren. Ein Mitgrund ist der falsche Fokus vieler Hersteller: Um erfolgreich zu sein, müssen sie in Zukunft die Nutzererfahrung stärker in den Mittelpunkt rücken. Die Application-Performance-Experten von AppDynamics nennen drei grundlegende Schritte, die alle Hersteller gehen sollten.

Jahrelang überschlugen sich die Wachstumsprognosen der Branchenanalysten: 50 Milliarden Geräte sollten bis 2020 im Internet der Dinge (IoT) vernetzt sein, 150 Milliarden, vielleicht sogar 200 Milliarden. Aktuell findet jedoch eine Trendumkehr statt: Statista.com erwartet ein lineares Wachstum und geht für das Jahr 2020 von "lediglich" 30 Milliarden Geräten aus. Auch Gartner hat seine Prognose nach unten korrigiert und spricht aktuell von 20 Milliarden.

Weshalb die gedämpften Erwartungen? Ursächlich scheinen ungelöste Herausforderungen in verschiedenen Bereichen – Konnektivität und IT-Sicherheit sind die beiden prominentesten. Ein weiteres Problemfeld ist die Nutzererfahrung. Denn wie auch die gerade zitierten Zahlen zeigen, liegt der Fokus bei der Weiterentwicklung des IoT vor allem auf den Geräten und deren absoluter Zahl.

Der Blick für den Nutzer ist dabei verloren gegangen. AppDynamics fordert deshalb zu einer strategischen Neuorientierung auf: Erfolgreich kann im Internet der Dinge nur sein, wer die Nutzererfahrung stärker ins Zentrum rückt. Hersteller müssen dazu drei Schritte gehen.

1. Vertrauensbasis schaffen
Endgeräte wie Smartphones, Smart TVs und Wearables sind aktuell die größten Wachstumstreiber im IoT – allein 2017 wurden 5 Milliarden solcher Endgeräte verkauft. Aber Datenschutz-Skandale lassen Anwender zweifeln. Einer Studie zufolge sorgen sich 62 Prozent um ihre Privatsphäre und 54 Prozent um die Datensicherheit. Hersteller müssen solche Bedenken adressieren, indem sie die Daten ihrer Kunden bestmöglich schützen und von Anfang an ein Höchstmaß an Transparenz darüber gewährleisten, welche Informationen gesammelt und wofür sie genutzt werden. Eine solche Vertrauensbasis ist eine wichtige Grundlage für nachhaltigen Erfolg.

2. Nutzerverhalten analysieren und die richtigen Schlüsse ziehen
Verbraucher kaufen, abonnieren, laden herunter – aber zu treuen Nutzern werden sie dadurch noch lange nicht. Im Gegenteil: Gerade Wearables landen oftmals nach wenigen Wochen in einer dunklen Schublade. 29 Prozent der Smartwatches und 30 Prozent der Fitness-Tracker trifft dieses Schicksal. Hierfür gibt es unterschiedliche Ursachen – das Grundproblem ist jedoch, dass vielen Herstellern das technische Rüstzeug fehlt, um nachzuvollziehen, weshalb ein Nutzer sich von ihrem Produkt abwendet.

Sie erfassen zwar alle denkbaren Geschäfts- und Performance-Metriken, allerdings in der Regel mit getrennten Tools. Korrelationen und Kausalitäten lassen sich deshalb nur schwer bestimmen. Wer die Aktivitäten seiner Nutzer umfassend nachvollziehen will, benötigt Monitoring aus einem Guss.

Application-Intelligence-Lösungen überwachen nicht nur die Performance von IoT-Anwendungen, sondern schlagen die Brücke zu Geschäftszahlen und den Nutzern selbst. Mit ihnen lässt sich aufdecken, wie Anwenderverhalten und wirtschaftlicher Erfolg im Detail zusammenhängen. Auf Grundlage dieses Wissens wird es möglich, die Nutzererfahrung graduell zu optimieren und die Erwartungen der Nutzer immer besser zu erfüllen.

3. Performance und Zuverlässigkeit gewährleisten
Wenn das Grundvertrauen aufgebaut und die Erwartungen der Nutzer an die Funktionalität eines Endgeräts oder einer Anwendung erfüllt sind, geht es an die Performance. Das IoT konfrontiert IT-Teams mit einem neuen Maß an Komplexität: die wachsende Zahl an Plattformen, Geräten, Verknüpfungen, Datenformaten, Geschäftslogiken und technischen Risiken ist kaum noch zu überblicken.

Um ein Höchstmaß an Zuverlässigkeit zu gewährleisten und Performance-Probleme proaktiv angehen zu können, müssen Hersteller die Performance ihrer Produkte in Echtzeit überwachen. Auch hier schaffen Application-Intelligence-Lösungen Abhilfe. Sie bilden die gesamte Komplexität von Anwendungen ab, schlagen bei Anomalien Alarm, identifizieren die Fehlerursache und ermöglichen so eine schnelle Behebung aller Probleme.

Je stärker das IoT das Leben seiner Nutzer prägt, desto höher deren Erwartungen an Performance und Zuverlässigkeit. Wenn diese enttäuscht werden, steigen Verbraucher sehr schnell wieder von der Smartwatch auf die analoge Armbanduhr oder von der vernetzen Glühbirne auf ein traditionelles Leuchtmittel um. Damit zukünftige Wachstumsprognosen der Branchenanalysten wieder optimistischer ausfallen, müssen Hersteller genau das verhindern – und auf die Absicherung der Nutzererfahrung einen stärkeren Fokus setzen. (AppDynamics: ra)

eingetragen: 15.05.18
Newsletterlauf: 08.06.18

AppDynamics: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • One-fits-all fuktioniert nicht bei Cloud-Konzepten

    Bei der Cloud-Nutzung zählt das verarbeitende Gewerbe zu den Top-Anwendern. Zu diesem Schluss gelangt die von der Rackspace Germany GmbH in Auftrag gegebene Studie "Cloud und Cloud Managed Services im Manufacturing-Umfeld". Durchgeführt hat sie das Marktforschungsunternehmen Pierre Audoin Consultants (PAC). 59 Prozent der befragten Unternehmen haben demnach bereits Cloud-Lösungen im IoT-Umfeld im Einsatz. Aus gutem Grund: Für die Cloud-Nutzung sprechen für die Mehrheit der Unternehmen die Flexibilität, Agilität und Skalierbarkeit im Betrieb (84 Prozent), die Optimierung der Employee Experience bzw. der Customer Experience (84 Prozent) und die Erhöhung der Kosteneffizienz (83 Prozent). Dabei arbeiten die meisten Unternehmen mit Multi-Cloud-Lösungen, die das Beste aus dem Angebot der jeweiligen Cloud Computing-Anbieter kombinieren.

  • Anforderungen an IT-Strukturen anspruchsvoller

    Die Anforderungen der Digitalisierung führen dazu, dass IT-Fachkräfte in vielen Betrieben überlastet sind. Nur bei wenigen Unternehmen - davon hauptsächlich Großkonzerne - hat es sich als strategisch klugen Schritt erwiesen, die gesamte IT auszulagern ("Outsourcing") und von einer externen Firmentochter oder einem Dienstleister managen zu lassen. Für Klein- und Mittelständische Unternehmen KMU bietet sich eine andere Lösung an: Das Auslagern von IT-Prozessen und Teilbereichen an sogenannte Managed Service Provider (MSP). Eigene Mitarbeiter werdenso entlastet und können sich wieder ihren Kernaufgaben widmen. Der europäische IT-Security Hersteller Eset nennt in seinem Artikel "Warum Unternehmen auf MSP setzen sollten" fünf entscheidende Vorteile von MSPs, die gerade kleine und mittelständische Unternehmen (KMU) nutzen sollten.

  • Multi-Cloud: Nicht für jedes Unternehmen

    Multi-Cloud-Umgebungen stellen für kleine und mittelständische Unternehmen nicht immer die beste Lösung dar. Der IT-Dienstleister Consol zeigt, für wen sich eine Multi-Cloud eignet. Jeder Cloud-Anbieter bringt seine eigenen Stärken und Schwächen mit. Daher zielen immer mehr Unternehmen auf einen Best-of-Breed-Ansatz ab, in dem sie die besten Eigenschaften der einzelnen Cloud Computing-Anbieter in einem Multi-Cloud-Ansatz vereinen. Hierbei laufen die Anwendungen der Unternehmen bei verschiedenen Public-Cloud-Anbietern. "Nach der Einschätzung und den Erfahrungswerten von Consol ist ein Multi-Cloud-Modell aber nicht für jedes Unternehmen die beste Lösung, im Gegenteil. Gerade für kleinere und mittlere Unternehmen kann die bessere Strategie sein, sich auf einen einzigen Anbieter zu konzentrieren", erklärt Lukas Höfer, Senior IT-Consultant bei Consol in München.

  • Herausforderung Netzwerk-Edge

    Digitalisierung und IoT gehören zu den meistdiskutierten Themen für die strategische Weiterentwicklung von Geschäftsprozessen in Unternehmen und die Bereitstellung neuer Angebote. Weniger diskutiert wird die Infrastruktur, die für die Umsetzung dieser Entwicklungen nötig ist. Das Netzwerk ist nicht nur die Basis für die heute erforderliche Agilität und unterbrechungsfreie Konnektivität, sondern auch der Wegbereiter für digitale Initiativen. Dabei spielt die Netzwerk-Edge eine Schlüsselrolle mit der Unternehmen einen Wettbewerbsvorteil erzielen können. Denn hier verbinden sich Mitarbeiter, Kunden und Partner miteinander. Den Edge-Bereich optimal zu handhaben kann daher heute den entscheidenden Faktor für Geschäftserfolge oder Niederlagen ausmachen. Netzwerkspezialist Extreme Networks hat die fünf größten Herausforderungen zusammengefasst, die Unternehmen hierbei bewältigen müssen und zeigt auf, wie Weiterentwicklungen in der Netzwerktechnologie dabei helfen können.

  • Fünf Sicherheitslücken durch hybride IT

    Prozesse sowohl im eigenen Rechenzentrum als auch in der Cloud zu betreiben, kann gefährlich sein - wenn zentrale Policies fehlen oder nicht durchgesetzt werden. Selbst wenn auf lokalen Rechenzentren optimale Sicherheit herrscht, können mangelhaft geschützte Cloud Computing-Anbieter das System als Ganzes gefährden. Travis Greene, Director of Strategy, IT Operations bei Micro Focus, hat fünf Punkte zusammengestellt, die Unternehmen mit hybrider IT beachten sollten. Im traditionellen Wasserfallmodell erfolgt das Security Testing häufig am Ende des Entwicklungszyklus - nach den unvermeidlichen Verzögerungen im Entwicklungsprozess oft unter Zeitdruck. Die Testingphase wird dennoch meist abgeschlossen. Ein verspätetes Deployment nimmt man in Kauf, wenn von der Stabilität der Anwendung der Umsatz abhängt.

  • Implementierung von Robotic Process Automation

    "Von der Einführung einer Softwareautomation versprechen Betriebe sich vor allem eine schnelle und einfache Steigerung ihrer Effizienz und Servicequalität. Um die erfolgreiche Implementierung der Robotic Process Automation, kurz RPA, vorzubereiten und damit dem Wunsch nach einer unkomplizierten Prozessverarbeitung nachzukommen, sollten Unternehmer jedoch Vorüberlegungen treffen. Diese beziehen im Idealfall auch Faktoren ein, die über die reine Software hinausgehen, und bilden damit die Grundlage für die schnelle und reibungslose Prozessoptimierung. Bei der Projektentwicklung hilft nicht nur eine objektive Herangehensweise, sondern auch eine Beratung durch den RPA-Spezialisten. Je höher der Integrationsfaktor der Automation in die bestehende Umgebung, desto größer ist deren Nutzen und umso mehr kann sie das Unternehmen tatsächlich voranbringen."

  • Mangelware: Komplexe Machine Learning-Anwendungen

    Maschinelles Lernen (ML) hat deutliche Fortschritte gemacht. Der Streaming-Service Netflix nutzt diese Technik beispielsweise, um seinen Nutzern maßgeschneiderte TV-Angebote zu servieren, und Googles App "Arts & Culture" ist dank ML in der Lage, die Doppelgänger von Smartphone-Nutzern in weltbekannten Kunstwerken aufzuspüren. Doch wenn es um den Einsatz von Machine Learning in Unternehmen geht, sieht die Sachlage anders aus. Umfassende, komplexe Machine Learning-Applikationen sind im Unternehmensumfeld nach wie vor Mangelware. Die Application-Intelligence-Experten von AppDynamics nennen dafür acht Gründe.

  • Datenzugriff auf Paketebene

    Das Jahr 2017 war geprägt von einer starken Zunahme des Enterprise Cloud Computing. Laut Gartner nutzen derzeit bereits 90 Prozent der globalen Unternehmen zumindest einen Cloud-Service. Doch mit nur einem Cloud Computing-Service kommt heute kaum noch jemand aus, und auch ein einziger Cloud-Service-Provider wird zunehmend Seltenheitswert besitzen. Multicloud, also die Nutzung multipler Public Clouds, entwickelt sich schnell zum nächsten Schritt beim Aufbau wirklich dynamischer Infrastrukturen. Durch die dynamische Ausführung von Workloads über mehrere Cloud-Provider hinweg können Unternehmen sicherstellen, dass Workloads wirklich optimiert werden. Die erwähnte Gartner-Studie berichtet, dass 70 Prozent der Unternehmen bis 2019 Multi-Cloud-Implementierungen planen - gegenüber 10 Prozent heute.

  • Sicherheitsverantwortung in der Cloud

    Das enorme Wachstum von Cloud Computing-Services in der Geschäftswelt hat einen leidigen, aber vorhersehbaren Nebeneffekt: Die Cloud wird zum beliebten Ziel für Cyberkriminelle. Aufgrund der vernetzten Struktur kann sich Malware in der Cloud rasch auf Anwendungen und Geräte verbreiten, falls keine Sicherheitsmaßnahmen getroffen werden. Doch mit entsprechenden Best Practices können Unternehmen sich gegen die wachsende Bedrohung von Malware in der Cloud schützen. Die Cloud bietet Unternehmen nicht nur Skalierbarkeit, Flexibilität und Agilität, sondern auch effizientere Arbeitsprozesse und damit einhergehende Kostenersparnis bis hin zu bequemerer Datensicherung und Disaster Recovery. Die aktuellen Cloud-Akzeptanzraten deuten laut Gartner darauf hin, dass im Jahr 2020 eine No-Cloud-Policy so selten sein wird wie heute eine No-Internet-Policy.

  • Verfügbare Cloud-Technologie optimal nutzen

    Multi-Cloud-Konzepte sind auf dem Vormarsch, da Unternehmen mehr Auswahl über den besten Ort für ihre Daten und Workloads suchen. Im Verlauf teilen Branchenexperten ihr Wissen darüber, was IT-Teams beachten sollten, um die Vorteile der Cloud-Flexibilität bei der Einführung einer Multi-Cloud-Strategie voll ausschöpfen zu können. Sie empfehlen drei Schlüsseltechnologien, die beim Aufbau einer Multi-Cloud-Umgebung wichtig sind. Entwickelt in den späten neunziger Jahren von visionären IT-Teams bei Compaq Computing, war Cloud Computing ein Katalysator für die Entwicklung der IT generell und für einen Großteil der modernen globalisierten Welt, wie wir sie heute kennen.