- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Application Intelligence & IoT-Anwendungen


IoT: Wenn vor lauter Devices der Blick für den Nutzer verloren geht
Obwohl IoT eigentlich das Top-Thema ist, werden die Wachstumsprognosen immer pessimistischer - Einer der Gründe dafür ist der falsche Fokus vieler Hersteller

- Anzeigen -





Die Wachstumsprognosen für das Internet der Dinge sind pessimistischer als noch vor einigen Jahren. Ein Mitgrund ist der falsche Fokus vieler Hersteller: Um erfolgreich zu sein, müssen sie in Zukunft die Nutzererfahrung stärker in den Mittelpunkt rücken. Die Application-Performance-Experten von AppDynamics nennen drei grundlegende Schritte, die alle Hersteller gehen sollten.

Jahrelang überschlugen sich die Wachstumsprognosen der Branchenanalysten: 50 Milliarden Geräte sollten bis 2020 im Internet der Dinge (IoT) vernetzt sein, 150 Milliarden, vielleicht sogar 200 Milliarden. Aktuell findet jedoch eine Trendumkehr statt: Statista.com erwartet ein lineares Wachstum und geht für das Jahr 2020 von "lediglich" 30 Milliarden Geräten aus. Auch Gartner hat seine Prognose nach unten korrigiert und spricht aktuell von 20 Milliarden.

Weshalb die gedämpften Erwartungen? Ursächlich scheinen ungelöste Herausforderungen in verschiedenen Bereichen – Konnektivität und IT-Sicherheit sind die beiden prominentesten. Ein weiteres Problemfeld ist die Nutzererfahrung. Denn wie auch die gerade zitierten Zahlen zeigen, liegt der Fokus bei der Weiterentwicklung des IoT vor allem auf den Geräten und deren absoluter Zahl.

Der Blick für den Nutzer ist dabei verloren gegangen. AppDynamics fordert deshalb zu einer strategischen Neuorientierung auf: Erfolgreich kann im Internet der Dinge nur sein, wer die Nutzererfahrung stärker ins Zentrum rückt. Hersteller müssen dazu drei Schritte gehen.

1. Vertrauensbasis schaffen
Endgeräte wie Smartphones, Smart TVs und Wearables sind aktuell die größten Wachstumstreiber im IoT – allein 2017 wurden 5 Milliarden solcher Endgeräte verkauft. Aber Datenschutz-Skandale lassen Anwender zweifeln. Einer Studie zufolge sorgen sich 62 Prozent um ihre Privatsphäre und 54 Prozent um die Datensicherheit. Hersteller müssen solche Bedenken adressieren, indem sie die Daten ihrer Kunden bestmöglich schützen und von Anfang an ein Höchstmaß an Transparenz darüber gewährleisten, welche Informationen gesammelt und wofür sie genutzt werden. Eine solche Vertrauensbasis ist eine wichtige Grundlage für nachhaltigen Erfolg.

2. Nutzerverhalten analysieren und die richtigen Schlüsse ziehen
Verbraucher kaufen, abonnieren, laden herunter – aber zu treuen Nutzern werden sie dadurch noch lange nicht. Im Gegenteil: Gerade Wearables landen oftmals nach wenigen Wochen in einer dunklen Schublade. 29 Prozent der Smartwatches und 30 Prozent der Fitness-Tracker trifft dieses Schicksal. Hierfür gibt es unterschiedliche Ursachen – das Grundproblem ist jedoch, dass vielen Herstellern das technische Rüstzeug fehlt, um nachzuvollziehen, weshalb ein Nutzer sich von ihrem Produkt abwendet.

Sie erfassen zwar alle denkbaren Geschäfts- und Performance-Metriken, allerdings in der Regel mit getrennten Tools. Korrelationen und Kausalitäten lassen sich deshalb nur schwer bestimmen. Wer die Aktivitäten seiner Nutzer umfassend nachvollziehen will, benötigt Monitoring aus einem Guss.

Application-Intelligence-Lösungen überwachen nicht nur die Performance von IoT-Anwendungen, sondern schlagen die Brücke zu Geschäftszahlen und den Nutzern selbst. Mit ihnen lässt sich aufdecken, wie Anwenderverhalten und wirtschaftlicher Erfolg im Detail zusammenhängen. Auf Grundlage dieses Wissens wird es möglich, die Nutzererfahrung graduell zu optimieren und die Erwartungen der Nutzer immer besser zu erfüllen.

3. Performance und Zuverlässigkeit gewährleisten
Wenn das Grundvertrauen aufgebaut und die Erwartungen der Nutzer an die Funktionalität eines Endgeräts oder einer Anwendung erfüllt sind, geht es an die Performance. Das IoT konfrontiert IT-Teams mit einem neuen Maß an Komplexität: die wachsende Zahl an Plattformen, Geräten, Verknüpfungen, Datenformaten, Geschäftslogiken und technischen Risiken ist kaum noch zu überblicken.

Um ein Höchstmaß an Zuverlässigkeit zu gewährleisten und Performance-Probleme proaktiv angehen zu können, müssen Hersteller die Performance ihrer Produkte in Echtzeit überwachen. Auch hier schaffen Application-Intelligence-Lösungen Abhilfe. Sie bilden die gesamte Komplexität von Anwendungen ab, schlagen bei Anomalien Alarm, identifizieren die Fehlerursache und ermöglichen so eine schnelle Behebung aller Probleme.

Je stärker das IoT das Leben seiner Nutzer prägt, desto höher deren Erwartungen an Performance und Zuverlässigkeit. Wenn diese enttäuscht werden, steigen Verbraucher sehr schnell wieder von der Smartwatch auf die analoge Armbanduhr oder von der vernetzen Glühbirne auf ein traditionelles Leuchtmittel um. Damit zukünftige Wachstumsprognosen der Branchenanalysten wieder optimistischer ausfallen, müssen Hersteller genau das verhindern – und auf die Absicherung der Nutzererfahrung einen stärkeren Fokus setzen. (AppDynamics: ra)

eingetragen: 15.05.18
Newsletterlauf: 08.06.18

AppDynamics: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Automation verbessert Security-Status deutlich

    Automation ist der entscheidende Faktor, der den Cloud-Erfolg sichert, meint NTT Security, das auf Sicherheit spezialisierte Unternehmen und "Security Center of Excellence" der NTT Group. Zwei Komponenten sind dabei ein Muss: die Compliance Automation und die Continuous Configuration Automation. NTT Security unterstützt Unternehmen bei der Realisierung von Automationsprojekten mit umfassendem Consulting. Immer mehr Unternehmen gehen in die Cloud, gerade die Nutzung von Infrastructure-as-a-Service (IaaS)-Angeboten liegt im Trend. Dabei wird nach Meinung von NTT Security vielfach übersehen, dass ein erfolgreiches IaaS-Deployment Automation voraussetzt, weil nur so das in der Cloud unerlässliche Sicherheitsniveau dauerhaft bereitgestellt werden kann.

  • Sechs Gründe für Datenvirtualisierung

    Im Zeitalter von Big Data und Cloud Computing, mit explodierendem Datenvolumen und zunehmender Datenvielfalt, können es sich Unternehmen nicht mehr leisten, zahlreiche Kopien und Reproduktionen der Daten zu speichern, die sie für ihr Geschäft benötigen. Deshalb werden bis 2020 mehr als ein Drittel (50 Prozent) der Unternehmen laut Gartner eine Form der Datenvirtualisierung als effiziente und kostensparende Option für die Datenintegration implementieren. Wie profitieren Unternehmen genau davon? Denodo zeigt die sechs wichtigsten Gründe auf, die für den Einsatz von Datenvirtualisierung sprechen.

  • Herausforderung: Budget-Flexibilität

    Der Multi-Cloud-Ansatz setzt sich zunehmend durch. Der Weg in die Multi-Cloud muss jedoch begleitet werden von einem Umdenken bei der Planung von IT-Budgets. Andernfalls können die Vorteile der Multi-Cloud nicht optimal ausgeschöpft werden. Bis 2019 wird der Anteil der Unternehmen, die einen Multi-Cloud-Ansatz verfolgen, auf 70 Prozent steigen - prognostiziert die Gartner Studie "Market Trends: Multi-Cloud Usage Will Drive Cloud Management Platform Growth". Hauptgrund für diese Entwicklung ist die höhere Flexibilität, die die Multi-Cloud bietet. Sie eröffnet Unternehmen die Möglichkeit, sich für die jeweils optimale Lösung zu entscheiden.

  • Migration in die Cloud beschleunigen

    Das zunehmende Tempo der Digitalisierung führt zu einem enormen Fachkräftemangel, insbesondere im Bereich Cloud und Cyber-Sicherheit. Für Unternehmen, die Anwendungen, Daten, Geschäftsabläufe sowie eine Vielzahl von virtuellen Infrastrukturen in die Cloud verlagern müssen, bedeutet das nichts Gutes. Wie können Unternehmen, die bereits bei wichtigen Cyber-Projekten hinterherhinken, die Migration in die Cloud beschleunigen? Venu Lambu, Global Head of Markets for Infrastructure Services bei Cognizant, sieht folgende Lösungsansätze als Möglichkeit, um dieser Engpass zu bewältigen: Zum einen muss die Anzahl interner Sicherheitsexperten stark erhöht werden, zum anderen müssen Berater, Systemintegratoren und Dienstleister in den täglichen Cyber-Betrieb eingebunden werden. Ein Perspektivwechsel sowie die Geschäftsstrategie durch die Cloud-Linse zu betrachten, wobei das Cloud Computing-Modell die betrieblichen Sicherheitsanforderungen zu berücksichtigen hat, sind entscheidende Punkte.

  • Sicherheit innerhalb der Cloud

    Immer öfter gehen Unternehmen den Schritt in die Cloud. Wer aber ist eigentlich für die Sicherheit in der Public Cloud verantwortlich? Keine leichte Frage. Vor allem, weil Sicherheitsverletzungen weitreichende Folgen nach sich ziehen können. Aus Sicht von Rackspace sind dies die fünf häufigsten Bedenken von Unternehmen, wenn es um die Public-Cloud-Sicherheit geht: Schützen Amazon, Microsoft und Google meine Cloud nicht? Die Cloud-Sicherheit besteht auf der einen Seite aus der Sicherheit der jeweiligen Cloud und auf der anderen Seite aus der Sicherheit in der Cloud. Alle großen Cloud-Anbieter erfüllen strenge Sicherheitsstandards und stellen sicher, dass Verstöße - etwa unberechtigte Zugriffe auf die genutzte AWS-, Azure- oder Google-Cloud-Plattform - sehr unwahrscheinlich sind.

  • Fünf Maßnahmen gegen die mobile Schatten-IT

    Mobile Schatten-IT ist zu einer Herausforderung für die Unternehmens-IT geworden: Mitarbeiter nutzen nicht genehmigte Geräte und Apps und kümmern sich dabei wenig um rechtliche Regelungen, Sicherheitsvorschriften oder Compliance-Vorgaben. Virtual Solution zeigt, was Unternehmen gegen den Wildwuchs mobiler Schatten-IT tun können. Die Schatten-IT ist für Unternehmen schon immer ein Problem gewesen: Waren es früher vor allem persönliche Excel-Sheets oder Datenbanken, die eine weitgehend unkontrollierte und nicht autorisierte IT-Struktur bildeten, so geht es mittlerweile mehr und mehr um mobile Systeme und Anwendungen. Smartphones und Tablets werden von Mitarbeitern an den Vorschriften der Unternehmens-IT vorbei genutzt. Sie verwenden Apps wie WhatsApp und Evernote oder Fileshares wie Dropbox oder Google Drive auch für ihre beruflichen Aufgaben.

  • Wenn Kryptojacking auf die Cloud trifft

    Mit prominenten Opfern tauchte Kryptojacking in der ersten Jahreshälfte 2018 mehrmals in den Schlagzeilen auf. Bei dieser Angriffstechnik kapern Hacker fremde Geräte um Kryptowährungen zu schürfen. Kryptowährungen werden durch das Lösen komplexer mathematischer Probleme generiert. An sich ein legitimer Vorgang, allerdings erfordert dieser eine hohe Rechenleistung und ist damit überaus ressourcenintensiv. Für Kriminelle ist es daher lukrativer, das Schürfen widerrechtlich auf fremde Infrastrukturen auszulagern. Das Kapern von Geräten und Netzwerken und die Bündelung zu einem Botnetz maximiert ihre Schürfkapazitäten und beschert einen höheren Gewinn, da sie diese Ressourcen nicht selbst kostenpflichtig unterhalten müssen. Ebenfalls attraktiv sind die damit verbundenen geringeren Konsequenzen: Fälle von Kryptojacking, insbesondere in den USA, werden von den Behörden weniger aggressiv verfolgt als Angriffe mit Malware oder Ransomware, wo das Schadensausmaß deutlich höher ist.

  • Herausforderung: Das Weitverkehrsnetzwerk

    Seit rund 20 Jahren gibt es Unified Communications (UC). Doch die Nachfrage nach UC-Lösungen erreichte nie das prognostizierte Niveau, das hat sich in den vergangenen Jahren geändert. Der Grund für diesen Umschwung ist UC as a Service. Bei UCaaS nutzen Unternehmen Unified-Communications-Dienste, die über eine Cloud bereitgestellt werden. Zu den Vorteilen zählen kürzere Implementierungszeiten und geringere Investitionskosten. Unterschätzt wird jedoch ein weiterer Vorzug: UC as a Service stärkt die Innovationskraft von Unternehmen. Wenn die eigene IT-Abteilung neue UC-Funktionen bereitstellen muss, dauert das oft Monate. Mit UCaaS sind aber solche Erweiterungen dagegen sofort verfügbar. Ein Beispiel sind Funktionen, mit denen Arbeitsgruppen die Zusammenarbeit optimieren können, Stichwort "Collaboration".

  • Sichere SD-WAN-Bereitstellung

    Unternehmen, deren Standorte landes- oder weltweit verteilt sind, verbinden diese häufig seit Jahren, wenn nicht seit Jahrzehnten, per MPLS-Leitungen (Multiprotocol Label Switching). Doch vor allem durch den steigenden Einsatz von Cloud Computing-Technologien ist diese Architektur mittlerweile veraltet. User, Daten und Anwendungen sind heutzutage weit verstreut, Angestellte arbeiten von überall aus und nutzen eine Vielzahl an Geräten. Vor dieser Entwicklung war die Implementierung von Sicherheitskontrollen relativ einfach dahingehend, dass ein definierter Perimeter um alle zu schützenden Vermögenswerte eines Unternehmens existierte. So konnten IT-Teams eine Vielzahl von Sicherheitstechnologien zentral einsetzen. Remote-Standorte wurden in diesen Sicherheitsbereich einbezogen, indem der gesamte Verkehr über MPLS zu einer großen zentralen Firewall umgeleitet wurde, die für die Traffic-Regulierung und Durchsetzung der Sicherheitsrichtlinien sorgte.

  • Herausfinden, was migriert werden muss

    Mehr als 70 Prozent aller Unternehmen beschäftigen sich aktuell mit Microservices. Viele haben sie bereits im Einsatz, andere bereiten gerade die Migration vor - und das mit gutem Grund. Sie versprechen sich davon eine schnellere Weiterentwicklung ihrer Anwendungen, mehr Flexibilität, mehr Leistungsfähigkeit und eine bessere Skalierbarkeit. Wer den Umstieg jedoch unbedacht angeht, schafft mehr Probleme als er löst. Gregor Keller, Sales Engineering Manager bei AppDynamics, nennt als Application-Performance-Expertin die drei größten Herausforderungen, die ihnen tagtäglich begegnen.