- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Auf dem Weg ins Internet der Dinge


Out-of-Band-Management sorgt für effizientes IoT
Wie IoT-Infrastrukturen durch Out-of-Band-Management besonders effizient und ausfallsicher gemacht werden können

- Anzeigen -





Von Dirk Schuma, Sales Manager Europe bei Opengear

Von smarten Haushaltsgeräten und Wearables, über intelligente Verkaufsautomaten und Self-Service-Kassen bis hin zu Connected Cars und der vernetzten Fabrik – das Internet der Dinge wächst unaufhaltsam. Über 20 Milliarden IoT-Geräte erwartet das Analystenhaus Gartner bis 2020. McKinsey prognostiziert dem Internet of Things für 2025 einen potentiellen Marktwert zwischen vier bis elf Billionen Dollar jährlich. Doch bei allem Potenzial hat IoT noch nicht den breiten Markt für Unternehmen erreicht, mit Ausnahme einiger Sektoren wie beispielsweise Energieversorgung und Logistik. Für viele Organisationen ist es noch ein weiter Weg, ihre Systeme mit Konnektivität und innovativen Softwaresystemen auszustatten, die die Effizienz und Kosteneinsparung des IoT-Konzepts ermöglichen.

Die IoT-Revolution basiert auf einer Reihe von Schlüsselkriterien. Grundlegend gehören hierzu die Datenkonnektivität von stationären und mobilen Geräten, die Geräteintelligenz, Sensormesswerte zu liefern und Fernbefehle entgegenzunehmen, sowie Aktionstools, die die Datenmassen in neue Erkenntnisse verwandeln. In vielen Branchen beschreiten Unternehmen diesen Weg mit intelligenten Appliances, die vor einem Systemzusammenbruch warnen und vorbeugende Maßnahmen ermöglichen, beispielsweise im Logistikmanagement oder Straßenverkehr zur Vermeidung von Staus.

Viele der grundlegenden IoT-Konzepte von Smart Devices, Connectivity und intelligenter Analytik sind bereits die Domäne der IT-Industrie. Großunternehmen, Telekommunikationsanbieter und Hosting-Provider verlassen sich seit Jahren auf Automatisierung und Remote-Fehlerbehebung, um große, zentralisierte Rechenzentren sowie entfernte Standorte bereitzustellen. Mit der wachsenden Dominanz der IT über alle Branchen hinweg und dem ständigen Druck, mit weniger mehr zu erreichen, sind IT-Abteilungen seit Jahren IoT-Pioniere, ohne dem Kind bisher einen Namen gegeben zu haben.

In den 90ern, als VoIP an Bedeutung gewann, übernahmen viele IT-Abteilungen die Rolle separater Telekommunikations-Teams. In den letzten Jahren hat der Einsatz von IP bei Überwachungskamerasystemen diesen Bereich in die Verantwortung der IT-Teams gebracht. Da das Rechenzentrum für die Geschäftsperformance und -kontinuität enorm an Bedeutung gewonnen hat, müssen IT-Teams zunehmend Geräte an Standorten fernsteuern, auf die sie nur noch begrenzten physischen Zugriff haben. Dieser Aufgabenbereich wächst und passt gut zu den technischen Fähigkeiten der IT-Abteilungen. Ebenso wie zu bestehenden Tools wie Gebäude- und Hausverwaltungssystemen, die von der IT bereits für das Facility-Management gepflegt werden.

Out-of-Band-Management zur Absicherung von IoT-Infrastrukturen
Im Mittelpunkt vieler dieser bestehenden Managementaufgaben steht die Nutzung von Out-of-Band-Management (OOB). Damit ist der administrative Zugriff auf kritische Elemente wie Netzwerk-Switches, Router, Stromverteilungseinheiten und eine wachsende Zahl von Security Devices wie Firewall- und Encryption-Tools zu gewährleisten. Obwohl die meisten dieser Geräte über eine Inline-IP-Verbindung für die grundlegende Verwaltung verfügen, sind viele der kritischen Management-Funktionen wie Firmware-Upgrades nur über serielle Konsolen-Ports verfügbar. Darüber hinaus kann bei Verlust der IP-Verbindung oder bei einem Gerät, das auf keinen Befehl mehr reagiert, manchmal nur ein Hard-Reboot per separatem Out-of-Band-Pfad, zum Beispiel per 3G/4G-Verbindung, helfen.

Angesichts der steigenden Anzahl an Connected Devices entstand eine neue Generation von OOB-Lösungen, die sich mit zahlreichen Gerätetypen verbinden lässt. Die Liste wächst kontinuierlich und umfasst beispielsweise Kameranetzwerke, Verkaufsautomaten, Geldautomaten, Glücksspielterminals sowie Heizungs-, Lüftungs- und Klimatechnik. In bestimmten Bereichen, insbesondere bei hohen Investitionen wie Industrieanlagen, ist OOB auch eine wesentlich kostengünstigere Option, um einem bestehenden Gerät Konnektivität zu verleihen, als ein neues Anlagenmodell anzuschaffen. Dies ist ein großer Vorteil für IoT-Projekte, bei denen Geräte Konnektivität über einen flexiblen Weg wie 3G- und 4G-Mobilfunk benötigen, sowie bei mobilen Anwendungsfällen in Fahrzeugen.

Auch in Bezug auf die Offenheit haben OOB-Lösungen eine Renaissance erlebt: Das erste Schlüsselelement ist die Öffnung der Geräte durch APIs. Diese ermöglichen es Unternehmen, flexible Skripte zu erstellen, die viele, auf Rückmeldungen der Geräte basierende Troubleshooting-Funktionen, automatisieren können. Das zweite Schlüsselelement ist die Verwendung gemeinsamer Standards wie SNMP (Simple Network Management Protocol). Diese bieten eine engere Integration mit gut genutzten Netzwerkmanagementplattformen wie Solarwinds und Nagios, die zunehmend Fernverwaltungsfunktionen für IoT-Geräte anbieten.

Praxisbeispiele: Integration von OOB mit IoT-Anwendungen
IT-Abteilungen im Rechenzentrums- und Service Provider-Bereich integrieren zunehmend Out-of-Band-Management als Teil der eigentlichen IoT-Anwendungen. So nutzt etwa der britische Netzwerkdienstleister Sohonet für über 400 Medien- und Unterhaltungsunternehmen wie BBC Worldwide, HBO und NBC Universal die Out-of-Band-Technologie zur Verwaltung von Remote-Geräten an 60 Points of Presence auf drei Kontinenten. Im Fall eines Hardware-Ausfalls ist der Remote-Zugriff auf die Konsole zur Verwaltung von Konfigurationsänderungen, Stromzyklen oder sogar zum Versand neuer Hardware eine einfache, aber wichtige Anforderung. Sohonet integrierte OOB in ein durch das Unternehmen selbst entwickeltes Netzwerkmanagementsystem, um die Fehlersuche und Automatisierung zu erleichtern.

TMV Control Systems, ein kanadischer Hersteller von Lokomotiv-Steuersystemen, hat seine Traktions- und Motorsteuereinheit mit OOB ausgestattet, um seinen Kunden eine Fernüberwachung für Motorsysteme über 3G-Mobilfunkverbindung, GPS-Funktionen und VPN-Gateway zu ermöglichen. Die Daten helfen TMV-Kunden, die Effizienz und den allgemeinen Zustand ihrer Flotten zu verfolgen. Daten, die früher stundenlang gesammelt wurden, werden jetzt alle paar Minuten automatisch abgerufen. Das Wartungspersonal hat nun Online-Zugriff auf Informationen, die nur wenige Minuten alt sind. Probleme können identifiziert und analysiert werden, sobald sie auftreten, sodass der Remote-Support zeitnah eine Lösung finden kann.

Kosteneffizientes OOB
Im Beispiel von TMV ist es die OOB-Fähigkeit, das Mobilfunknetz zu nutzen, durch den mobilen Anwendungsfall entscheidend. Da Breitband-Mobilfunknetze zudem mit geringeren Kosten punkten, wird die Migration zu diesen Netzwerken für IT-Administrationszwecke weiter zunehmen. Doch bei all dem Hype um das Potenzial des IoT sind Verantwortliche immer noch durch Budgets eingeschränkt. Hier zeigt OOB seine Stärke durch relativ niedrige Kosten. Mit Einstiegseinheiten einschließlich 3G/4G-Konnektivität ab 800 Euro prüfen insbesondere IT-Abteilungen, wie sie die Technologie sowohl für bestehende Netzwerk- und Systemelemente als auch für neue IoT-Anwendungsfälle in Bereichen wie Überwachungskameras, Zutrittskontrolle und Heizungs-, Lüftungs- und Klimatechnik auf doppelte Weise nutzen können.

Für Unternehmen schlummert ein enormes Potenzial im Internet of Things, welches sich zukünftig durchaus zu einer Multi-Billion-Dollar-Industrie entwickeln könnte. Bereits heute zeigen sich seine Vorteile in der Nutzung durch Netzwerk- und IT-Administratoren zur optimierten Überwachung und Steuerung kritischer Systeme.
(Opengear: ra)

eingetragen: 16.11.18
Newsletterlauf: 07.12.18

Opengear: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Daten sicher aus der Public Cloud zurückführen

    In vielen Unternehmen findet im Umgang mit der Cloud inzwischen ein Umdenken statt und vermehrt wollen Unternehmen zumindest Teile ihrer Kerndaten und zentralen Anwendungen aus der Public Cloud zurückholen (Cloud Data Repatriation). Laut der US-Analystenfirma IDC, haben 80 Prozent der Unternehmen ihre Workloads im vergangenen Jahr repatriiert. Es wird davon ausgegangen, dass in den nächsten zwei Jahren 50 Prozent der Anwendungen aus der Public Cloud an private oder lokale Hosting-Standorte zurückgeholt werden - teils aus Kostengründen oder wegen der Skalierbarkeit. Zwar bieten Public Clouds ein hohes Maß an Flexibilität, sie sind aber auch teuer und die Übertragung unstrukturierter Daten, wie sie beispielsweise vom Internet of Things (IoT) erzeugt werden, ist zudem oft nicht schnell genug. Gerade Unternehmen, die glaubten, sie hätten ihre Daten im Griff, müssen feststellen, dass sie die Masse unstrukturierter Daten nur schwer einschätzen können. Lange dachte man, das Problem wäre gelöst, wenn man den Großteil der Daten in die Cloud verschiebt. Jetzt wird zunehmend deutlich, dass die Cloud nicht nur teuer sein kann, sondern dass es aufgrund potenzieller Latenzzeiten auch manchmal schwer ist, schnell genug an bestimmte Daten heranzukommen.

  • Applikationen nur so gut wie das Netzwerk

    Die Cloud-Nutzung ist laut bitkom auf Rekordniveau bei Unternehmen. Allerdings ist die Leistung der Applikationen in der Cloud nur so gut wie das Netzwerk. Doch herkömmliche WANs können den Ansprüchen eines modernen Datenverkehrs kaum gerecht werden. Das traditionelle Router-zentrierte Modell ist netzwerkgesteuert. Dies bedeutet im Wesentlichen, dass das Unternehmen gezwungen ist, sich an die Einschränkungen des Netzwerks anzupassen. Traditionelle Router, die vor der Cloud entwickelt wurden, führen den gesamten für die Cloud bestimmten Datenverkehr von Zweigstellen zurück zum Rechenzentrum, anstatt direkt zu Software-as-a-Service (SaaS)- bzw. Infrastructure-as-a-Service (IaaS)-Anwendungen und -Instanzen. Das beeinträchtigt die Leistung und die Produktivität immens.

  • Im Visier: Managed Service Provider

    Chester Wisniewski, Principal Researcher bei Sophos, hat ein Gespür für Trends, und zwar welche neuen perfiden Methoden sich im kriminellen Online-Ökosystem entwickeln. Angriffe über Managed Service Provider (MSP) hat er kommen sehen. Die jüngsten Beispiele von attackierten Zahnarztpraxen bestätigen nun seinen Spürsinn. Allerdings können wenige Sicherheitsmaßnahmen bereits große Wirkung im Kampf gegen die Hacker erzielen. Ransomware ist eine starke Waffe der Cyberkriminellen. Und es entwickelt sich ein neuer Trend - die Infizierung von Unternehmen über deren Managed Service Provider. Die jüngsten Opfer allein in den USA: Hunderte von Zahnarztpraxen und Kommunen. Chet Wisniewski, der Forensik und das Vorhersagen von cyberkriminellen Entwicklungen zu seinem Beruf gemacht hat, hatte die Probleme und Gefahren von MSPs bereits seit langem im Auge und empfiehlt konkrete Schritte zur Vermeidung.

  • Sicherheitsmodell für Cloud-gehostete Anwendungen

    Die wichtigsten Sicherheitsprobleme im Zusammenhang mit der Cloud sind laut einer Studie von Checkpoint die mangelnde Transparenz und die Konformität der Infrastruktur. Der nicht autorisierte Zugriff auf die Cloud, unsichere Schnittstellen, Cloud-Konfigurationsfehler und die missbräuchliche Verwendung von Konten sind die vier Hauptschwachstellen der Public Cloud. Für Kristian Thyregod, Vice President EMEA bei Silver Peak, stehen diese Themen im Mittelpunkt der digitalen Transformationsprozesse von Unternehmen. SaaS-Anwendungen und die IT-Infrastruktur ihrer eigenen Rechenzentren stellen eine beachtliche Herausforderung für CIOs dar.

  • Fehlende Präzision: Formulierung der Projektziele

    Eine unpräzise Formulierung der Projektziele, unklare Kompetenzverteilung und zum Teil eine unzureichende Ausbildung und Fähigkeiten in der Anwendung von Projektmanagement-Methoden sind nach Angaben des Beratungsunternehmens iTSM Group die häufigsten Ursachen für das Scheitern von IT-Projekten in der Öffentlichen Verwaltung. Und ein solches Scheitern ist nicht selten - nach unterschiedlichen Studien wird in diesem Bereich nur jedes zweite Projekt erfolgreich abgeschlossen. Das kürzlich vom Bundesrechnungshof massiv kritisierte Digitalisierungsprojekt der Bundesregierung ist hier also nur der Gipfel des Eisbergs. Die fehlende Präzision bei der Formulierung der Projektziele führt laut iTSM zum einen zu Orientierungslosigkeit bei den Projektbeteiligten und zum anderen zu einem gefährlichen Eigenleben von Teilprojekten, denen ein gemeinsames Ziel fehlt und die sich zum Schluss nicht sinnvoll integrieren lassen. Nachbesserungen, Verzögerungen oder gar das Scheitern des gesamten Projekts sind die Folgen.

  • Sicherheitsniveau in der Cloud

    Die Cloud bietet zahllose Vorteile, auf die heute kaum mehr ein Unternehmen verzichten kann. Wer sich jedoch für den Schritt in die Cloud entscheidet, sollte sich im Vorfeld vor allem mit einem Thema auseinandersetzen: der Sicherheit. Die meisten denken dabei wohl zuerst an entsprechende Software-Lösungen. Wirkliche Sicherheit in der Cloud lässt sich jedoch nur über ein komplexes Geflecht aus Prozessen, Richtlinien und Technologien bewerkstelligen, das sich vom Endpoint, über die Daten, bis hin zur Umgebung selbst erstreckt. Anwender müssen sich darüber im Klaren sein, dass es in Cloud-Umgebungen Unmengen an sensiblen Daten zu schützen gilt. Im Durchschnitt sehen Unternehmen sich mittlerweile mit 31,3 sicherheitsrelevanten Zwischenfällen pro Monat konfrontiert - eine enorme Steigerung gegenüber dem Vorjahr.

  • Cloud-Trends werden Cloud-native

    Cloud-native Anwendungen stellen spezifische Anforderungen an die Softwareentwicklung und -bereitstellung. Klassische CI- und CD-Tools stoßen hier schnell an ihre Grenzen. Consol stellt drei neue CI- und CD-Projekte vor und beleuchtet ihr Potenzial. Im Zuge des allgemeinen Cloud-Trends werden Cloud-native Applikationen immer wichtiger. Sie basieren verstärkt auf Microservices-Architekturen, die neue Anforderungen an Continuous Integration (CI) und Continuous Delivery (CD) stellen. CI- und CD-Tools sowie Workflows müssen sich vor allem an die Geschwindigkeit und die Komplexität der Cloud-nativen Möglichkeiten anpassen. "Klassische" CI- und CD-Tools wie Jenkins mit ihren Funktionalitäten sind hier weniger geeignet. Stattdessen rücken inzwischen vermehrt neue Tools ins Blickfeld, die direkt aus der Cloud-nativen Entwicklung heraus entstanden sind und somit keine "Altlasten" mit sich tragen. Wichtige Kriterien, die sie erfüllen sollten, sind unter anderem Hosting und Scheduling auf Kubernetes, Container als Pipeline-Schritte, Web-UI und "Pipeline as Code".

  • Einsatz Cloud-basierter ERP-Systeme

    Daten sind der Treibstoff des digitalen Wandels, und der enorme Zuwachs an Geschäftsanwendungen und Tools trägt dazu bei, dass die Datenmenge stetig wächst. So haben die Analysten von 451 Research herausgefunden, dass bei 29 Prozent der befragten Führungskräfte die Datenmenge um 100 bis 500 Gigabyte (GB) pro Tag und bei 19 Prozent sogar um 500 GB bis 1 Terabyte (TB) zunimmt. Bei 13 Prozent ist es ein Zuwachs von 2 TB. Eine umfassende Datenstrategie sowie ein gut gemanagter und sicherer Datenbestand, der Entscheidungen unterstützt, sind in diesem Zusammenhang mehr als ein Wettbewerbsvorteil, sondern essentieller Schlüssel zum Erfolg. Oracle gibt Unternehmen fünf Tipps, worauf sie in Bezug auf die sich stetig wandelnde Position des Chief Data Officer (CDO) achten sollten.

  • In fünf Schritten zu mehr Sicherheit in der Cloud

    Der beschleunigte Wandel der technischen Infrastruktur, die digitale Transformation und die zunehmende Cloud-Nutzung verändern die Herausforderungen für Unternehmen, ihre kritischen Vermögenswerte zu sichern, erheblich. Cloud-Security gewinnt somit immer mehr an Bedeutung. Die Dynamik der Public Cloud schafft dazu eine komplexe Steuerungsebene, in der zu schützende Daten in einer Umgebung wahrgenommen werden, die das Sicherheitsteam nicht kontrollieren oder überwachen kann. Die großen Plattformen Amazon, Google und Microsoft nehmen einen immer größeren Anteil des Cloud-Markts ein. Grund genug für Hacker, diese Plattformen aktuell sehr genau ins Visier zu nehmen, um deren Schwachstellen zu finden. Welche Maßnahmen können Unternehmen ergreifen, um ihre Cloud-Umgebung besser zu schützen?

  • Steigende Beliebtheit von Cloud-Lösungen

    Cloud Computing-Services werden bei deutschen Unternehmen immer beliebter: Im Jahr 2018 setzten laut Statista bereits 73 Prozent Cloud-Dienste ein. Laut Bitkom Research speichert die Hälfte deutscher Unternehmen auch personenbezogene Daten in der Cloud, rund ein Drittel der befragten Unternehmen sogar geschäftskritische Inhalte in der Public Cloud. Sicherheitsanbieter McAfee veröffentlichte jüngst noch genauere Zahlen, nach denen Office 365 31 Prozent, Salesforce rund 16 Prozent, Slack und Google Docs je 2 Prozent dieser Unternehmensdaten beherbergt. "Das ist problematisch, wenn man bedenkt, dass 47 Prozent der Unternehmen in 2018 Attacken auf Cloud-Services registrierten und im selben Jahr fast jeder zweite Anbieter von Cloud-Services zum Ziel einer DDoS-Attacke wurde", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group. Nicht ohne Grund, denn der Nachholbedarf in Sachen Datensicherheit in der Cloud ist tatsächlich groß. Insbesondere in der Microsoft-eigenen Cloud-Lösung OneDrive stiegen die Missbrauchsvorfälle enorm: Allein im ersten Quartal 2019 wurden bereits 60 Vorkommnisse gezählt. Auch Dropbox wird vermehrt für Schadsoftware missbraucht: Zwischen dem letzten Quartal 2018 und dem ersten Quartal 2019 wurden mehr als 80 Vorfälle registriert.