- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Business Mashups mit fertig modellierten Prozessen


ITIL optimiert Serviceprozesse im Krankenhaus
Flexible und pragmatische Lösungen erleichtern Akzeptanz


Autor André Beuth:
Autor André Beuth: Mit ITIL können Krankenhäuser ihre IT-Infrastruktur professionell verwalten, Bild: Serena Software

Von André Beuth, Technical Account Manager, Serena Software

(16.09.10) - Gerade Krankenhäuser haben in den letzten Jahren einen wirtschaftlichen Wandel vollzogen – auch aufgrund klammer Kassen. Wurden in früheren Jahrzehnten Kliniken primär als Orte der Heilung gesehen, müssen heutzutage auch die Budgetzahlen stimmen, darin gibt es keinen Unterschied zu Unternehmen. Wie Firmen sind Krankenhäuser daher immer auf der Suche wie sich Prozesse effizienter gestalten lassen, sei es bei der Heilung von Patienten, aber auch bei der Abrechnung oder in der eingesetzten Informationstechnologie (IT).

In der Vergangenheit war die IT eines Krankenhauses für das Personal ein Buch mit sieben Siegeln. Generell herrschte das Vorurteil, dass bis zum Roll-Out und der hundertprozentigen Funktion mehrere Monate oder gar ein Jahr vergehen konnten. Vom Training der Mitarbeiter ganz zu schweigen und auch danach war die Anwendung häufig so kompliziert, die Prozesse so undurchschaubar, dass das Personal nur zähneknirschend damit arbeitete. Dies änderte sich in den 1980er Jahren, als die Information Technology Infrastructure Library, kurz ITIL, entwickelt wurde. ITIL ist ein integriertes, prozessbasiertes Framework. Ziel von ITIL ist, dass Unternehmen, Behörden oder andere öffentliche Einrichtungen ihre IT-Services besser verwalten können – darunter natürlich auch Krankenhäuser.

Die ITIL-Vorteile
Mit ITIL können Krankenhäuser ihre IT-Infrastruktur professionell verwalten. Die Richtlinien und Prozesse der ITIL-Bibliothek ermöglichen der internen IT-Abteilung, strukturierter und effizienter zu arbeiten.

Zu den Vorteilen gehören:

>> IT-Services folgen dokumentierten Prozessen und sind damit leicht nachvollziehbar – auch nach mehreren Jahren

>> Höhere Produktivität, nicht nur in der IT-Abteilung, sondern bei den Arbeitsabläufen im gesamten Krankenhaus

>> Niedrigere Kosten bei der Entwicklung neuer Prozesse und eine schnellere Implementierung

>> Optimierte Kommunikation und besserer Kommunikationsfluss innerhalb der Organisation, nicht nur mit der IT-Abteilung

ITIL kann somit auch als Kommunikations-Layer zwischen der IT-Abteilung und dem Anwender gesehen werden: Dank der IT-Infrastruktur-Bibliothek sollen alle notwendigen Informationen zu einem User-Problem zur Verfügung stehen und somit zur schnellen Lösung beitragen. Heutzutage ist häufig das Gegenteil der Fall, da Fakten aus verschiedenen Systemen aufwändig recherchiert und zusammengetragen werden müssen.

An diesem Punkt greift ITIL: Die modellierten Prozesse helfen, eine Anzahl vor-definierter Aktionen durchzuführen. Dies ist so einfach wie eine Software auf dem PC zu installieren, bei der der Anwender mittlerweile nur noch auf den "Weiter"- oder "Fertig stellen"-Knopf drücken muss. Die Crux bei der Umsetzung von ITIL ist, dass viele IT-Abteilungen die Library in Krankenhäusern einsetzen möchten, aber nicht wissen, wie sie dies möglichst effizient schaffen. Hier helfen Business Mashups.

Die Kombination macht es: ITIL plus Business Mashups
Ähnlich wie ITIL dienen auch Business Mashups dazu, IT-Services und Software für den Anwender schnell, flexibel und kosteneffizient zur Verfügung zu stellen – egal, ob es sich dabei um Krankenhäuser, Pflegeheime, Unternehmen oder Behörden handelt. Business Mashups bieten bereits fertig modellierte Prozesse, die sich allerdings flexibel an die Anforderungen jedes einzelnen Krankenhauses anpassen lassen. Knapp 70 Prozent der Prozesse sind bereits konfiguriert, die restlichen 30 Prozent können nachmodelliert werden.

Dies bedeutet für die IT-Abteilung, dass sie in nur wenigen Tagen ITIL-Prozesse und ITIL-Richtlinien konfigurieren kann – aufwändige Programmierung und Kodierung gehören der Vergangenheit an.

Mit Business Mashups erhalten Krankenhäuser eine Lösung, die die ITIL-Prozesse integriert, aber einen deutlich niedrigeren Aufwand an Zeit, Ressourcen und Budget bedeutet. Prozesse müssen so nicht komplett neu erstellt werden, sondern sind mehrheitlich bereits modelliert, lassen aber genügend Spielraum zur Adaption an spezifische Vorgaben oder Anforderungen des jeweiligen Krankenhauses. Auch die Tatsache, dass nicht sofort die komplette IT Infrastructure Library implementiert werden muss, ist ein Vorteil: Verfolgen Krankenhäuser einen pragmatischen Ansatz und setzen zunächst vielleicht nur 70 Prozent der Prozesse ein, können sie Rückmeldungen von den Anwendern zu gewünschten Änderungen flexibel einarbeiten. Das Ergebnis ist eine höhere Zufriedenheit der User, deren Kommentare gehört und umgesetzt werden.

Fazit: Flexible, pragmatische, schlanke Prozesse sind gefragt
Auf die Implementierung einer neuen Applikation oder neuer Prozess ein Jahr zu warten, dauert den meisten Anwendern zu lange – sie möchten möglichst schnell davon profitieren. Außerdem sollen Prozesse oder Software auch ohne lange Trainingseinheiten intuitiv bedienbar sein.

Mit Business Mashups lassen sich diese Ziele bei einer ITIL-Implementierung erreichen: Nicht nur der Trainingsaufwand entfällt dank intuitiver Bedienung komplett, sondern die Bibliothek lässt sich innerhalb weniger Tage einsetzen.

Nachdem Krankenhäuser profitabel arbeiten sollen, sind ausgeklügelte Prozesse notwendig, um effizient Ressourcen einzusetzen – ITIL unterstützt dabei, indem es den Informationsfluss vereinfacht und genaue Prozesse vorgibt. Business Mashups sorgen für eine schnelle und kostengünstige Einführung. Außerdem sind sie die Basis für eine flexible Konfiguration, denn auch die besten Prozesse müssen vielleicht einmal überarbeitet werden. In der Kombination garantieren ITIL und Business Mashups Krankenhäusern optimale und effiziente Services innerhalb der gesamten Organisation – und darüber hinaus zufriedene Mitarbeiter und Patienten.

Der Autor:
André Beuth ist Technical Account Manager bei Serena Software. Er befasst sich bei Serena hauptsächlich den Themen mit IT-Prozessoptimierung, Change- und Configuration Management sowie der Transparenz von IT Prozessen. Bevor André Beuth zu Serena kam arbeitet er für Micro Focus und Mercury Interactive.
(Serena Software: ra)

Serena Software: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • DevOps werden zunehmend datengetrieben

    DevOps haben sich in der Software-Entwicklung in den vergangenen Jahren immer weiter durchgesetzt. Die effizientere und effektivere Zusammenarbeit von Entwicklung und IT-Betrieb bringt allen Beteiligten zahlreiche Vorteile: So steigt nicht nur die Qualität der Software, sondern auch die Geschwindigkeit, mit der neue Lösungen entwickelt und ausgeliefert werden. In 2019 haben wir gesehen, dass Automatisierung, künstliche Intelligenz und AIOps immer häufiger eingesetzt und von der DevOps-Gemeinschaft erforscht werden. Container und Functions as a Service nahmen weiter zu, so dass Entwickler und Betriebsteams ihre Anwendungen und Infrastruktur besser kontrollieren konnten, ohne die Geschwindigkeit zu beeinträchtigen. Doch wohin geht die Reise jetzt?

  • Cloud Computing-Daten schützen

    Mit wachsenden digitalen Geschäftsanforderungen investieren Unternehmen massiv in die Erweiterung ihrer Netzwerkverbindungsfähigkeiten, um sicherzustellen, dass ihre Daten den richtigen Personen zur richtigen Zeit zur Verfügung stehen. Insbesondere für Cloud-basierte, hochgradig vernetzte und agile Geschäftsmodelle ist die Gewährleistung eines ordnungsgemäßen Zugriffs auf Daten und Systeme unerlässlich. Zusammen mit der Konnektivität in immer komplexeren Infrastrukturen wachsen auch die Anforderungen an Netzwerk- und Datensicherheit. Wenn nicht die richtigen Schutzvorkehrungen getroffen werden, können Bedrohungen, die von Datenlecks und Fehlkonfigurationen bis hin zu Risiken durch Insider reichen, in jedem komplexen Cloud- und Netzwerkökosystem ihr Schadenspotenzial entfalten.

  • Durchsetzung von Cloud-Sicherheitsrichtlinien

    Cloud Computing-Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt. Denn in der Cloud gespeicherte Daten liegen außerhalb der Reichweite vieler lokaler Sicherheitsvorkehrungen. Unternehmen müssen deshalb zusätzliche Maßnahmen ergreifen, um ihre Daten in der Cloud, über den teils rudimentären Schutz der Anbieter hinaus, gegen Cyberangriffe und Datenlecks abzusichern. Allgemein sind Public-Cloud-Provider für die physische Sicherheit, globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren zuständig. Dies ermöglicht Unternehmen eine flexible Skalierbarkeit und entlastet sie davon, eine eigene Infrastruktur wie ein Rechenzentrum oder Server-Hardware bereitzustellen. Zugleich liegt es in der Verantwortung der Unternehmen, all ihre in die Cloud migrierten Daten und Anwendung selbst auf gewünschte Weise zu schützen.

  • Redundante SaaS-Anwendungen ermittetteln

    Die Software-as-a-Service (SaaS)-Landschaft wächst und wächst. Wer bis jetzt noch nicht auf Wolken geht, plant in absehbarer Zeit himmelwärts zu wandern. Für den IT-Betrieb bringt die Cloud bei allen Vorteilen jedoch auch Herausforderungen mit. Das gilt insbesondere bei der Verwaltung von SaaS-Ausgaben. Auf den ersten Blick steht die Inventarisierung und Konsolidierung von SaaS mit Recht ganz unten auf der Prioritätenliste von IT-Abteilung. Bei den unzähligen täglichen Aufgaben und den Herausforderungen im Zuge der digitalen Transformation, wird das "Ausmisten" im IT-Haushalt gerne auf die lange Bank geschoben. Das kann sich auf lange Sicht jedoch zu einem kostspieligen Fehler auswachsen, denn die Ausgaben für die Cloud (22 Prozent) liegen mittlerweile nur noch knapp hinter den Ausgaben für On-Premise (23 Prozent). Dazu gehört auch Software-as-a-Service (SaaS), Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS). Über 80 Prozent der befragten Unternehmen planen die Ausgaben für SaaS und IaaS/PaaS im nächsten Jahr weiter zu erhöhen.

  • CLOUD Act auch für europäische Cloud-Provider?

    Nahezu zeitgleich mit der DSGVO ist der US-amerikanische CLOUD Act in Kraft getreten. In der Praxis geraten damit zwei Rechtsauffassungen unvereinbar miteinander in Konflikt. Nicht nur für Cloud-Anbieter, sondern auch für Unternehmen, die Cloud Computing-Anwendungen nutzen, könnte dies rechtliche Schwierigkeiten mit sich bringen. Anliegen des "Clarifying Lawful Overseas Use of Data" (CLOUD) Act ist es, die US-amerikanische Strafverfolgung zu erleichtern, indem der Zugriff auf im Ausland gespeicherte Kommunikationsdaten von Verdächtigen vereinfacht wird. Was bislang im Rahmen von Rechtshilfeabkommen zwischen den Regierungsbehörden verschiedener Länder im Laufe mehrerer Monate abgewickelt wurde, soll nun schneller möglich sein.

  • Cloud-Repatriation eine Realität

    Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend. Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde. Tatsächlich ist der Trend Daten und Workloads in Public Clouds zu migrieren seit langem ungebrochen stark und es ist kein Ende dieser Entwicklung auszumachen. Doch trotz dieses generell anhaltenden Trends in Richtung Public Cloud ist Cloud-Repatriation, also die entgegengesetzte Entscheidung, Daten und Workloads zurück nach Hause ins eigene Rechenzentrum zu holen, in letzter Zeit zur Realität geworden. Was treibt diese Entwicklung an?

  • So hilft die KI bei der Datenanalyse

    Die Elektromobilität wird dazu führen, dass Fahrzeuge und Infrastrukturen riesige Datenströme generieren. In dieser Daten-Goldgrube verstecken sich viele Hinweise darauf, wie Unternehmen ihre Angebote und Produkte verbessern, aber auch die Kundenzufriedenheit steigern können. Wer den Datenschatz heben möchte, benötigt eine übergreifende Datenplattform und KI-Lösungen mit Maschine Learning-Komponenten. In den Medien generiert das Thema Elektromobilität derzeit interessante Schlagzeilen. Daimler kündigte an, ab 2021 mit der Produktion von autonom fahrenden Taxis zu starten. Auch Volkswagen steht unter Strom, denn die Wolfsburger wollen in den kommenden zehn Jahren 70 neue vollelektrische Elektrofahrzeuge entwickeln. Dazu meldet nun auch Lidl, dass der Lebensmitteldiscounter auf seinen Parkplätzen künftig Ladestationen für Elektrofahrzeuge installieren wird, wie es schon andere Handelsketten, beispielsweise Aldi, Rewe und Ikea, vormachen. Und im nächsten James Bond-Film wird der Superagent vermutlich mit einem Elektrofahrzeug von Aston Martin auf Gangsterjagd gehen.

  • Funktionierende DevOps-Kultur zu etablieren

    DevOps mit grundlegender IT-Modernisierung verbinden: Weitreichende Veränderungen wie die digitale Transformation oder neue Regularien wie die DSGVO wurden von vielen Unternehmen zum Anlass genommen, die eigene IT-Architektur von Grund auf zu überdenken. Die Ziele dabei waren und sind im Prinzip immer eine flexiblere IT, die schnell auf sich ändernde Umstände reagieren kann - eine der Kernkompetenzen von DevOps. Es ist also überaus sinnvoll, DevOps als eine der zentralen Säulen der neuen IT zu etablieren und sich dadurch kürzere Softwareentwicklungs- und Bereitstellungszyklen zu sichern.

  • Cloud-Big Data-Projekte: Exponentielles Wachstum

    Für IT-Verantwortliche wird es immer wichtiger, mit der Cloud den Einsatz innovativer Technologien zu unterstützen. Cloud Cpmputing-Services für Machine Learning, Künstliche Intelligenz, Blockchain oder Serverless Computing sind heute mit wenigen Mausklicks abrufbar. Damit beschleunigt sich die Umsetzung neuer Geschäftsmodelle ebenso wie die Produktentwicklung. Warum ein organisationsweites Datenmanagement für den Cloud-Erfolg wichtig ist, zeigt der folgende Beitrag. In der Studie "Multi-Cloud in deutschen Unternehmen" berichten die Analysten von IDC, dass 68 Prozent der Unternehmen bereits Cloud Computing-Services und -Technologien für mehrere Workloads verwenden.

  • Multiple Clouds nicht gleich Multi-Cloud

    Multi-Cloud ist derzeit einer der heißesten Trends für Unternehmen. Die Verwendung mehrerer Clouds gleichzeitig, kann viele Vorteile bieten. Richtig eingesetzt kann man mit der richtigen Kombination von Clouds unter anderem die Kosten für Infrastruktur senken, die Präsenz von Daten und Workloads in verschiedenen Regionen verbessern oder die Herstellerbindung an Cloud Computing-Anbieter vermeiden. Unternehmen, die den Ansatz Multi-Cloud hingegen falsch verstanden haben, kann dieses Missverständnis viel Geld kosten. Denn eine fehlgeleitete Multi-Cloud-Strategie hat das Potenzial, Anwendungen, Teams und Budgets unnötig aufzusplitten.