Weniger Fehler, bessere Servicequalität

Monitoring reicht nicht aus: So stellen Sie eine kontinuierliche Serviceoptimierung businesskritischer Anwendungen sicher
Vorbeugen ist besser als heilen. Doch im IT-Systemmanagement hat sich das Prinzip „Fehler vermeiden statt Fehler beheben“ noch nicht etabliert. Dabei kann eine vorausschauende IT-Qualitätssicherung, die den gesamten Application Lifecycle von der Entwicklung bis in den Betrieb umfasst, deutlich und langfristig die Qualität businesskritischer IT-Services steigern und IT-Kosten senken.
Unternehmen quer durch alle Branchen sind für einen reibungslosen Ablauf der Geschäftsprozesse auf eine optimale Servicequalität businesskritischer Applikationen angewiesen. IT-Manager verantworten täglich, dass Applikations-Services für Anwender weltweit stabil und mit hoher Performance bereitstehen. End-to-End-Monitoring des Applikationsbetriebs, also eine Überwachung der Servicequalität aus Anwendersicht, ist für viele Unternehmen das Mittel der Wahl, um Störungen im Servicebetrieb zu identifizieren und Fehler schnell zu beheben.
Fehler im IT-Servicebetrieb beheben ist gut. Es geht aber noch besser: Fehler vor der Inbetriebnahme der IT-Services vermeiden. Unternehmen, die bei der IT-Qualitätssicherung methodisch das Prinzip der Fehlerprävention verfolgen, sichern sich einen wirtschaftlichen Vorteil durch eine deutliche Senkung der IT-Kosten.
10er-Regel der Fehlerkosten im IT Service Management
Aus der industriellen Fertigung von Gütern ist die 10er-Regel der Fehlerkosten bekannt: Der ökonomische Aufwand zur Fehlerkorrektur verzehnfacht sich in jeder Phase des Produktionsprozesses. In der initialen Phase der Produktionsanalyse und -planung kosten Fehler am wenigsten. In der nächsten Stufe der Materialbeschaffung und Produktfertigung steigen Fehlerkosten bereits exponentiell an, und werden Fehler erst nach der Auslieferung des Produkts bei der Nutzung durch den Kunden entdeckt explodieren die Kosten für die Fehlerbeseitigung und der wirtschaftliche Schaden ist enorm.

Im Lebenszyklus eines IT-Services gehen nach ITIL V3 dem Servicebetrieb (Service Operations) die Phasen Konzeption und Planung (Service Design) sowie Entwicklung und Testen (Service Transition) voraus. Für die Umsetzung einer präventiven IT-Qualitätssicherung bedeutet das: Monitoring der Service Operations allein reicht nicht aus. IT-Qualitätssicherung muss schon vor dem Rollout der Applikationen in den Servicebetrieb beginnen.
Herausforderung im Change-Prozess
In modernen Unternehmen mit dynamischen Geschäftsabläufen müssen sich IT-Systeme kontinuierlich an wechselnde Anforderungen anpassen. Doch auch wenn regelmäßig Patches oder Updates für Anwendungen eingespielt oder Systeme um neue Applikationen erweitert werden, muss der IT-Betrieb störungsfrei weiterlaufen. Eine Herausforderung von zunehmender Bedeutung für das IT-Management ist es, Fehlerrisiken im Change gegen Null zu minimieren. Daher müssen Unternehmen im Rahmen des Change-Prozesses eine automatisierte Qualitätsüberprüfung etablieren.
Doch vier von fünf Applikationen werden nur manuell oder gar nicht getestet, bevor sie in den Systembetrieb gehen. Häufig werden solche Tests an Dritte vergeben, die jedoch nur eine rein technische Überprüfung vornehmen können, denn Außenstehende haben keinen tiefen Einblick in die anwenderseitigen Anforderungen. Andersherum fehlt bei einer Überprüfung in der Fachabteilung den dortigen Mitarbeitern der Blick für die Technik hinter der Anwendung – ganz abgesehen davon, dass Softwartetests nicht zu ihren Kernaufgaben gehören. Fehler sind somit aufgrund der hohen Komplexität und Dynamik von IT-Systemen quasi vorprogrammiert – und die damit verbundenen Kosten natürlich auch.
Qualitätssicherung über den gesamten Service Lifecycle
Wie setzen IT-Verantwortliche das Prinzip einer präventiven und nachhaltigen Qualitätssicherung um, damit sie die Servicequalität businesskritischer Applikationen über den gesamten Service Lifecycle effizient sicherstellen können? Hierfür werden Softwarelösungen eingesetzt, die einen sogenannten „virtuelle User“ darstellen. Ein solcher User basiert auf einer synthetischen Anwendersimulation und testet Anwendungen automatisiert vor dem Rollout in den Livebetrieb auf die geforderte Funktionalität, Skalierbarkeit und Performance an regional und weltweit verteilten Standorten.
Der „virtuelle User“ wird darüber hinaus auch nach der Inbetriebnahme der Applikationen für das Monitoring derselben genutzt. So überwacht er rund um die Uhr die (ggf. in Service Levels definierte) Servicequalität bei den Anwendern, indem er Verfügbarkeit und Antwortzeiten businesskritischer Transaktionen, wie zum Beispiel einen Login ans SAP-System, aus Anwendersicht misst.
Qualitätstests: universell, sicher und einfach
Derartige Softwarelösungen müssen einige Voraussetzungen mit sich bringen, damit sie das Ziel einer umfassenden Sicherstellung der Servicequalität erfüllen. Sie müssen zunächst universell einsetzbar sein und sämtliche Anwendungen testen, ganz gleich, ob es sich etwa um SAP, Office-Programme, webbasierte Applikationen, Services in Citrix-Terminal-Umgebungen oder on-Premise-Lösungen handelt. Des Weiteren ist der Umgang mit Ausnahmen von der Messroutine wichtig. Solche Ausnahmen stellen beispielsweise Popups beim Einspielen von Updates und Patches oder Ausfälle einer überwachten Applikation dar. Die Anwendersimulation muss auch in solchen Fällen valide Messdaten liefern.
Um Unbefugten keinen Zugriff zu ermöglichen, ist es ratsam, die Messungen des „virtuellen Users“ als verdeckte Windows-Sessions laufen zu lassen. Sensible Daten – im E-Commerce, im Gesundheitswesen, in Banken und Versicherungen – bleiben auf diese Weise geschützt. Eine einfache und intuitive Integration der Qualitätstests als grafische Workflows in den Applikationen ermöglicht darüber hinaus bei Änderungen eine schnelle Anpassung mit nur wenigen Klicks. Damit können auch Nutzer ohne Programmierkenntnisse diese Workflows an den Businessabläufen ausrichten.
DevOps und IT-Business-Alignment unterstützen
Besonders kritisch für die Servicequalität von Anwendungen ist das Zusammenspiel zwischen Entwicklung und IT-Betrieb (DevOps). Automatisierte Qualitätstests vor dem Rollout optimieren DevOps, denn sie garantieren eine schnellere und sicherere Auslieferung neuer oder geänderter Services in den Betrieb (Continuous Delivery). Eine zentrale, webbasierte Verwaltung der Testszenarien ermöglicht die Wiederverwendung und Anpassung der Workflows für die Abteilungen Entwicklung, Testing und Betrieb und verbessert somit die Kommunikation der beteiligten Service Delivery Units. Durch die einfache und schnelle Einrichtung und Anpassung der Messabläufe werden Applikationen an dynamische Businessabläufe in Unternehmen qualitätsgeprüft angepasst (IT-Business-Alignment).
Aus der SAP-Praxis: automatisierte Regressionstests
Ein praktisches Anwendungsbeispiel für präventive IT-Qualitätssicherungen sind Regressionstests, die das Einspielen neuer Transporte in ein SAP-System und damit einen kritischen Change-Prozess sichern. Ein SAP-Transport wirkt sich auf die Funktionalität des gesamten Produktivsystems aus. Schleichen sich hier Fehler ein, beispielsweise im businesskritischen Segment Produkt- und Preiskalkulation, entstehen dem betroffenen Unternehmen reale und handfeste ökonomische Verluste. Häufig kann der fehlerhafte Transport nur noch durch eine komplette Wiederherstellung des SAP-Systems auf den Status vor dem Change korrigiert werden, was wiederum eine ungeplante längere Downtime des Gesamtsystems und damit einen Komplettausfall der Businessabläufe im betroffenen Unternehmen bedeutet.
Dieses Risiko ist in Unternehmen, die ihre Business- und Produktionsabläufe mit SAP steuern, an der Tagesordnung: Hunderte Transporte werden jährlich ins System eingespielt. Der Aufwand zur Qualitätssicherung im Change Management ist also entsprechend hoch. Automatisierte Regressionstests schonen an dieser Stelle wichtige Ressourcen wie Zeit, Personal und Hardware und reduzieren das Fehlerrisiko manueller Testverfahren.
Entspanntes Change Management
In einer Testumgebung, die das SAP-Produktivsystem abbildet, testet der „virtuelle User“ automatisiert die geplante Integration der Transporte ins Gesamtsystem. Laufen die Workflows fehlerfrei durch, wird der Change durchgeführt, das heißt, dass der getestete Transport automatisiert ins Produktivsystem eingespielt wird. Werden Fehler im Testsystem identifiziert, erfolgt umgehend eine Meldung. Darüber hinaus werden die Fehler dokumentiert.
In diesem Fall wird der Change nicht durchgeführt und der IT-Verantwortliche kann die detaillierten Fehlerinformationen aus dem Reporting zur gezielten Korrektur des einzuspielenden Transports nutzen. So können IT-Manager trotz häufiger Changes – die in der Regel über das Wochenende vorgenommen werden – sicher sein, dass SAP am Montagmorgen unternehmensweit für alle Mitarbeiter bereitsteht.
Autor

Markus Duus ist Geschäftsführer der ServiceTrace GmbH aus Darmstadt. Das Unternehmen garantiert mit ihrer Enterprisefähigen und kosteneffizienten Lösung die Qualität von IT-Anwendungen über deren gesamten Service Lifecycle. Die Qualitätstests basieren auf der Software ServiceTracer, ein patentiertes Verfahren zur Nutzersimulation, das GUI-basierte Nutzeraktivitäten protokollunabhängig und damit uneingeschränkt für alle Applikationen abbildet.