Als Mainframer der Generation Y, der in den 80er Jahren geboren wurde, fällt es mir manchmal schwer, Leuten in meinem Alter zu erklären, was ich tue.
Warum Mainframe?
Typischerweise haben Menschen in meinem Alter a) noch nie vom Großrechner gehört oder b) denken an Lochkarten und Greenscreen-Terminals, die sie in einem Computermuseum gesehen haben. Sie sind eher überrascht, wenn ich ihnen sage, dass unternehmenskritische Workloads wie Kontoführung, Gehaltsabrechnung, Bestandskontrolle, Bank- und Finanztransaktionen im Jahr 2018 tatsächlich auf Großrechnern laufen. Tatsächlich laufen rund 68 % der weltweiten IT-Produktionsworkloads auf Großrechnern (cio.com) und 71 % der globalen Fortune-500-Unternehmen verfügen über einen Mainframe (IBM). Dafür gibt es triftige Gründe wie Zuverlässigkeit, Verfügbarkeit, Servicefreundlichkeit, Skalierbarkeit und Sicherheit..
Während der Business Case für den Mainframe solide ist, beginnt die Unwissenheit von Gen Y und Z über Mainframes zum Problem zu werden. Die Experten altern und die Unternehmen finden es schwer, sie zu ersetzen. Ein Effekt, den wir sehen, ist eine Zentralisierung eines begrenzten Mitarbeiterpools, mit anderen Worten: Outsourcing des Mainframes.
Der menschliche Faktor
Als ISV im Mainframe-Ökosystem arbeiten wir mit Kunden zusammen, die sich für die Outsourcing-Lösung entschieden haben, und manchmal sahen wir überraschende Fehlerszenarien. Aufträge werden zweimal ausgeführt, überhaupt nicht oder falsch konfiguriert. Es scheint mehr menschliche Fehler zu geben, da lebenswichtiges stillschweigendes Wissen im Übergangsprozess verloren gehen kann. Da die Daten auf dem Mainframe typischerweise unternehmenskritisch sind, können die Folgen sehr gravierend sein – wie z.B. falsche Kontostände, Doppeltransaktionen oder Zahlungen an falsche Empfänger. In einem Fall wurden 20.000 statt 20 Empfänger ausgewählt.
Während der Mainframe wohl der zuverlässigste Computing-Stil ist, gibt es eine Unterschätzung des menschlichen Faktors?
Wenn ja, was können wir dagegen tun?
Verbesserung der Datenqualität durch automatische Datenqualitätssicherung auf dem Mainframe
Der Einsatz unserer Software reduziert die Anzahl fehlerhafter Transaktionen erheblich, integriert sich tief in die SAP-Prozesse und prüft automatisch, ob die Daten korrekt sind. Um Aufträge in SAP- und verteilten Serverlandschaften abzugleichen, integriert sich unsere Qualitätsmanagementsoftware _beta check|z eng in die bestehende IBM Workload Scheduler-Umgebung. Dadurch ist es möglich, Informationen von SAP an den Host zum Vergleich mit relevanten Sollwerten zu übertragen. Dieses offene Design ist eine wesentliche Stärke unserer Software, da es die Überprüfung der Datenqualität auf dem Mainframe (und natürlich auch in verteilten Systemen) ermöglicht.
Um es zusammenzufassen: _beta check|z bietet eine standardisierte Methode, mit der Kunden alle Daten und Protokolle automatisch überprüfen können, unabhängig davon, ob sie zentral unter z/OS oder auf verteilten Plattformen verarbeitet werden. Das Produkt liefert somit einen einzigen Kontrollpunkt.
Viele Grüße
Lars Danielsson