Ihr Ansprechpartner

Jörg Dreinhöfer
Kay Helbig

Totgesagte leben länger – Der Mainframe als Lazarus der IT

Lazarus war gestorben, betrauert und begraben – und dennoch konnte er auf den Zuruf von Jesus sein Grab verlassen. Seit über 2000 Jahren kennen wir daher das Sprichwort: „Totgesagte leben länger.“

Auch der Mainframe wurde bereits mehrfach für tot erklärt. So prognostizierte Stewart Alsop im Jahr 1991, dass der letzte Mainframe am 15. März 1996 abgeschaltet werde. Diese Prognose hat sich nicht bewahrheitet. Der Mainframe lebt – und ist bis heute das stabile Rückgrat zahlreicher Banken, Versicherungen und Behörden.

Die Kombination aus hoher Zuverlässigkeit – vergleichbar mit einem alten Diesel im Keller – und dem Aufkommen neuer Technologien wie Cloud-Computing hat dazu geführt, dass in den letzten Jahren strategisch weniger in diese Plattform investiert wurde. Doch der Druck steigt: Neue Kundenanforderungen, zunehmende regulatorische Vorgaben und der Fachkräftemangel zwingen Unternehmen zum Handeln.

Modernisierungsprojekte sind komplexe Transformationsvorhaben, die meist das gesamte Unternehmen betreffen. Viele dieser Projekte sind gescheitert, wurden gestoppt oder mussten neu aufgesetzt werden. Oft bleibt ein Restbestand auf dem Mainframe zurück – Systeme, an die sich niemand herantraut und die eine vollständige Abschaltung verhindern oder verzögern. Eine Internetrecherche bestätigt diesen Eindruck: Erfolgreiche Abschaltprojekte sind selten dokumentiert.

Ein bemerkenswertes Abschaltprojekt hat der Mainframe-Welt aber trotzdem etwas hinterlassen. Seit den Zeiten des Apollo-Programms in den 1960er Jahren war die NASA Nutzer von Mainframe-Systemen. Bereits vor 13 Jahren wurde der letzte Mainframe im Marshall Space Flight Center in Huntsville (Alabama) abgeschaltet. Dennoch finden sich Spuren der NASA bis heute im z/OS: Das Job Entry Subsystem JES2 meldet sich weiterhin mit dem Kürzel $HASP – ein Akronym für „Houston Automatic Spooling Priority Program“.

Zusammenfassend lässt sich sagen: Nur wenige Unternehmen haben den vollständigen Übergang von der Mainframe-Plattform zu modernen Cloud-Umgebungen vollzogen.

Gerade Banken und Versicherer stehen heute vor der Herausforderung, ihre historisch gewachsenen IT-Landschaften zu modernisieren. Der Mainframe steht dabei im Zentrum der Diskussion – zwischen Stabilitätsgarant, Innovationshemmnis und Abschaltkandidat.

Dieser Artikel stellt die zentrale Frage: Ist der Mainframe noch zeitgemäß – oder ist es Zeit für einen radikalen Schnitt?

Der Mainframe im Finanzsektor – Rückblick und Status quo

Um ein besseres Verständnis zu bekommen, was den Mainframe ausmacht, sollen zunächst wesentliche Evolutionsschritte des Mainframes am Beispiel der Banken nachgezeichnet werden. Wir fokussieren uns hier sowohl auf fachliche Aspekte als auch die technologische Basis.

Vom Buchungsautomaten zum digitalen Service-Hub

Zu Beginn des Einsatzes von Mainframe-Systemen waren die Abläufe in Banken stark papier­basiert. Über den Tag hinweg wurden Belege gesammelt, die anschließend in der Buchungs­zentrale erfasst – sprich: abgelocht – wurden. In nächtlichen Batch-Läufen wurden diese Daten in den Datenbanken verarbeitet und auf den Konten verbucht. Saldenlisten und Kontoauszüge wurden gedruckt und am nächsten Morgen in die Filialen transportiert. Diese Dokumente bildeten die zentrale Arbeitsgrundlage des folgenden Bankarbeitstags – denn eine Online-Abfrage von Kontoinformationen war damals noch nicht möglich.

Der nächste Entwicklungsschritt war die Einführung von Online-Funktionalitäten. Buchungen wurden nun tagsüber in separaten Datenbanken gesammelt und in der Nacht verarbeitet. Gleichzeitig ersetzten Online-Abfragen zunehmend die gedruckten Saldenlisten.

Mit der Jahrtausendwende wurde die Funktionalität weiter ausgebaut: Buchungen erfolgten nun direkt gegen die Konten. Ein markantes Beispiel ist die Autorisierung von Geldautomaten-Auszahlungen – ab etwa dem Jahr 2000 nicht mehr auf Basis des auf der Karte gespeicherten Verfügungsrahmens, sondern in Echtzeit gegen den tatsächlichen Kontostand.

Der wachsende Onlinehandel und die damit verbundenen Kundenerwartungen an ständige Verfügbarkeit führten dazu, dass auch während des traditionellen nächtlichen Batch-Fensters auf die Kernbanksysteme zugegriffen werden musste. Parallel dazu verlagerte sich die Benutzeroberfläche auf die in den Filialen flächendeckend eingeführten PCs. Browserbasierte Anwendungen waren der nächste logische Schritt in der Evolution der Bank-IT.

Diese Entwicklung zeigt deutlich: Der Mainframe hat sich von einer reinen Buchungsmaschine zu einem zentralen Service-Provider für bankfachliche Funktionen gewandelt. Heute sind viele dieser Funktionen über moderne Schnittstellen und Services direkt auf dem Mainframe verfügbar – und bilden das Rückgrat digitaler Bankprozesse.

Die Technik hat mit den Entwicklungen in der IT Schritt gehalten. Trotzdem haben sich die Grundzüge der Anwendungen nur geringfügig geändert.

Technologische Basis und strategische Bedeutung des Mainframes

Die heutigen Mainframe-Lösungen basieren auf bewährten Datenbanksystemen und Pro­grammiersprachen. In der Anwendungsentwicklung dominiert COBOL, seltener kommen PL/I oder Natural/ADABAS zum Einsatz. Trotz intensiver Migrationsbemühungen finden sich in vielen Systemen nach wie vor Reste von Assemblerprogrammen.

Auch bei den Datenbanksystemen zeigt sich ein heterogenes Bild: Neben relationalen Daten­banken wie Db2 sind weiterhin hierarchische Systeme wie IMS/DB im Einsatz. Die Migration von IMS/DB zu Db2 wurde vielerorts angestrebt, konnte jedoch nicht vollständig umgesetzt werden – vor allem, weil ein Wechsel des Datenbanksystems tiefgreifende Änderungen in der Programmlogik erfordert.

Die transaktionale Verarbeitung erfolgt über die etablierten Transaktionsmonitore IMS/TM oder CICS. Ein Wechsel zwischen diesen Systemen ist äußerst selten – wer sich einmal für einen Monitor entschieden hat, bleibt in der Regel dabei.

Auch die Hardware hat sich kontinuierlich weiterentwickelt. Moderne Mainframes ähneln äußerlich Standardservern – lediglich das Gehäusedesign unterscheidet sie im Rechen­zentrum. Technologisch stehen sie anderen Plattformen in nichts nach: Sie sind über TCP/IP vollständig integrierbar, bieten umfangreiche Sicherheitsfunktionen und lassen sich zu hochverfügbaren Clustern mit einer Verfügbarkeit von über 99,99999% kombinieren.

Viele geschäftskritische Anwendungen laufen weiterhin auf diesen Plattformen. Sie wurden in einer Zeit entwickelt, in der Stabilität, Sicherheit und Performance höchste Priorität hatten – Anforderungen, die auch heute unverändert gelten.

Die technologische Basis dieser Systeme wurde über Jahrzehnte hinweg kontinuierlich an neue regulatorische und geschäftliche Anforderungen angepasst. So entstand eine hochgradig optimierte IT-Landschaft, in der zentrale Bankprozesse wie Zahlungsverkehr, Risikomanage­ment, Meldewesen und Kundenverwaltung zuverlässig abgebildet sind.

Der Mainframe ist damit weit mehr als nur ein technisches System – er ist ein strategischer Vermögenswert. Er genießt Vertrauen bei Kunden, Aufsichtsbehörden und internen Stake­holdern gleichermaßen.

Trotz moderner Alternativen bleibt der Mainframe in vielen Instituten unverzichtbar. Seine Fähigkeit, Millionen von Transaktionen pro Sekunde mit extrem hoher Verfügbarkeit zu verarbeiten, ist ein entscheidender Wettbewerbsvorteil im Finanzsektor. Hinzu kommen höchste Standards bei Datenschutz und Compliance – insbesondere im Kontext verschärfter regulatorischer Anforderungen wie dem Digital Operational Resilience Act (DORA).

Die Spielregeln ändern sich…

Die Anforderungen an IT-Systeme in der Finanzbranche haben sich in den letzten Jahren grundlegend gewandelt. Kunden erwarten digitale Services in Echtzeit – intuitiv, personalisiert und jederzeit verfügbar. Gleichzeitig fordern Regulatoren eine höhere Resilienz, Transparenz und Nachvollziehbarkeit der IT-Infrastruktur.

Parallel dazu erleben Unternehmen einen strukturellen Wandel im Umfeld der Mainframe-Systeme: Die Zahl erfahrener Entwickler nimmt kontinuierlich ab, während die Komplexität der gewachsenen Anwendungslandschaften hoch bleibt. Das Wissen über Aufbau und Funktions­weise dieser Systeme droht zu verschwinden – ein operatives Risiko, das strategisch adressiert werden muss.

Technologische Entwicklungen wie Cloud-native Architekturen, Microservices, APIs und DevOps-Methoden setzen neue Maßstäbe in Bezug auf Agilität, Skalierbarkeit und Time-to-Market. Moderne Mainframes lassen sich heute technisch in diese Welt integrieren – viele Legacy-Anwendungen sind dafür jedoch nicht vorbereitet. Eine gezielte Modernisierung schafft die Voraussetzungen, um neue Technologien sinnvoll zu nutzen und Innovationsfähigkeit zurückzugewinnen.

Mit regulatorischen Vorgaben wie dem Digital Operational Resilience Act (DORA) steigen die Anforderungen an die IT-Resilienz weiter. Legacy-Umgebungen stoßen hier zunehmend an ihre Grenzen – insbesondere, wenn Dokumentation, Monitoring oder Schnittstellen nicht dem aktuellen Stand entsprechen. Eine Modernisierung ermöglicht es, regulatorische Anforde­rungen effizienter und nachhaltiger zu erfüllen. Dabei bleibt der Mainframe mit seinen hohen Sicherheits- und Verfügbarkeitsstandards ein zentraler Baustein in der Diskussion um Cyber­resilienz.

Ein oft unterschätzter, aber kritischer Faktor ist der drohende Verlust von Know-how. Viele der Entwickler, die die bestehenden Mainframe-Anwendungen aufgebaut und über Jahrzehnte gepflegt haben, stehen kurz vor dem Ruhestand. Gleichzeitig fehlt es an Nachwuchs mit tiefem Verständnis für COBOL, PL/I oder Assembler. Ohne gezielte Maßnahmen droht ein struk­turelles Wissensvakuum – mit potenziell gravierenden Auswirkungen auf den Geschäfts­betrieb. Die Modernisierung ist daher auch eine Investition in die Zukunftssicherung der IT-Kompetenz.

Um wettbewerbsfähig zu bleiben, müssen Banken und Versicherer ihre Backend-Systeme so modernisieren, dass sie nahtlos mit digitalen Frontends, mobilen Apps und Plattformlösungen interagieren können. Nur so lassen sich neue Geschäftsmodelle realisieren und Kunden­erlebnisse nachhaltig verbessern.

Strategische Optionen – Vom Weiterbetrieb zur Transformation

Die Notwendigkeit zu handeln, liegt nicht beim Mainframe selbst, da dieser hinsichtlich Performance, Skalierbarkeit, Resilienz und Sicherheit führend ist. Vielmehr sind die veralteten Anwendungen der Treiber hinter der anstehenden Modernisierung. Viele geschäftliche und regulatorische Anforderungen lassen sich nur noch mit hohem finanziellem und zeitlichem Aufwand oder gar nicht mehr umsetzen. Um die Zukunftsfähigkeit zu gewährleisten, ist die Modernisierung der IT-Kernsysteme unausweichlich.

Änderungen an den Legacy-Systemen sind in der Regel langwierig, riskant und teuer. Bei der Umsetzung dieser großen Transformationsvorhaben gibt es keinen Königsweg. Die möglichen Optionen reichen von der Modernisierung auf dem Mainframe bis hin zur kompletten Verlagerung weg vom Mainframe. Die jeweiligen Optionen sind pro Anwendung zu entscheiden und müssen im Einklang mit der Gesamtstrategie des Unternehmens liegen.

Grundsätzlich lassen sich drei strategische Optionen unterscheiden. Im Rahmen einer Initiative zur digitalen Transformation bzw. IT-Modernisierung wird häufig eine Kombination dieser Ansätze verfolgt:

Drei Modernisierungsstrategien des Mainframe

Abbildung 1 – Modernisierungsstrategien

Modernisierung auf dem Mainframe

Bei der Modernisierung der Mainframe-Umgebung können zwei Bereiche berücksichtigt werden. Zum einen die Optimierung des Betriebs bestehender Systeme sowohl im Hinblick auf Leistung als auch auf die effiziente Nutzung vorhandener Kapazitäten. Ein Hebel ist dabei beispielsweise die Neukompilierung von Anwendungen auf aktuelle Versionen, um Perfor­mance-Potenziale zu heben und/oder die zugrunde liegenden Datenbanken zu optimieren. Ergänzend dazu bietet eine systematische Portfoliobetrachtung die Möglichkeit, Anwendungen gezielt zu bewerten – mit dem Ziel, diese beizubehalten, zu ersetzen, stillzulegen oder zu konsolidieren. Parallel dazu tragen moderne Betriebsprozesse, etwa durch den Einsatz von CI/CD-Pipelines, zu einer höheren Effizienz und Agilität im laufenden Betrieb bei.

Ein zweiter Schwerpunkt liegt auf der gezielten Optimierung von Legacy-Anwendungen. Durch das Aufbrechen monolithischer Strukturen und die Einführung von Microservices und APIs kann die Flexibilität deutlich erhöht werden – insbesondere bei der Umsetzung neuer Anforderungen. Dieser Ansatz ermöglicht es, bestehende Mainframe-Anwendungen nahtlos in moderne digitale Ökosysteme zu integrieren, ohne den Kerncode verändern zu müssen. So lassen sich beispielsweise neue Frontends, mobile Anwendungen oder Partnerlösungen effizient anbinden und weiterentwickeln.

Hybride Strategie – Integration von Mainframe und Cloud

In einer hybriden Strategie werden Mainframe-Systeme und Cloud-Infrastrukturen – ob Public, Private oder On-Premises – zunehmend in einem einheitlichen Betriebsmodell zusammen­geführt. Dieses zielt darauf ab, die jeweiligen Stärken und Schwächen der unterschiedlichen Plattformen und Architekturen gezielt auszugleichen.

Ein zentrales Element dieser Strategie ist die plattformübergreifende Verteilung von Anwendungen unter Berücksichtigung von Sicherheitsanforderungen, Skalierbarkeit, Perfor­mance und Kostenoptimierung. Dabei spielt die Schaffung von Plattformneutralität eine entscheidende Rolle: Sie ermöglicht es Unternehmen, flexibel auf sich verändernde Anforderungen zu reagieren, ohne an eine bestimmte Technologie gebunden zu sein.

Die hybride Cloud bietet insbesondere die Möglichkeit, die bewährte Sicherheit und Zuverlässigkeit von Mainframe-Systemen für geschäftskritische Prozesse zu nutzen, während gleichzeitig die Agilität und Skalierbarkeit moderner Cloud-Plattformen ausgeschöpft werden kann. Diese Kombination schafft eine zukunftsfähige IT-Landschaft, die sowohl Stabilität als auch Innovationsfähigkeit gewährleistet.

Die Integration in eine hybride Architektur sollte dabei schrittweise erfolgen. So lassen sich Risiken minimieren, bestehende Systeme sinnvoll einbinden und neue Technologien gezielt und kontrolliert einführen.

Komplette Verlagerung in die Cloud

Bei der Verlagerung von Mainframe-Anwendungen in die Cloud stehen den Unternehmen grundsätzlich zwei strategische Ansätze zur Verfügung: der sogenannte „Big Bang“-Ansatz und ein schrittweiser Übergang.

Der Big-Bang-Ansatz zeichnet sich dadurch aus, dass die Funktionalität und das Design der Anwendung weitgehend unverändert bleiben – lediglich die Betriebsumgebung wird migriert. Dies erfolgt häufig im Rahmen eines klassischen Lift-and-Shift-Modells, bei dem die bestehende Anwendung ohne technische Anpassungen in eine neue Infrastruktur überführt wird. So bleibt beispielsweise COBOL weiterhin COBOL, lediglich die Ausführungsumgebung ändert sich. Alternativ kann auch eine automatische Code-Konvertierung zum Einsatz kommen, etwa durch die Transformation von COBOL in Java, um die Anwendung in einer moderneren Umgebung betreiben zu können.

Demgegenüber steht der schrittweise Übergang, der in der Regel mit einer gezielten Modernisierung des bestehenden Mainframe-Ansatzes beginnt. Ziel ist es, Plattformneutralität auf Modulebene zu schaffen – etwa durch das Neuschreiben einzelner Anwendungs­komponenten. Dieser Ansatz bietet nicht nur die Möglichkeit, technische Altlasten zu beseitigen, sondern erlaubt auch funktionale Weiterentwicklungen der Anwendung im Zuge der Migration. So entsteht eine moderne, flexible Architektur, die sowohl zukünftige Anforderungen als auch bestehende Geschäftsprozesse berücksichtigt.

Die Wahl der passenden Modernisierungsstrategie ist kein Entweder-oder, sondern ein Sowohl-als-auch. Erfolgreiche Unternehmen kombinieren verschiedene Ansätze zu einem maßgeschneiderten Transformationspfad – abgestimmt auf Geschäftsziele, IT-Reifegrad und regulatorische Rahmenbedingungen. Entscheidend ist ein klar definiertes Zielbild, das Stabilität und Innovation gleichermaßen berücksichtigt.

Erfolgsfaktoren – Was Entscheider jetzt beachten müssen

Die Modernisierung des Mainframes ist kein IT-Projekt, sondern ein unternehmensweites Transformationsvorhaben. Zentrale Erfolgsfaktoren sind klare Zielbilder, eine starke Gover­nance, Know-how-Sicherung und iteratives Vorgehen sowie Change Management.

  • Erfolgsfaktor Zielbild – Strategie und Technologie vereinen: Erfolgreiche Moderni­sierungsinitiativen basieren auf einem klar definierten Zielbild, das sowohl technologische als auch geschäftliche Perspektiven integriert. Dieses Zielbild muss im Top-Management verankert und regelmäßig überprüft werden. Nur so lässt sich sicherstellen, dass die Modernisierung nicht isoliert in der IT, sondern als integraler Bestandteil der Gesamtstrategie verstanden und umgesetzt wird.
  • Mainframe-Modernisierung als unternehmensweite Aufgabe: Die Modernisierung des Mainframes betrifft nahezu alle Bereiche eines Finanzinstituts – von der IT über das Risikomanagement bis hin zu Fachabteilungen und Compliance. Eine robuste Governance-Struktur mit klar definierten Rollen, Verantwortlichkeiten und Entschei­dungswegen ist daher unerlässlich. Ebenso entscheidend ist ein aktives Stakeholder-Management, das Transparenz schafft, Erwartungen steuert und Akzeptanz fördert.
  • Wissenssicherung als Schlüssel zum Erfolg: Der Erfolg jeder Modernisierung hängt maßgeblich vom Wissen derjenigen ab, die die bestehenden Systeme verstehen. Dieses Wissen muss systematisch dokumentiert, gesichert und – wo möglich – in moderne Entwicklungs- und Betriebsmodelle überführt werden. Gleichzeitig erfordert die Transformation ein professionelles Change Management, das Mitarbeitende be­fähigt, neue Technologien und Prozesse zu nutzen und aktiv mitzugestalten.
  • Iteratives Vorgehen statt monolithischer Großprojekte: Großprojekte mit monolithischem Ansatz sind in der Vergangenheit häufig gescheitert – zu komplex, zu teuer, zu riskant. Erfolgreiche Unternehmen setzen stattdessen auf ein iteratives Vorgehen: Sie identifizieren priorisierte Use Cases, modernisieren schrittweise und schaffen so frühzeitig sichtbaren Mehrwert. Dieses Vorgehen ermöglicht eine kontinuierliche Lernkurve und reduziert das Risiko von Fehlentscheidungen.
  • Zukunft gestalten mit der IT als Enabler des Geschäfts: Die Mainframe-Modernisierung bietet die Chance, IT-Architektur und Betriebsmodell grundlegend neu zu denken. Themen wie Automatisierung, DevOps oder CI/CD sollten integraler Bestandteil der Zielarchitektur sein.

Fazit: Der Mainframe bleibt – aber nicht so, wie wir ihn kennen

Der Mainframe ist nicht obsolet – aber er muss sich verändern. Nicht die Technologie ent­scheidet über die Zukunftsfähigkeit, sondern die Fähigkeit, sie intelligent weiterzuentwickeln. Wer den Mainframe strategisch modernisiert, kann Stabilität und Innovation vereinen – und sich im digitalen Wettbewerb behaupten.

Die zentrale Erkenntnis: Es geht nicht um die Abschaffung des Mainframes, sondern um seine Weiterentwicklung. Wer Stabilität und Innovation intelligent kombiniert, schafft die Grundlage für eine zukunftsfähige IT-Landschaft – und damit für nachhaltigen Geschäftserfolg.

Unsere Handlungsempfehlungen für das Management basieren auf fünf wesentlichen Punkten:

  1. Positionieren Sie die Modernisierung als strategisches Thema – nicht als IT-Projekt.
  2. Verankern Sie ein klares Zielbild, das Technologie, Regulatorik und Geschäft vereint.
  3. Setzen Sie auf ein iteratives Vorgehen, das Risiken minimiert und Mehrwert schafft.
  4. Sichern Sie kritisches Wissen und investieren Sie in Change- und Kompetenz­management.
  5. Nutzen Sie den Mainframe als Plattform für Innovation – nicht als Hindernis.

Die Finanzbranche steht vor einem Paradigmenwechsel: Wer seine IT nicht nur verwaltet, sondern aktiv gestaltet, wird im Wettbewerb die Nase vorn haben. Die Mainframe-Moderni­sierung ist dabei kein Endpunkt, sondern der Beginn einer neuen Phase – in der das Beste aus Vergangenheit und Zukunft zusammengeführt wird.

Ihr Ansprechpartner

Jörg Dreinhöfer
Kay Helbig
DataNavigator
Carsten Striebich beschreibt in dieser Ausgabe des DataNavigators den aktuellen Entwicklungsstand von Quantencomputern und die heute schon zu spürenden Auswirkungen.
DataNavigator
Hauke Hinderlich vergleicht in dieser Ausgabe des DataNavigators die Auswirkungen der Datennutzung auf die Performance im Radsport mit der Bedeutung
DataNavigator
Kay Helbig und Jörg Dreinhöfer untersuchen in dieser Ausgabe des DataNavigators, welche Rolle die Mainframe-Technologie bei Finanzdienstleistern noch spielt. Sie
Recruiting-Event

Lust auf den Berufseinstieg als Management Consultant? Jetzt für unseren Recruiting-Day am 05.09.2025 bewerben.