In der heutigen digitalisierten Welt spielt Künstliche Intelligenz (KI) für die Automatisierung und die Effizienzsteigerung von Geschäftsprozessen eine zunehmend zentralere Rolle. Für Finanzdienstleistungsunternehmen – auch jene, die noch keine umfassende Integration von KI-Systemen vorgenommen haben – ist es entscheidend, bereits jetzt an die Skalierung zu denken. Es liegt in der Natur von KI-Lösungen stetig wachsende Datenmengen aufzunehmen, komplexere Aufgaben zu lösen und eine steigende Anzahl von Nutzern parallel zu verarbeiten. Somit bildet sie als neue Technologie einen Grundbaustein für jede moderne Unternehmensarchitektur. Dies stellt Unternehmen bei der Weiterentwicklung der Organisationsstrukturen, der Erweiterung ihrer Prozesslandschaft sowie der Architekturbebauung vor umfangreiche Herausforderungen.
Die Skalierbarkeit einer KI-Lösung ist kein nachgelagerter Aspekt, sondern ein grundlegender Faktor, der von Anfang an bei der Implementierung und Auswahl der KI-Technologie bedacht werden muss. Nur so können Banken und Versicherungen sicherstellen, dass ihre KI-Systeme nachhaltig Mehrwert bieten und flexibel auf zukünftige Anforderungen reagieren können. Viele Unternehmen experimentieren bereits mit KI und haben diese erfolgreich pilotiert. Unser Ziel ist es daher, einen Schritt weiterzudenken und die strategische Bedeutung der Skalierung bei KI-Projekten hervorzuheben, ohne jedoch die aktuellen Herausforderungen bei der Einführung solcher Systeme außer Acht zu lassen.
In Folge greifen wir die wichtigsten Aspekte der KI-Skalierung in der Finanzdienstleistungsbranche auf. Wir erläutern die Grundlagen der Skalierbarkeit und Anforderungen an KI-Systeme, die Finanzdienstleister bereits in der Planungsphase berücksichtigen sollten. Darüber hinaus werden spezifische Prinzipien und Strategien zur KI-Skalierung vorgestellt, die den besonderen Anforderungen der Branche gerecht werden. Begleitend werfen wir einen Blick auf praxisnahe Fallbeispiele aus der Branche, die zeigen, wie Unternehmen bereits KI-Lösungen erfolgreich aufgebaut und skaliert haben, um langfristig Mehrwert zu schaffen.
Bedeutung der Daten für die KI-Entwicklung
Um KI-Systeme effektiv zu skalieren und erfolgreich umzusetzen, ist ein Verständnis der zugrundeliegenden Anforderungen an eine KI notwendig. Per Definition umfasst die Skalierung von KI-Anwendungen die Fähigkeit von Unternehmen, ihre Systeme so zu erweitern, dass sie fließend mit steigenden Datenmengen wachsen und kontinuierlich komplexere Aufgaben übernehmen können. Dies setzt sowohl eine robuste technische Infrastruktur als auch effiziente organisatorische Prozesse voraus, die eine adaptive Nutzung und Anpassung der KI ermöglichen. Ziel ist es, die Effizienz und den Wertbeitrag der KI kontinuierlich zu steigern und den nutzen-, prozess- und technologiebezogenen Anforderungen gerecht zu werden.
Die Betrachtung von Geschäftsanforderungen oder Anwendungsfällen bildet immer die Ausgangssituation der KI-Integration und damit auch der Skalierung selbst. Nur so lässt sich vermeiden, dass sich der Ausdruck „Technologie sucht Anwendungsfall“ bewahrheitet. Vermeintliche KI-Lösungen werden immer mit der Perspektive eines eigenen Wertbeitrags implementiert. Bei EGC folgt eine Betrachtung daher entlang der Wertschöpfungskette, um den Wertbeitrag der KI innerhalb des Gesamtbildes sicherzustellen. Abbildung 1 verbildlicht das Konzept der Integration von KI im Gesamtunternehmen – hier exemplarisch am Beispiel eines Kreditinstituts. Von der Kundengewinnung über Beratung und Vertrieb sowie Kreditvergabe und Risikomanagement über Finanzierung bis hin zu Kundenbindung und Nachverfolgung kann die KI das Kerngeschäft unterstützen.
Innerhalb der Wertschöpfungskette wird der Wertbeitrag von KI durch drei zentrale Prozessschritte gestützt:
- Datenentnahme: In diesem Schritt werden relevante Daten gesammelt und extrahiert, die als Grundlage für das KI-Modell dienen. In der Phase der Datenentnahme geht es darum, qualitativ hochwertige Daten zu identifizieren und zu erfassen, die für die Erstellung präziser KI-Ergebnisse essenziell sind.
- Anreicherung des KI-Modells: Die gesammelten Daten werden anschließend verarbeitet und in das KI-Modell integriert. In dieser Phase wird das Modell trainiert und mit spezifischen Daten angereichert, um die Qualität und Relevanz der KI-Ergebnisse zu maximieren.
- Produziertes KI-Ergebnis: Das trainierte Modell generiert ein spezifisches KI-Ergebnis, das direkt zur Wertschöpfung beiträgt, indem es Entscheidungsprozesse optimiert und die Effizienz in den verschiedenen Bereichen der Wertschöpfungskette erhöht.
Entlang der gesamten Wertschöpfungskette bieten sich vielfältige Einsatzmöglichkeiten für Künstliche Intelligenz: Bereits in der Kundengewinnung unterstützen Simulationen und Data-Mining die zielgerichtete Ansprache von Kunden, die in ein KI-basiertes personalisiertes Angebot in Beratung und Vertrieb mündet. Bei Kreditvergabe und Risikomanagement ermöglichen automatisierte Prüfprozesse eine effiziente Überwachung des Kreditportfolios. KI-basierte Risikoanalysen und Marktprognosen liefern fundierte Finanzierungsentscheidungen. Übergreifend schafft der Einsatz von Chatbots eine durchgängige, KI-gesteuerte Kundeninteraktion. Diese Beispiele zeigen, wie KI datengetriebene Entscheidungen fördert, operative Prozesse optimiert und so die Wettbewerbsfähigkeit nachhaltig stärkt.
Notwendigkeit zur Skalierung von KI
Abgeleitet aus dem Einfluss von KI auf die Wertschöpfungskette folgt die Frage nach der tatsächlichen Notwendigkeit zur Skalierung. Da bereits zu Beginn (u.a. durch Pilotierung und erste Schritte im Bereich KI) die technische sowie fachliche Basis für den Einsatz von KI gelegt wird, ist es für Banken und Versicherungen entscheidend, bereits bei der Einführung von KI-Lösungen die langfristige Skalierbarkeit im Blick zu haben. Die Anforderungen an KI-Systeme wachsen stetig an, je mehr sich das Geschäftsmodell weiterentwickelt und das Unternehmen wächst. Konsequenterweise sind immer größere Datenmengen zu verarbeiten und komplexere Aufgaben zu bewältigen. Eine skalierbare KI-Infrastruktur hilft dabei, dieser Weiterentwicklung und dem Wachstum gerecht zu werden und die Entscheidungsqualität auf einem hohen Niveau zu halten. Gleichzeitig nimmt die Komplexität der fachlichen Anforderungen zu, da Finanzdienstleister zunehmend tiefgreifende Prozesse automatisieren und detaillierte Einblicke aus ihren Daten gewinnen wollen. Eine strategisch geplante Skalierbarkeit bewältigt diese zunehmende Komplexität.
Neben dem Datenwachstum sind technologische Fortschritte – wie leistungsstärkere Hardware und moderne Software-Entwicklungen – ein wichtiger Treiber für die Skalierbarkeit von KI. Durch flexible und moderne Systeme, die auf neue Technologien ausgelegt sind, können Unternehmen ihre KI-Lösungen an veränderte Rahmenbedingungen anpassen (bspw. Host-Modernisierungen durchführen), ohne ihre Effizienz zu beeinträchtigen.
Darüber hinaus ist der Wettbewerbsdruck ein weiterer Grund, warum Finanzdienstleister skalierbare KI-Systeme benötigen. Unternehmen, die schnell und präzise auf Marktveränderungen reagieren können, sichern sich durch die Automatisierung einzelner Tätigkeiten und damit einhergehender Reduzierung von Kosten einen entscheidenden Vorteil. Banken und Versicherungen müssen entscheiden welche Rolle KI in Zukunft in der Wertschöpfung einnimmt. Daher lohnt sich die Bewertung der Technologie vor dem Hintergrund des klaren Wettbewerbsvorteils gegenüber anderen Marktteilnehmern oder zur Erschließung neuer Geschäftsfelder.
Die Notwendigkeit der KI-Skalierung zeigt, dass es für Finanzdienstleister nicht nur um KI-Technologie geht. Vielmehr erfordert eine nachhaltige Skalierbarkeit eine strategische Kombination aus organisatorischer Verankerung, effizienter Modellweiterentwicklung mit entsprechenden Prozessen und technologischer Anpassungsfähigkeit auf einer geeigneten architekturellen Basis.
Herausforderungen der Skalierung
Die Skalierung von KI-Lösungen stellt Banken und Versicherungen vor eine Reihe komplexer Herausforderungen, die frühzeitig erkannt und adressiert werden müssen, um das volle Potenzial der Investitionen zu realisieren. Eine zentrale Herausforderung liegt im Datenmanagement: Der Umgang mit wachsenden Datenmengen erfordert eine robuste Infrastruktur, die in der Lage ist, qualitativ hochwertige Daten effizient zu erfassen, zu speichern und zu analysieren. Ohne eine skalierbare Datenstrategie bleibt das Potenzial der KI-Lösungen eingeschränkt.
Ebenso wichtig ist die technologische Integration neuer Systeme in bestehende IT-Umgebungen. Viele Finanzdienstleister arbeiten mit Legacy-Systemen, die für moderne KI-Anwendungen nicht ausgelegt sind und häufig keine geeigneten Schnittstellen besitzen, um verschiedene Datenquellen effizient zu verknüpfen. Diese Kompatibilitätsprobleme machen die Implementierung und Skalierung von KI oft zu einem aufwändigen Prozess.
Darüber hinaus verschärft der Fachkräftemangel die Herausforderungen der Skalierung. Der Bedarf an qualifizierten Fachkräften mit Kenntnissen in KI und Datenanalyse übersteigt die aktuelle Verfügbarkeit, was den Fortschritt vieler Projekte bremst. Ohne ausreichende Ressourcen und das nötige Fachwissen kann die Skalierung von KI-Systemen nur eingeschränkt vorangetrieben werden.
Die regulatorischen Anforderungen in der Finanzbranche stellen eine weitere Hürde dar. Der Einsatz von KI erfordert die Einhaltung strenger gesetzlicher Vorgaben, etwa durch den EU AI Act, der spezifische Anforderungen an Datenschutz, Informationssicherheit und Dokumentation stellt. Diese Vorgaben erhöhen die Komplexität (u.a. Anforderungen anhand der Klassifikation) und den Aufwand der KI-Skalierung, da alle Lösungen entsprechend zertifiziert und dokumentiert werden müssen. Dies bindet zusätzliche Ressourcen.
Zudem können Leistungsengpässe eines fälschlich ausgewählten KI-Modells ein deutlicher Hinweis darauf sein, dass bestehende KI-Systeme an ihre Kapazitätsgrenzen stoßen. Wenn Modelle nicht mehr in der Lage sind, wachsende Datenmengen in akzeptabler Zeit zu verarbeiten, sind Optimierungen notwendig, um die Effizienz der Systeme zu sichern und die Erwartungen der Kunden weiterhin erfüllen zu können.
Schließlich führt auch die steigende Anzahl an Nutzern und neuen Funktionalitäten zu einer wachsenden Belastung der KI-Infrastruktur. Um die Performance für alle Anwender aufrechtzuerhalten und neue Anforderungen ohne Einbußen zu integrieren, sind regelmäßige Skalierungsmaßnahmen erforderlich.
Lösung: Die strukturierte Skalierung
Bei der Skalierung von KI-Systemen haben wir, wie in Abbildung 2 dargestellt, drei wesentliche Ansätze identifiziert: (A) der Aufbau einer KI-Organisation, die die grundlegenden Bedingungen für die KI-Integration bildet, (B) das Implementieren neuer Prozesse zur kontinuierlichen Verbesserung der Modelle und (C) die Ausrichtung der KI-Architektur, um die KI-Systeme effektiv zu trainieren und die Datenanforderungen zu erfüllen. Diese Ansätze ermöglichen es Unternehmen, ihre KI-Lösungen nachhaltig zu skalieren und an veränderte Marktanforderungen anzupassen.
(A) Organisation
Die organisatorische Etablierung von KI-Systemen prägt die nachhaltige Skalierbarkeit. Diese gelingt, wenn Mitarbeiter klare Rollen und Verantwortlichkeiten übernehmen, über die erforderlichen Kompetenzen verfügen und der KI-Einsatz ethischen Standards entspricht sowie von Vertrauen getragen wird.
Die klare Definition von Rollen und Verantwortlichkeiten bildet die Basis für den späteren Erfolg. Ohne eindeutige Zuständigkeiten drohen Reibungsverluste, langsame Entscheidungswege und ein gestörter Wissenstransfer. Beim Aufsetzen solcher Strukturen sollten Finanzdienstleister darauf achten, dass Verantwortlichkeiten eindeutig kommuniziert und klare Eskalationspfade sowie Reporting-Linien etabliert werden. Dies fördert nicht nur ein reibungsloses Zusammenspiel aller Beteiligten, sondern auch das Vertrauen in die eingesetzten Technologien.
Eine nachhaltige Skalierung erfordert jedoch mehr als nur eine Optimierung der Rollen und Verantwortlichkeiten. Die Strategie sollte auch die Agilität und Zusammenarbeit fördern, da die Fähigkeit, flexibel auf Marktveränderungen und technologische Neuerungen zu reagieren, für langfristigen Erfolg unerlässlich ist. Zusätzlich ist die kontinuierliche Optimierung und Anpassung der Daten und des Modells ein wiederkehrender Lernprozess, der nur durch ein agiles und interdisziplinäres Wirken von IT, Fachabteilungen und Management möglich ist.
Der Fachkräftemangel ist weitestgehend ein strategisches Thema, das Unternehmen durch gezielte Schulungen und Kompetenzentwicklung adressieren können. Indem Mitarbeitende regelmäßig geschult werden, sichern Unternehmen das nötige Wissen, um ihre KI-Initiativen auch bei steigendem Bedarf effektiv voranzutreiben. Insbesondere bei Lerninhalten zu KI sind viele moderne Blended-Learning-Formate, also eine Kombination aus Präsenzworkshops, Online-Kursen und selbstgesteuertem Lernen, anwendbar und bereits auf dem Markt verfügbar.
Die Berücksichtigung ethischer Standards und der Aufbau von Vertrauen ist das zugrundeliegende Arbeitsethos der Organisation im Wirken und der Nutzung der Vorteile der KI-Technologie. Klare ethische Leitlinien zu Transparenz, Fairness und Datenschutz sollten definiert und regelmäßig überprüft werden. Transparente Kommunikation über die Funktionsweise der KI stärkt das Vertrauen, während ein etabliertes Beschwerdemanagement es ermöglicht, Bedenken frühzeitig aufzugreifen und Lösungen zu entwickeln. Schulungen sensibilisieren Mitarbeitende für ethische Fragestellungen und fördern die Akzeptanz der Technologie.
(B) Prozesse
Die Optimierung von KI-Systemen ist ein fortlaufender Prozess, der regelmäßig durchgeführt wird, um die Leistung zu maximieren und die Skalierbarkeit langfristig zu sichern. Die Anforderungen für eine effiziente Durchführung dieser Optimierung resultieren aus der strategischen Zielsetzung zur Nutzung und Anwendung der KI und deren prozessualer Integration. Aus einer Marktperspektive zählen Feedbackschleifen und Modelloptimierungsprozesse zu den gängigen Praktiken, um die Skalierung kontinuierlich voranzutreiben.
Modelloptimierungsprozesse umfassen Methoden wie Hyperparameter-Tuning, Transfer-Learning und Ensemble-Methoden, die es ermöglichen, bestehende Modelle effizient an neue Anforderungen anzupassen. Dadurch wird die Flexibilität der KI-Lösungen unterstützt und dazu beigetragen, dass ihre Leistung und Präzision kontinuierlich verbessert werden, ohne dass der gesamte Entwicklungsprozess von Grund auf neu beginnen muss.
Ein beliebtes Mittel sind zudem Review-Schleifen. Durch das Sammeln und Analysieren von Benutzerfeedback sowie dem Verhalten der Modelle können frühzeitig Optimierungsmöglichkeiten erkannt und kontinuierlich umgesetzt werden. Dies erfolgt wiederholt in regelmäßigen Abständen, um kontinuierlich die Modelle und KI zu verbessern.
Daran angeschlossen ist ein effektives Anforderungsmanagement, das sich nahtlos in diesen Kreislauf einfügt. Es nimmt die aus den Review-Schleifen abgeleiteten Erkenntnisse auf, strukturiert sie und sorgt dafür, dass Weiterentwicklungen nicht nur schnell, sondern auch zielgerichtet entlang der Kunden- bzw. Anwenderanforderungen vorangetrieben werden. Dadurch entstehen robuste, anpassungsfähige Systeme, die konsequent auf den tatsächlichen Bedarf ausgerichtet sind und somit langfristig einen hohen Mehrwert liefern.
Letzten Endes werden Werkzeuge wie MLflow oder Kubeflow genutzt, um das Modell-Monitoring abzubilden. Bei der Automatisierung des gesamten Lebenszyklus von maschinellem Lernen und der Datenverarbeitung bis zur Bereitstellung helfen diese Werkzeuge Unternehmen dabei, ihre KI-Modelle effizient zu skalieren. Sie überwachen die Performance und Ergebnisse der KI-Modelle. Schließlich können so zudem Anpassungen sowie Ableitung neuer Anforderungen einfacherer abgeleitet werden.
(C) Architektur
Abschließend ist die grundlegende Architektur der KI zu adressieren, um die Skalierung innerhalb der Organisation voranzutreiben. Vorab kann bereits geschlussfolgert werden, dass die einzelnen Elemente sich bereits mit bestehenden Architekturansätzen bei Banken und Versicherungen decken. Aus der Marktsicht hat EGC bisher die folgenden Ansätze bei Finanzdienstleistern beobachtet:
Die Skalierbarkeit der Verarbeitungsleistung kann durch horizontale und vertikale Skalierung sowie die Nutzung von Hyperscalern sichergestellt werden. Horizontale Skalierung, bei der zusätzliche Maschinen oder Knoten hinzugefügt werden, ist besonders effizient für große Datenmengen und Echtzeitanforderungen, während vertikale Skalierung durch die Erweiterung einzelner Maschinen bei kurzfristigem Bedarf eine ergänzende Lösung bietet. Hyperscaler wie Amazon Web Services (AWS), Microsoft Azure oder Google Cloud ermöglichen eine schnelle Skalierung über die eigenen Kapazitäten hinaus und sollten strategisch passend ausgewählt werden, um ausreichende Ressourcen für zukünftige Anforderungen bereitzustellen.
Bei der Entwicklung und Auswahl von KI-Modellen sowie Anwendung von Training-Frameworks kann bereits vorab aus den Libraries auf die Skalierbarkeit geachtet werden. Wenn bereits zu Beginn der Entwicklung nicht passende Modelle genutzt werden, können diese auf langfristige Sicht die weitere Entwicklung einschränken. Ein Wechsel ist im Nachgang mit erheblichen Risiken und Mehraufwänden verbunden.
Für die Verarbeitung großer Datenmengen in verteilten Systemen bieten sich Frameworks wie Apache Hadoop und Apache Spark an. Diese Technologien ermöglichen die effiziente Verteilung von Datenverarbeitungsprozessen auf mehrere Maschinen, was die Leistung und Effizienz der KI-Anwendungen erheblich steigert und die Anforderungen an die Datenqualität und -quantität erfüllt. Durch eine verteilte Datenverarbeitung kann die Architektur auf steigende Anforderungen reagieren und die Grundlagen eines datenzentrierten Ansatzes unterstützen.
Grundlegende Datenbank-Technologien wie NoSQL-Datenbanken, beispielsweise MongoDB oder Apache Cassandra, bieten die notwendige Flexibilität und Skalierbarkeit, um große Datenmengen effizient zu speichern und zu verarbeiten. Ergänzend ermöglicht Cloud-Computing durch On-Demand-Ressourcen eine dynamische Skalierung der Rechenleistung, sodass Unternehmen Kapazitäten flexibel anpassen und nur für tatsächlich genutzte Ressourcen zahlen. Diese Kombination aus bewährten Datenbankmodellen und Cloud-Technologien ermöglicht es Banken, auch bei Lastspitzen effizient zu arbeiten.
Containerisierungstechnologien (u.a. Docker) bieten Unternehmen eine Möglichkeit, KI-Anwendungen in separaten, handhabbaren Containern bereitzustellen und zu verwalten. Diese Containerisierung vereinfacht nicht nur die Skalierung und den Betrieb der Anwendungen, sondern reduziert auch den administrativen Aufwand. Die Anwendungen lassen sich als „Release-Einheiten“ leichter verteilen und aktualisieren, was das Prinzip der Agilität unterstützt und die Verwaltung der KI-Lösungen effizienter gestaltet.
Fazit: Grundlagen zur Skalierung sind von Beginn an zu schaffen
Die Skalierung von KI-Systemen ist ein zentraler Erfolgsfaktor, um Daten durch KI effizient zu nutzen und damit entlang der gesamten Wertschöpfungskette Wettbewerbsvorteile zu erzielen und nachhaltigen Mehrwert zu schaffen. Wird die Skalierung von Beginn an strategisch berücksichtigt, lassen sich durch klare organisatorische Verankerungen, eine passende Prozesslandschaft und eine solide Architektur langfristig stabile und leistungsstarke KI-Anwendungen aufbauen. Regelmäßige Inspektionen und Qualitätsprüfungen sichern zudem die Verlässlichkeit und Wirksamkeit der Systeme. Angesichts des rasanten technologischen Wandels ist es unerlässlich, die Skalierung als kontinuierlichen Prozess zu verstehen, der fortlaufend überprüft, angepasst und optimiert wird. Nur so können Unternehmen den wachsenden Anforderungen gerecht werden und ihre KI-Initiativen dauerhaft zum Erfolg führen.