Zahlreiche Prozesse in Banken, Versicherungen und öffentlichen Einrichtungen sind von manueller Arbeit geprägt – und damit fehleranfällig, langsam und teuer. Problematisch ist dies insbesondere vor dem Hintergrund, dass die Babyboomer das Rentenalter erreichen und Fachkräfte schwer zu finden sind. Steigender Kundenanspruch und Wettbewerbsdruck verschärfen die Herausforderung.
Ein Ansatz, um die Wettbewerbsfähigkeit zu steigern, Kosten zu senken und die Bearbeitungszeit stark zu verkürzen, liegt zweifelsohne in der Automatisierung. Der Einsatz von Mitarbeitenden für monotone, kognitiv wenig anspruchsvolle Aufgaben sollte der Vergangenheit angehören. Die wertvolle Ressource Mensch sollte dort zum Einsatz kommen, wo deren Fähigkeiten und Kompetenzen wertstiftender zum Einsatz kommen. Dort, wo Technik nicht helfen kann. Gerade bei repetitiven Aufgaben kann Technologie gegenüber dem Menschen eine gleichbleibend höhere Qualität liefern, da keine Ermüdung oder anders induzierte Formschwankungen zu erwarten sind. Kaum jemand wird der Hypothese widersprechen, dass diesbezüglich nur wenige Unternehmen einen hohen Reifegrad erreicht haben und dahingehend zukünftiger Marktsituationen entspannt entgegenschauen.
Der zentrale Erfolgsfaktor
Für Versicherer macht die Automatisierung beim Input Management gleich doppelt Sinn: zum einen, weil auch heute noch Klassifikations- und Extraktionsprozesse oftmals viele menschliche Kapazitäten binden, zum anderen, da die strukturierten Daten aus dem Input Management die Grundlage für die darauf aufsetzenden Prozessautomatisierungen sind.
Generell gibt es zwei Möglichkeiten, wie Unternehmen Input erreicht: Entweder stellen die Kunden (oder andere Stakeholder) bereits strukturierte Daten zur Verfügung, beispielsweise über eine App oder eine Weboberfläche. Oder es handelt sich um eine offene Kommunikation, etwa via E-Mail oder Brief, bei denen die Daten unstrukturiert das Unternehmen erreichen. Die zentrale Frage ist also: Wie lassen sich benötigte strukturierten Daten aus unstrukturierten Eingangsdokumenten auslesen und damit die Grundlage für die idealerweise automatisierte Weiterverarbeitung schaffen? In nahezu allen Wertschöpfungsbereichen eines Versicherungsunternehmens gibt es Anwendungsszenarien, wo diese Fragestellung greift. Insbesondere operative Bereiche mit relevanten Vorgangsvolumen und hohem Einsatz wertvoller menschlichen Kapazitäten rücken dabei heute in den Fokus.
Das beste Modell Die reine Umwandlung von gedrucktem oder auch (lesbarem) handschriftlichem Text in eine maschinenlesbare Zeichenfolge durch OCR (Optical Character Recognition) ist heute funktionale Grundanforderung. Spannend wird es erst, wenn auf dieser Basis eine intelligente Extraktion strukturierter Daten erfolgt. Dabei geht es nicht darum, dogmatisch ein beliebiges KI-Modell auf den digitalisierten Text „loszulassen“, sondern technologieagnostisch einen passenden Ansatz für den konkreten Use Case zu wählen.
Ob ein Large Language Model (LLM), ein klassischer NLP-Ansatz (Natural Language Processing), ein hybrides Verfahren oder eine Kombination verschiedener Technologien zum Einsatz kommt, hängt maßgeblich von der Art des Inputs ab. Ein vorsortierter, tabellarischer Rechnungsstapel aus der Leistungsbearbeitung stellt andere Anforderungen als unsortierte Fließtextdokumente aus diversen Servicekanälen.
LLMs bieten häufig höchste Leistungsfähigkeit, sind jedoch ressourcenhungrig und mit höheren Betriebskosten verbunden. Die Modelle unterscheiden sich dabei nicht nur preislich, sondern auch erheblich hinsichtlich ihrer Genauigkeit bei der Erkennung und Verarbeitung von Informationen. Die Optimierung der Ergebnisse – und der dafür notwendige Aufwand – ist entscheidend für die Wirtschaftlichkeit eines LLM-Einsatzes.
Kleinere Modelle sind kostengünstiger im Betrieb und lassen sich mit vertretbarem Datenaufwand gezielt auf spezifische Anwendungsfälle trainieren. Dies geht jedoch mit einem gewissen Initialaufwand für Datenaufbereitung und Infrastruktur einher. Größere Modelle hingegen benötigen kein Training durch Endnutzer (bzw. bieten diese Möglichkeit in der Regel nicht), sind dafür aber oft zuverlässiger Out-of-the-box, jedoch auch teurer in der Nutzung.
Um die Leistungsfähigkeit großer Modelle effizient zu steigern, kommen Methoden wie Retrieval-Augmented Generation (RAG), gezieltes Prompt Engineering oder Finetuning – wo möglich – zum Einsatz. Diese Ansätze ermöglichen oft mit vergleichsweise geringem initialem Aufwand signifikante Verbesserungen.
Die Auswahl des passenden Modells ist dabei eine Wissenschaft für sich. Angesichts der Vielzahl verfügbarer Modelle unterschiedlichster Anbieter ist jede pauschale Aussage über „das beste Modell“ nicht seriös. Die tatsächliche Erkennungsleistung variiert je nach Kontext und Aufgabe erheblich und lässt sich nicht allgemeingültig bewerten.
Statt aufwendiger Grundlagenforschung empfiehlt sich ein praxisorientierter Ansatz: die Vorauswahl geeigneter Modelle auf Basis fundierter Erfahrung, gefolgt von einer konkreten Validierung im Rahmen eines Proof of Concept (PoC) für den individuellen Use Case.
Die Gretchen-Frage Für die Umsetzung einer eigenen Input-Management-Lösung bedarf es nicht nur potenter Hardware und geeigneter Infrastruktur, die die Anforderungen bezüglich Datenschutz, IT-Sicherheit, Business Continuity und verschiedene regulatorische Richtlinien beachten, sondern muss auch menschliche Kapazitäten aufbauen, die den Betrieb, die Optimierung und die Weiterentwicklung sicherstellen. Dies macht für ein einzelnes Unternehmen erst dann Sinn, wenn diese Investitionen auch über eine Vielzahl an selbst umgesetzten Anwendungsfällen skaliert.
Ein Weg diese enorme Investition zu vermeiden oder über erste Anwendungsfälle initial Erfahrungen zu sammeln, ist der Einsatz einer SaaS-Lösung. Hierbei kann gemeinsam mit einem Partner das Investitionsrisiko minimiert und dennoch von den Möglichkeiten modernster Technologien partizipiert werden. Egal welchen Weg man wählt, ein Partner mit entsprechendem Technologie-Know-How, Erfahrung im Betrieb von Software und branchenspezifischen Domänenwissen kann Multiplikator für den erfolgreichen Einsatz von KI im Input Management sein.
Zum Autor Robert Rieckhoff
Als Product Owner für das adesso Input Management (AIM) verantwortet Robert Rieckhoff bei adesso den Einsatz und die Weiterentwicklung der Lösung. Dabei steht für ihn immer das Ziel im Mittelpunkt, gemeinsam mit dem Kunden einen den komplexen Anforderungen entsprechende Lösungsweg zu finden.
Seit über 15 Jahren unterstützt er Unternehmen der Assekuranz bei der Planung und Umsetzung vielfältiger Transformationsprojekte sowie Entwicklung innovativer Services.
Zum Autor Dr. Marco Peisker
Dr. Marco Peisker leitet bei adesso das Competence Center Software Engineering & Consulting. In dieser Funktion verantwortet er die Konzeption, Entwicklung und den Betrieb intelligenter, KI-gestützter Services – mit einem besonderen Fokus auf die Anforderungen der Versicherungswirtschaft.
Sein Schwerpunkt liegt auf der praxisnahen Integration moderner Large Language Models und weiterer KI-Technologien in bestehende Systemlandschaften, mit dem Ziel, die fachliche Effizienz, Automatisierung und Datenverfügbarkeit spürbar zu verbessern.
Mit langjähriger Erfahrung an der Schnittstelle von Technologie, Business und Beratung begleitet Dr. Peisker Versicherungsunternehmen bei der digitalen Transformation.