Der letzte Meter ist der schwerste | Mit einer MLOP-Abteilung die Geschwindigkeit erhöhen

Die Energiebranche ist bereits seit vielen Jahren im Wandel. Der Umstieg auf erneuerbare Energien auf der einen und die stetig steigenden Anforderungen der Kund:innen auf der anderen Seite haben für ein Umdenken gesorgt. Auch der Blick auf die technische Seite und die Prozesse, die hinter dem stecken, was die Kund:innen im täglichen Kontakt mit uns erleben und wahrnehmen, ist herausfordernd. Aber es sind diese Herausforderungen, denen wir uns stellen und – mehr noch – die uns anspornen.

Vor etwa zwei Jahren habe ich dazu mit meinem Team an einer Vision gearbeitet. Eine Vision für eine vollständig datengetriebene Version der E.ON Energie Deutschland, unserer deutschen  Vertriebsgesellschaft im E.ON Konzern, zuständig für rund 14 Millionen Kund:innen. Unsere Leitgedanken: erstklassige und zugleich personalisierte Kundenerlebnisse, erlebbar durch weitgehend automatisierte Prozesse sowie die Demokratisierung der Daten. Mit diesen Zielen fest im Blick haben wir eine Datenstrategie abgeleitet, die uns heute als Nordstern für die Priorisierung unserer Engagements dient.

Mit der Vision beginnen
Unsere Datenstrategie basiert, wie ein solide gebautes Haus, auf vier tragenden Wänden. Eine davon heißt „Automate & Accelerate“.Hierbei geht es darum, Prozesse, die einen hohen manuellen Aufwand bedeuten, zu verschlanken, zu automatisieren und in der Konsequenz um ein Vielfaches im Sinne der Kund:innen zu beschleunigen. Diese Projekte sind aus zwei Gründen meine Favoriten: Zum einen sparen sie Zeit, Geld und Ressourcen für unser Unternehmen. Gleichzeitig beschleunigen sie die Prozesse für unsere Kunden, die in ihrem heutigen Nutzerverhalten auch zunehmend das von ihrem Energieanbieter erwarten, was sie von anderen Online-Anbietern gewohnt sind. Mit Blick auf die Fortschritte der letzten zwei Jahre haben hierbei unsere Data Scientists große Arbeit geleistet. Von  bestmöglich zugeschnittenen Tarifen über die Automatisierung von Kundenanliegen bis hin zu KI-basierten Validierungen sind in den letzten zwei Jahren erstklassige Algorithmen entstanden. Und dennoch gab es oftmals noch Verbesserungspotenzial abseits der inhaltlichen Ebene. Etwa bei der Geschwindigkeit, mit der diese Projekte den Weg ins Ziel gefunden haben.

Der archetypische Prozess
Wenn wir ein neues Projekt starteten, war das Muster typischerweise das gleiche. Die Phase der Ideation geht schnell voran und wir kommen zügig zu einem abgestimmten Bild dessen, was wir erschaffen wollen. Auch der pragmatische Datenabzug für einen ersten Prototypen ist kein großes Hindernis, sodass der Beweis der Machbarkeit seitens unserer Data Scientists erbracht werden kann. Die Ergebnisse sehen gut aus, wir diskutieren diese mit unseren Kolleg:innen und kommen zu dem Schluss, dass wir das Modell produktiv nehmen sollten.

Was für den Laien aussieht wie ein einsatzbereites Produkt, ist in der technologienahen Realität allerdings leider oftmals nicht mehr als ein erster Entwurf. Zwischen diesem Entwurf und dem produktiven Algorithmus stehen Themen wie Datenstreaming, APIs und Microservices. Nun geht es daher im nächsten Schritt an die schwierigen Aufgaben. Für den Proof of Concept reichten vielleicht die Daten der letzten paar Wochen. Um ein belastbares Modell zu trainieren, wollen wir aber idealerweise alle verfügbaren Daten nutzen. Für den Anfang reichte es aus, dass man uns die wenigen benötigten Daten in Form einer Exceldatei zur Verfügung stellte. Nun müssen wir allerdings einen Weg finden, das Quellsystem anzubinden und die Daten über einen gesicherten Weg in unsere Datenbank zu befördern.

Parallel kommt die Frage auf, wie wir unseren Algorithmus in die Systeme integriert bekommen. Klar ist, dass Mehrwert nur dann entstehet, wenn Prozesse automatisiert verarbeitet werden. Dies wiederum bedingt, dass gewisse Abläufe im System ohne menschliches Zutun ausgelöst werden. Nehmen wir beispielsweise die Abgabe eines Opt-in im Service. Der Opt-in wird vom Kunden abgegeben und bedarf nun der Validierung. Was früher ein Mensch übernommen hat, muss nun systemseitig erfolgen. Dies erfordert, dass das System erkennt, dass ein neuer Opt-in vorliegt und dieses Audiofile an unseren Algorithmus übergibt. Der Algorithmus bewertet die Tonspur und kommt zu einer Entscheidung über die Validität des Opt-ins. Diese wird nun wiederum an das Quellsystem übergeben, wo sie abgespeichert und etwa fünf Minuten nach Abgabe zur werblichen Nutzung verfügbar ist.

Der Teufel steckt im Detail
Soweit die Theorie. In der Praxis mussten wir vor etwa eineinhalb Jahren feststellen, dass uns dieser gefühlte letzte Meter bis zur Produktivsetzung sehr schwer fiel. Aus heutiger Sicht aus gutem Grund: Als wir vor dreieinhalb Jahren unser Data Science Team aufgebaut und die ersten Kolleg:innen an Bord geholt haben, setzten wir unseren Fokus auf eine möglichst generelle Ausbildung.

Diese ermöglichte die Bearbeitung von vielen verschiedenen statistischen Problemen unseres Unternehmens. Jedoch mussten wir nun anerkennen, dass es weder der Präferenz noch den Fähigkeiten unserer Data Scientists entspricht, Streamingpipelines zu entwickeln, Microservices hinter APIs zu legen oder Modelle in eine bestehende IT-Landschaft zu integrieren.

Hierbei geht es um Softwareentwicklung und nicht mehr um statistische Modellierung. Dementsprechend haben wir zwei große Potenziale für unsere Data-Abteilung identifiziert. Die Zufriedenheit der Data Scientists steigern und die Dauer von der Idee bis zur Produktivsetzung unserer KI-Projekte deutlich reduzieren. Die Antwort auf beide Herausforderungen war die Schaffung einer neuen Abteilung namens MLOps (kurz für Machine Learning Operations). Der Name könnte auf den ersten Blick suggerieren, dass es lediglich um den Betrieb der Modelle geht. Der Umfang ist in unserem Fall allerdings weit größer.

Eine neue Abteilung bringt die Lösung
Unsere MLOps Engineers sind der ADAC unseres Data Science Teams. Immer dort, wo es um die Anbindung, die Integration oder die Interaktion mit externen Systemen geht, kommen die Kolleg:innen ins Spiel und beschleunigen den Prozess. Konkret hat sich dieses Team seit dem Aufbau vor einem Jahr um drei Dinge gekümmert: Schaffung einer Data-Science-Entwicklungsplattform, Anbindung von externen Systemen sowie die Produktivsetzung von KI-Algorithmen.

Die Schaffung einer Plattform war seit langer Zeit ein großer Wunsch unserer Data Scientists. Sich nicht mehr um Computer Instanzen oder Datenextraktion kümmern zu müssen, war und ist für viele der Kolleg:innen ein großer Mehrwert. Unsere MLOps Engineers haben zu diesem Zwecke eine cloudbasierte Plattform geschaffen. Diese Plattform bietet rechtlich und IT-Security-seitig abgesicherte Verbindungen in verschiedene Quellsysteme, aus denen Daten für das Training der Modelle abgezogen werden können. Wird für ein neues Projekt eine noch nicht angebundene Datenquelle benötigt, wird der Zugang einmal entwickelt und dauerhaft über die Plattform für alle zugänglich gemacht.

So konnten wir in kleinem Umfang schnell starten und sukzessive mit größer angelegten Projekten den Einflussbereich vergrößern. Ganz nebenbei haben wir diese Plattform in reduziertem Umfang dem  ganzen Unternehmen zugänglich gemacht. Wir glauben nämlich daran, dass in einem zukunftsorientierten Unternehmen jeder Mitarbeitende Zugriff auf die für seine Arbeit erforderlichen Daten haben sollte, um eigene Dashboards, Analysen und Modelle entwickeln zu können. Das ist ein wesentlicher Teil unserer strategischen Säule „Data Democracy“, entlang welcher wir neben dem reinen Zugriff auch Trainings für die Nutzung, das Verständnis und die Interpretation unserer Daten anbieten. Nachdem sich die Data Scientists nun dank der Plattform vollends auf die Entwicklung von KI-Algorithmen konzentrieren können, füllt sich das Backlog unseres MLOps Teams, um diese Modelle auch in die Produktion zu überführen. Im Zuge der Produktivsetzung entsteht heute maßgeschneiderte Software, welche Events in den Quellsystemen, beispielsweise unser CRM-System Salesforce, entgegennimmt, über eine API an den Algorithmus leitet, welcher dann zu einer Entscheidung kommt, z. B. ob der Kunden-Opt-in valide ist oder nicht. Diese Entscheidung wird dann ebenfalls wieder in die Quellsysteme zurückgeschrieben. All das passiert nahezu in Echtzeit und so dauert dieser Prozess im Falle einer Opt-in Validierung nur wenige Minuten.

Fazit und Ausblick
Abschließend muss man sagen, dass die Schaffung dieses Teams ein echter Quantensprung auf dem Weg in die zunehmend digitalisierte Vertriebswelt der E.ON Energie Deutschland war. Nicht nur die Zufriedenheit der Data Scientists ist sprunghaft angestiegen, auch die Geschwindigkeit der Umsetzung der Projekte ist heute deutlich höher als noch vor einem Jahr. Das Stichwort heißt Arbeitsteilung und ist ehrlicherweise eine Erkenntnis, die Adam Smith bereits im 18. Jahrhundert hatte. Im Bereich Data allerdings ist MLOps noch kein vollständig verbreitetes Konzept und so kann ich mit diesem Impuls zu mehr Arbeitsteilung entlang der Datenwertschöpfungskette nur ermutigen, die vorhandenen Möglichkeiten zu prüfen und sich ebenfalls auf die Reise zu machen. Denn am Ende werden alle profitieren: die Data Scientists durch Fokussierung auf ihre eigentliche Arbeit, das Unternehmen durch schnellere Realisierung der Mehrwerte aus den Modellen und die Kund:innen durch stabile Prozesse, die ein erstklassiges Kundenerlebnis ermöglichen.