Allein im vergangenen Jahr habe ich gesehen, wie Netzbetreiber mit allem konfrontiert waren, angefangen bei Sturzfluten und gefrierendem Regen bis hin zu Waldbränden und durch Wind verursachten Stromausfällen. In jedem Fall waren die Kosten, wenn man sich irrte (oder zu spät reagierte) enorm: Ausfälle, Strafzahlungen, Imageschäden, regulatorische Untersuchungen, Milliardenverluste.
Ein Teil der Schäden ist unvermeidlich, wenn die Natur ihre Kräfte entfesselt. Doch vieles lässt sich verhindern, vorausgesetzt, man erkennt die Gefahr früh genug. Einer unserer neuesten Partner in den USA berichtete, dass sie 48 Stunden vor extremen Bedingungen, die andernfalls Waldbrände ausgelöst hätten, Netzparameter anpassen konnten. Vierzehn von sechzehn Warnungen wurden bestätigt. Vierzehn potenzielle Zündquellen oder Ausfälle wurden vermieden. Vierzehn Brände, die nicht stattfanden. Leben und Landschaften wurden verschont und enorme Reparaturkosten blieben aus.
Man verwaltet heute nicht mehr nur die Energieinfrastruktur. Man verwaltet (genau wie ich!) das Wetter. Und das ist bei Weitem keine kleine Aufgabe. Zu Beginn dieses Jahres haben wir knapp 300 Führungskräfte aus dem Energiesektor befragt. Ihre Hauptprobleme mit Wetterdaten: mangelnde Genauigkeit, geringe Zuverlässigkeit, Auflösung, langsame Datenbereitstellung und hohe Komplexität, die ein schnelles Handeln erschwert. Wenn so viel auf dem Spiel steht, darf das keine Option sein.
Das Problem liegt darin, dass die meisten meteorologischen Werkzeuge nie für diese Art von Volatilität entwickelt wurden. Sie wurden nicht gebaut, um schnell auftretende, hyperlokale Ereignisse vorherzusagen, die Infrastruktur zerstören oder Märkte destabilisieren können. Wir sprechen hier von schweren Stürmen, Sturzfluten, Eisbildung an Turbinen, waldbrandfördernden Bedingungen und ähnlichen Phänomenen.
In den letzten Jahren wurde viel über KI in der Wettervorhersage gesprochen. Und es stimmt: KI hat in vielen Bereichen große Fortschritte ermöglicht. Im Energiesektor zum Beispiel haben wir ein System entwickelt, das KI-basierte Methoden nutzt, um unsere Leistungsprognosen für Energieportfolios zu verfeinern, unter Berücksichtigung der individuellen Eigenschaften der Solar- und Windparks jedes einzelnen Kunden. Wir wissen, welche Solarmodule wann verschattet sind und was genau mit ihren Turbinen geschieht. Unsere Leistungsprognosen spiegeln das wider, mit bis zu 13 % genaueren Solarprognosen und bis zu 50 % genaueren Windprognosen.
Wenn es jedoch um reine Wettervorhersagen geht, sehe ich KI als ein nützliches Werkzeug zur Ergänzung, nicht als Ersatz für physikbasierte Modelle, insbesondere bei kurzfristigen, hochaufgelösten Prognosen und vor allem in einem sich wandelnden Klima. Wetterprognosen bleiben ein komplexes mathematisches Problem, dessen Herausforderung in der enormen Komplexität der Atmosphäre liegt. Zuverlässige Prognosen erfordern ein solides Fundament in der meteorologischen Physik, und unser Ansatz bleibt fest in der numerischen Wettervorhersage verankert.
Deshalb habe ich das vergangene Jahrzehnt damit verbracht, auf das hinzuarbeiten, was ich als den notwendigen “Moonshot” der modernen Meteorologie betrachte: ein wirklich hochaufgelöstes globales Wettermodell. Eines, das die Welt Kilometer für Kilometer abbildet und die kleinen, schnellen Ereignisse erfasst, die in herkömmlichen Systemen durch das Raster fallen. Genau jene, die unsere Infrastruktur beschädigen und Märkte destabilisieren.
Wir haben in der Schweiz begonnen, mit SWISS1k. Dann kam EURO1k, welches ganz Europa abdeckt. Inzwischen haben wir das gleiche Prinzip auf die zusammenhängenden Vereinigten Staaten und den Golf von Mexiko ausgeweitet, mit US1k. GLOBAL1k, das den gesamten Planeten abdecken wird, steht kurz bevor.
Diese “1k”-Modelle erzeugen rund um die Uhr im 15-Minuten-Takt Vorhersagen für jeden Quadratkilometer in Europa und den USA. Jedes dieser Quadrate wird anschließend mithilfe von NASA-Geländedaten auf 90 Meter herunterskaliert, um den Einfluss von Bergen, Tälern und Küsten präzise zu erfassen. Diese Präzision erfordert 100.000 CPU-Kerne, die ununterbrochen laufen und monatlich 2.000 Terabyte an Daten generieren. Das ist der Aufwand, den präzise Wettermodellierung in dieser Auflösung verlangt.
Zum Vergleich: Standard- und KI-basierte Modelle arbeiten typischerweise mit Auflösungen von 9 bis 25 Kilometern und werden nur alle sechs Stunden aktualisiert. Eine stündliche Neuberechnung sorgt dafür, dass unsere Prognosen deutlich näher an den tatsächlichen Wetterbedingungen liegen. Das bietet unseren Kunden einen enormen Mehrwert, insbesondere bei dynamischen oder kritischen Wettersituationen.
Wir hören regelmäßig von Kunden, dass ihnen diese höhere Präzision hilft, die Kontrolle zu behalten, wenn sich alles um sie herum verändert. Sie ermöglicht es, Schäden durch extreme Wetterereignisse zu verhindern, kostspielige Ramp-Events, also plötzliche Leistungsänderungen bei Wind und Solar, zu vermeiden, Handelspositionen zu optimieren und das Netz stabil zu halten.
Erst letzten Monat berichtete uns der größte Stromproduzent der Schweiz, zugleich einer der führenden internationalen Energiehändler, dass EURO1k für ihn zu einem echten Wettbewerbsvorteil geworden ist. Sein Wert liegt nicht nur darin, dass es andere Modelle
bestätigt, sondern auch darin, dass es ihnen häufig widerspricht, und das meist aus gutem Grund. Diese Abweichungen liefern eine differenzierte Sicht auf den Markt, die nun genutzt wird, um Gebotsstrategien zu verfeinern. Tatsächlich konnten sie dank EURO1k die Ausgleichskosten für ihr Windportfolio in Belgien in diesem Jahr um bis zu 10 % senken. Und dabei geht es nicht um ein paar Turbinen, sondern um einen Anlagenpark im zweistelligen Gigawattbereich. Diese Leistung spricht für sich.
Angesichts der Zunahme extremer Wetterbedingungen ist Reagieren schlicht zu teuer. Heute bedeutet Resilienz: vorausschauend handeln. Deshalb meine Einladung: Wenn Sie dafür verantwortlich sind, dass das Licht in Regionen, Industrien und Jahreszeiten nicht ausgeht, dann ist es an der Zeit, neu zu definieren, was akzeptabel ist.