The next Big Thing for AI

KI-Hype, Ernüchterung und das Potenzial von Zeitreihendaten

Kaum ein Thema hat in den vergangenen Jahren so viel Aufmerksamkeit erregt wie Large Language Models (LLMs). Systeme wie GPT-4 oder Claude können Texte generieren, Programmcode schreiben oder komplexe Fragen beantworten. Sie gelten als Vorboten einer Zukunft, in der Künstliche Intelligenz (KI) unseren Alltag und die Arbeitswelt grundlegend verändert. Doch zwischen Euphorie und Realität klafft eine Lücke. Studien zeigen, dass bis zu 85 Prozent der KI-Initiativen in Unternehmen scheitern – oft, bevor sie überhaupt messbaren Mehrwert liefern.

Die Gründe sind vielfältig: Manche Projekte setzen auf falsche Anwendungsfälle, andere scheitern an hohen Kosten oder fehlender Integration in bestehende Prozesse. Gartner warnt sogar, dass über 40 Prozent der heutigen agentischen KI-Initiativen bis 2027 eingestellt werden – getrieben durch eskalierende Kosten, unklare Rendite (ROI) und unsaubere Risikokontrollen.

LeCuns Warnung: Nicht auf LLMs setzen

Besonders scharf formuliert hat die Kritik Yann LeCun, Chief AI Scientist bei Meta und Turing-Preisträger. Sein Ratschlag an Studierende und Forschende lautet: „Don’t work on LLMs.“ Seine Begründung:

  • LLMs hätten in puncto grundlegender Durchbrüche ihre Grenzen erreicht.
  • Wer „human-level AI“ entwickeln wolle, müsse über die aktuellen Modelle hinausdenken.

Tatsächlich basiert der Fortschritt bei LLMs bislang vor allem auf Skalierung: mehr Daten, größere Modelle, mehr GPUs. Doch dieser Ansatz zeigt erste Ermüdungserscheinungen. Die Ankündigungen rund um GPT-5 illustrieren das: Trotz vollmundiger Versprechen blieben die Benchmarks hinter den Erwartungen zurück.

Nicht nur ein Technikproblem

Doch nicht nur die Technik stößt an Grenzen. In vielen Unternehmen liegt die Ursache für das Scheitern von KI-Projekten im Management. Häufig werden KI-Tools wie Chatbots oder Dokumentenanalyse-Systeme eingesetzt, nur weil sie medial präsent sind – nicht, weil sie den größten Mehrwert für das jeweilige Geschäftsmodell bieten.

Die Folge: hohe Investitionen ohne klaren Nutzen. Dabei liegen die echten Effizienzgewinne oft in weniger spektakulären, dafür umso substanzielleren Anwendungsfällen. Ein Paradebeispiel: Zeitreihenvorhersagen.

Zeitreihen verstehen – ein unterschätzter Schatz

Zeitreihen sind Daten, die in regelmäßigen Abständen erhoben werden – etwa Energieverbrauch, Maschinenzustände, Verkaufszahlen oder Website-Traffic. Ihre Analyse ermöglicht es, Muster zu erkennen und verlässliche Prognosen für die Zukunft abzuleiten.

Praktische Anwendungen finden sich in nahezu allen Branchen:

  • Energieversorger können Lastspitzen besser planen.
  • Handelsunternehmen optimieren ihre Lagerbestände.
  • Produktionsbetriebe erkennen Wartungsbedarfe frühzeitig.

Richtig genutzt werden Zeitreihendaten zu einem entscheidenden Wettbewerbsvorteil, weil sie Planungssicherheit schaffen.

Besonders vielversprechend ist die Kombination von Quantencomputing und Meta-Learning.

Jan MikolonCTO, QuantumBasel

Das Problem der Robustheit

So wertvoll Zeitreihenanalysen sind – sie haben eine zentrale Schwachstelle: mangelnde Robustheit. Klassische KI-Modelle reagieren empfindlich auf Veränderungen der Datenbasis. Sobald Maschinen ausgetauscht werden, sich Marktbedingungen verschieben oder das Nutzerverhalten ändert („Data Drift“), verlieren viele Modelle an Genauigkeit. Die Konsequenz: Prognosen werden unzuverlässig und das Vertrauen in die Technologie sinkt.

Quantum & Meta-Learning als Lösungsansatz

Hier setzen neue Forschungsideen an, die weit über klassische LLMs hinausgehen. Besonders vielversprechend ist die Kombination von Quantencomputing und Meta-Learning. Quantencomputing erweitert den Berechnungsraum durch Qubits, die mehrere Zustände gleichzeitig verarbeiten können. So lassen sich komplexe Optimierungs- oder Prognoseprobleme effizienter lösen. Meta-Learning fungiert als Steuerungsebene: Es kombiniert verschiedene Modelle, lernt kontinuierlich hinzu und passt sich dynamisch neuen Datenlagen an.

Das Zusammenspiel dieser Technologien eröffnet robustere, präzisere und flexiblere Vorhersagemodelle. Gerade für datenintensive Anwendungen wie Zeitreihenanalysen kann dies einen entscheidenden Qualitätssprung bedeuten.

Von der Theorie zur Praxis: QuantumBasel

Wie lässt sich dieser Ansatz praktisch umsetzen? Ein Beispiel liefert QuantumBasel, ein Kompetenzzentrum für Quanten- und KI-Technologien. Dort werden klassische KI, quanteninspirierte Algorithmen und Meta-Learning zu hybriden Systemen kombiniert.

Erste Pilotprojekte zeigen deutliche Verbesserungen: So konnte der Logistikdienstleister Hermes mithilfe dieser Methoden die Qualität seiner KI-basierten Prognosen erheblich steigern. Robustere Vorhersagen führten zu effizienteren Abläufen – und damit zu messbarem wirtschaftlichen Nutzen.

Fazit: Über den Hype hinausdenken

Die KI-Debatte wird derzeit stark von LLMs bestimmt. Doch wie Yann LeCun betont, sind ihre Grenzen sichtbar. Unternehmen, die allein auf den Hype setzen, laufen Gefahr, in teuren Sackgassen zu enden.

Die Zukunft der KI liegt nicht unbedingt in noch größeren Sprachmodellen, sondern in innovativen, robusten und anwendungsnahen Technologien. Zeitreihenanalysen, kombiniert mit Quantencomputing und Meta-Learning, könnten „the next big thing“ sein – leiser, weniger spektakulär als ein Chatbot, aber dafür von substanzieller Bedeutung für Wirtschaft und Gesellschaft.

Das aktuelle Handelsblatt Journal
Dieser Artikel ist im aktuellen Handelsblatt Journal
„Zukunft IT & KI“ erschienen. Das vollständige Journal können Sie sich hier kostenlos herunterladen:
Zum Journal