Schlagabtausch von Donald Trump und Start-up Anthropic: Streit über die Nutzung von KI. (Optik: Michel Becker / Sora)
Gleichzeitig wächst das Geschäft von Anthropic mit Unternehmenskunden rasant. Anthropic nähert sich inzwischen einem jährlichen Umsatz von etwa 19 Milliarden Dollar – und rückt damit nah an den Marktführer OpenAI heran.
Warum das wichtig ist: Lange schien der Markt aufgeteilt: OpenAI dominierte mit ChatGPT den Massenmarkt, während Google und Microsoft ihre eigenen KI-Modelle in bestehende Software-Ökosysteme integrierten. Anthropic dagegen galt als eine Art Sicherheitslabor mit besonders strengen Prinzipien – technologisch stark, aber strategisch vorsichtig.
Diese Wahrnehmung ändert sich gerade grundlegend.
Denn während viele Anbieter versuchen, möglichst schnell möglichst viele Konsumenten zu erreichen, verfolgt Anthropic eine andere Strategie: das KI-Betriebssystem für Unternehmen zu werden. Der Fokus liegt auf Entwicklern, Programmierung und komplexen Arbeitsprozessen. Besonders sichtbar wird das beim Produkt Claude Code – einem KI-Agenten, der Software schreiben, testen und über längere Zeiträume hinweg Projekte bearbeiten kann.
Die Wirkung solcher Systeme ist bereits spürbar. Investoren wetten, dass ganze Branchen der Unternehmenssoftware unter Druck geraten könnten. In den vergangenen Monaten verloren zahlreiche Softwarefirmen zweistellig an Börsenwert, weil Anleger schätzen, dass KI-Agenten viele ihrer Funktionen künftig direkt übernehmen.
Dario Amodei: Der Mitgründer und CEO von Anthropic. (Foto: Bloomberg via Getty Images)
Diese Verschiebung ist auch ein Grund für das rasante Umsatzwachstum der großen KI-Labore. OpenAI liegt zwar weiterhin vorn und generiert inzwischen mehr als 25 Milliarden Dollar jährliche Einnahmen. Doch Anthropic hat die Lücke überraschend schnell verkleinert. Vor einem Jahr lag der Umsatz noch weit zurück.
Während ChatGPT vor allem ein Konsumentenprodukt ist, wird Claude zunehmend in Entwicklungsumgebungen, Analyse-Tools und internen Unternehmensprozessen eingesetzt. Der Effekt ist enorm: Ein einzelner KI-Agent kann Aufgaben automatisieren, für die früher ganze Teams nötig waren.
Auf dem Mobile World Congress in Barcelona war Anthropic eines der großen Themen. Kaum ein Gespräch kam ohne Beispiele aus, wie Firmen derzeit mit KI-Agenten experimentieren.
Auch ein Chef eines großen europäischen Technologieunternehmens schwärmte davon, wie sein Team gerade mit Claude Code neue Software-Werkzeuge baut und auch er selbst – der kein Programmierer ist – mit dem Coden anfängt. Anthropic hat mehr als ein nützliches Werkzeug gebaut. Deshalb hängt an der Zukunft von Anthropic auch so viel.
USA setzen Anti-China-Strategie ein.
Denn je wichtiger solche Systeme für Wirtschaft und Softwareentwicklung werden, desto größer wird auch das Interesse von Staaten, Zugriff auf diese zu bekommen. Der Konflikt zwischen Anthropic und dem Pentagon zeigt vor allem: KI wird zu staatlicher Infrastruktur.
Dass das Pentagon Anthropic nun offiziell als Risiko für die nationale Lieferkette einstuft, verschärft den Konflikt zusätzlich. Solche Maßnahmen wurden in der Vergangenheit vor allem gegen chinesische Technologiekonzerne wie Huawei eingesetzt. Anthropic-Chef Dario Amodei hat angekündigt, die Entscheidung vor Gericht anzufechten.
Über Jahre haben viele Forscher davor gewarnt, dass Regierungen versuchen könnten, die leistungsfähigsten Modelle für Überwachung oder militärische Systeme zu nutzen. Lange klang das wie eine abstrakte Zukunftsdebatte aus der KI-Sicherheitsforschung. Jetzt wird sie plötzlich konkret.
Früher wären derartige Versuche staatlichen Zugriffs eher in Peking zu erwarten gewesen. Dort gehört technologische Kontrolle zum politischen System. Dass eine ähnliche Dynamik nun aus Washington kommt, zeigt, wie schnell sich die Logik dieser Technologie verschiebt. Wenn Regierungen Zugang zu den leistungsfähigsten Modellen erzwingen können, während gleichzeitig unklar bleibt, wofür sie eingesetzt werden dürfen, entsteht eine gefährliche Grauzone.
KI-Systeme könnten dann nicht nur Software schreiben oder Unternehmen effizienter machen. Sie könnten auch Überwachungssysteme betreiben, die Milliarden Datenpunkte auswerten oder militärische Systeme unterstützen, bei denen Maschinen zunehmend Entscheidungen vorbereiten oder treffen.
Am Ende geht es nicht nur um Technologie. Es geht um Macht.
Informationen rund um dieses Thema finden Sie hier.
Dieser Beitrag erschien in unserem KI-Newsletter. Wenn Sie mehr solcher Artikel lesen möchten, abonnieren Sie gerne das KI-Briefing hier.