Wie viel Intelligenz wirklich in KI steckt

Wenn Sie nur wenig Zeit haben, dann kennen Sie vielleicht diese Überlebenstaktik: News und Nachrichten checken und dann auf das Dringendste konzentrieren. Was wirklich wichtig ist, gerät dabei allerdings schnell aus dem Fokus. So ging es Larissa Holzki zuletzt mit der „Artificial General Intelligence“.

AGI: Wird KI schlauer als der Mensch? (Optik: Larissa Holzki / Dall-E)

Dahinter steckt eine Art Allzweck-KI, die jede Aufgabe so gut ausführen kann wie ein Mensch – oder sogar besser. Allerdings wird es selbst laut Elon Musk noch mindestens bis 2025 dauern, bis sie entwickelt wird. Und der Tech-Milliardär und Tesla-Chef ist für seine ausgesprochen ehrgeizigen Prognosen bekannt.

Deshalb hat Larissa Holzki das Thema aufgeschoben, bis sie vergangene Woche Turing-Preisträger Yann LeCun getroffen hat. Er ist beim Facebookkonzern Meta Chefwissenschaftler für KI und einer der wichtigsten Köpfe in der Debatte um menschenähnliche Intelligenz in Maschinen. Vor allem aber hält er dem ganzen Hype um KI entgegen: Noch sind KI-Modelle nicht mal auf dem Intelligenzniveau einer Katze.

Yann LeCun (Foto: Cyber Valley / Fugelmann)

Warum das wichtig ist?
Im Grunde geht es um einige der spannendsten wissenschaftlichen Fragen überhaupt: Können Maschinen denken? Wie bringen wir es ihnen bei? Und was lernen wir dabei über unsere eigene Intelligenz?

Wissenschaftler forschen an diesen Fragen seit Jahrzehnten. Neu ist, dass das Ziel plötzlich greifbar scheint. Den sogenannten Turing-Test jedenfalls haben ChatGPT und Co. schon bestanden. In einem Frage-Antwort-Spiel kann ein Mensch also unter bestimmten Umständen nicht mehr unterscheiden, ob er mit einem anderen Menschen oder einer Maschine spricht. Das galt lange als Anhaltspunkt dafür, dass Computer menschliches Denken imitieren können.

Doch jetzt, wo das Ziel erreicht ist, zeigen sich die Probleme des Versuchsaufbaus.
Aktuelle KI-Modelle reden zwar ziemlich schlau daher. Aber denken können sie dadurch noch nicht.

Alan-Turing-Denkmal in Manchester, Großbritannien (Foto: dpa)

Vereinfacht gesagt, lesen sie bloß gigantische Mengen an Texten und lernen dabei, welche Worte am häufigsten in einer bestimmten Reihenfolge auftauchen. Und dann raten sie gewissermaßen, was die Antworten auf unsere Fragen sein könnten. Das Ergebnis ist statistisch also plausibel, das heißt aber nicht, dass es auch logisch oder faktisch richtig sind.

Das soll nicht heißen, dass ChatGPT und Co. zu nichts zu gebrauchen sind. Selbst Kritiker Yann LeCun sagt, dass es auf der Welt reichlich nützliche Software gibt, die dümmer ist als wir. Wo er und andere sich aber uneins sind: Lässt sich diese Art von KI-Modell hin zu einer AGI entwickeln? Oder braucht es dafür völlig neue Ansätze?

Bislang bekommen vor allem diejenigen Aufmerksamkeit, die versuchen, die heutigen Schwächen der Technologie einfach mit noch mehr Geld, Rechenleistung und Daten zu beheben. Dabei sind viele in der Wissenschaft überzeugt, dass das nicht die Lösung sein kann. Was den Menschen (und in Teilen auch Hauskatzen) noch von der KI unterscheidet, ist laut LeCun das Verständnis der physikalischen Welt, das Erinnerungsvermögen und die Fähigkeit, nachzudenken und zu planen.


Dieser Beitrag erschien in unserem KI-Newsletter. Wenn Sie mehr solcher Artikel lesen möchten, abonnieren Sie gerne das KI-Briefing hier.

Mehr zu weiteren Insight Innovationen lesen Sie hier.