Apples Studie zeigt die Grenzen des KI-Verständnisses auf und entlarvt die Mythen über AGI. Kann KI wirklich denken, oder ist das nur eine Illusion?
In einer Welt, die von den Wundern der künstlichen Intelligenz (KI) fasziniert ist, kann man sich leicht zu Visionen von superintelligenten Maschinen und KI-Systemen hinreissen lassen, die den menschlichen Intellekt übertreffen. Eine aktuelle Studie von Apple wirft jedoch einen Eimer kaltes Wasser auf diese Vorstellungen und stellt die wahren Fähigkeiten der aktuellen KI und insbesondere der Large Language Models (LLMs) in Frage.
In dem Papier mit dem Titel "The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity" bringen die Autoren Parshin Shojaee, Iman Mirzadeh, Keivan Alizadeh, Maxwell Horton, Samy Bengio und Mehrdad Farajtabar eine kritische Perspektive in den KI-Diskurs ein. Sie stellen die Behauptungen der Erfinder von LLMs in Frage und weisen darauf hin, dass die Vorstellung, sich der künstlichen allgemeinen Intelligenz (AGI) oder Superintelligenz zu nähern, weit hergeholt ist.
Die Forscher gingen über die üblichen Benchmarking-Tests hinaus, die in KI-Kreisen und darüber hinaus für ihren engen Fokus kritisiert werden. Stattdessen untersuchten sie, wie LLMs und ihre vermeintlich «selbstbewussteren» Gegenstücke, Large Reasoning Models (LRMs), komplexe kognitive Herausforderungen wie die Türme von Hanoi oder die sichere Überfahrt von Personen über einen Fluss bewältigen - und das alles ohne Katastrophe.
Diese Rätsel dienen als Lackmustest für echtes logisches Denken - eine Aufgabe, die für LLMs besonders schwierig ist, da ihnen nicht nur das Gespür für Korrektheit fehlt, sondern auch jeglicher Bezug zur Realität.
Die überraschenden Befunde
Das Team von Apple machte mehrere wichtige Beobachtungen:
Die Studie machte auch auf Besonderheiten aufmerksam, wie z. B., dass LRMs angesichts immer komplexerer Aufgaben ihre Rechenleistung drosselten, obwohl sie noch über Reserven verfügten - ähnlich wie ein Marathonläufer, der bei Kilometer 20 aufgibt, obwohl er noch genügend Energievorräte hat.
Ein weiteres merkwürdiges Verhalten, das die Forscher feststellten, war das "Overthinking" der LRMs. Bei der Lösung einfacher Probleme analysierten sie über den Punkt hinaus, an dem sie zu einem korrekten Ergebnis kamen, und verbrauchten so unnötige Rechenleistung und Energie, was Auswirkungen auf die Umwelt und die Effizienz hat.
Diese Studie stellt den überschwänglichen und manchmal unkritischen Optimismus in Frage, der die generative KI umgibt - eine aufkeimende Branche, die durch hochfliegende Visionen vom Verkauf von Meisterkursen, Beratungen, Büchern und mehr angeheizt wird. Dies deckt sich mit den Äusserungen prominenter Forscher wie Yann LeCun, die darauf hinweisen, dass die Superintelligenz nicht nur vor der Tür steht, sondern vielleicht gar nicht kommen wird.
Wir werden keine KI auf menschlichem Niveau erreichen, indem wir einfach die Anzahl der LLMs erhöhen. Das wird einfach nicht passieren. Es gibt keinen Weg - absolut keinen Weg.
Yann LeCun, leitender KI-Wissenschaftler, Meta
Die Ergebnisse von Apple unterstreichen, wie wichtig es ist, unsere Erwartungen an die KI an der Realität auszurichten. Während der Hype um KI, insbesondere generative KI, zu einem Ansturm von Investitionen und Prognosen geführt hat, ist es entscheidend, Fakten von Fantasie zu unterscheiden.
Generative KI wird nicht verschwinden - sie wird tatsächlich eine wichtige Rolle bei der Unterstützung und Verbesserung unserer Kontrolle über verschiedene Geräte und Systeme spielen. Die Behauptung, dass sie sich zu einer superintelligenten Einheit entwickeln wird, ist jedoch eine Illusion und keine Realität.
Diese Studie soll uns daran erinnern, eine gesunde Skepsis zu bewahren und unsere menschliche Weisheit anzuwenden, wenn wir das wahre Potenzial von KI-Technologien bewerten. Es handelt sich zweifellos um eine aufregende Entwicklung in unserem Leben, die jedoch mit einer informierten und kritischen Perspektive angegangen werden muss.