Wieder eine Woche, wieder eine atemlose Ankündigung, dass wir kurz vor der Allgemeinen Künstlichen Intelligenz (AGI) stehen. Man könnte Ihnen verzeihen, wenn Sie langsam eine schwere AGI-Müdigkeit entwickeln. Doch diesmal kommt die Behauptung nicht von den üblichen Tech-Giganten aus dem Silicon Valley, sondern von Integral AI, einem Startup mit Hubs in Tokio und dem Silicon Valley, angeführt vom ehemaligen Google AI-Pionier Jad Tarifi. Und sie versprechen nicht nur ein größeres, besseres großes Sprachmodell. Sie behaupten einen fundamentalen Paradigmenwechsel.
Integral AI hat die Entwicklung des weltweit ersten “AGI-fähigen Modells” bekannt gegeben. Bevor Sie reflexartig Ihre optischen Sensoren neu kalibrieren, sei gesagt: Ihre Behauptung basiert auf einem Fundament, das bewusst das datenhungrige, brachial skalierende Vorgehen der aktuellen KI umgeht. Stattdessen schlagen sie ein System vor, das eher wie ein Mensch lernt und eine Zukunft von Robotern verspricht, die Dinge selbstständig herausfinden. Eine kühne Behauptung, die einen genaueren Blick unter die Motorhaube verdient. Ist dies der wahre Coup, oder nur ein weiterer Fall von “AGI-Washing” in einem Hype-gesättigten Markt?
Der Architekt einer Neuen Intelligenz
Der Mann hinter dem Vorhang ist Jad Tarifi, Ph.D., der kein typischer Startup-Gründer ist. Er verbrachte fast ein Jahrzehnt bei Google AI, wo er das erste Generative KI-Team gründete und leitete, mit Fokus auf “Imaginationsmodelle” und wie man aus begrenzten Daten lernt. Mit einem Doktortitel in KI und einem Master in Quantencomputing sind seine Referenzen so gewichtig wie seine Ambitionen.
Interessanterweise hat Tarifi seine Operationen in Tokio angesiedelt, eine bewusste Entscheidung, die in seiner Überzeugung wurzelt, dass Japan das globale Herz der Robotik ist. Dies ist nicht nur eine geografische Vorliebe; es ist eine strategische. Integral AIs Vision ist eine “verkörperte” Intelligenz – KI, die in der physischen Welt lebt und lernt, was die Robotik zum ultimativen Testfeld macht.
Wer es nicht definieren kann, kann es auch nicht bauen
Der vielleicht erfrischendste Teil der Ankündigung von Integral AI ist ihre rigorose, ingenieurwissenschaftlich fundierte Definition von AGI. Während Giganten wie OpenAI und Google DeepMind oft in weiten, fast philosophischen Begriffen von AGI sprechen, hat Integral drei strenge, messbare Säulen für jedes System festgelegt, das diesen Titel beansprucht.
- Autonomes Fähigkeitslernen: Das Modell muss in der Lage sein, völlig neue Fähigkeiten in unbekannten Umgebungen ohne vorkompilierte Datensätze oder menschliches Zutun zu erlernen. Dies ist eine direkte Herausforderung für Modelle wie ChatGPT, die grundlegend durch die Daten begrenzt sind, mit denen sie trainiert wurden.
- Sichere und Zuverlässige Beherrschung: Der Lernprozess muss von Natur aus sicher sein. Tarifi verwendet eine wunderbar einfache Analogie: Ein Roboter, der kochen lernt, sollte die Küche nicht durch Versuch und Irrtum in Brand setzen. Sicherheit muss ein Feature sein, keine hektische Notlösung, die nachträglich aufgespielt wird.
- Energieeffizienz: Das ist der eigentliche Clou. Das Modell darf nicht mehr Energie verbrauchen, um eine neue Fähigkeit zu erlernen, als ein Mensch. Diese Säule packt den Elefanten im Raum für Big AI an: den völlig unhaltbaren Energieverbrauch beim Training immer größerer Modelle.
Laut ihrer Ankündigung vom Dezember 2025 hat das Modell von Integral AI diese drei Kriterien in einer geschlossenen Testumgebung erfolgreich erfüllt. Sollte dies zutreffen, ist es nichts weniger als eine Revolution.
Weltmodelle, nicht Wortmodelle
Was ist also das Geheimrezept? Integral AI baut keine Large Language Models. Sie bauen “Foundation World Models”. Das Konzept der Weltmodelle existiert seit Jahrzehnten, wobei Pioniere wie Jürgen Schmidhuber und Yann LeCun die Idee als einen entscheidenden Schritt zu robusterer KI vorantrieben. Die Kernidee ist, dass eine KI eine interne, prädiktive Simulation ihrer Umgebung aufbaut, die es ihr ermöglicht, die Konsequenzen ihrer Handlungen “vorwegzunehmen”, bevor sie diese ausführt.
Die Architektur von Integral ist vom menschlichen Neokortex inspiriert und darauf ausgelegt, zu abstrahieren, zu planen und als kohärentes Ganzes zu agieren, anstatt lediglich statistisch das nächste Token in einer Sequenz vorherzusagen. Das System verwendet sogenannte “universelle Operatoren”, die wie die wissenschaftliche Methode funktionieren: eine Hypothese aufstellen, ein Experiment entwerfen (wie das Bewegen eines Roboterarms) und aus dem Ergebnis lernen. Dieser aktive Lernprozess ermöglicht es ihm, ohne einen massiven, statischen Datensatz zu operieren.
Der Beweis zeigt sich beim Puzzeln
Natürlich sind Behauptungen schnell gemacht. Der Beweis beruht vorerst auf einigen entscheidenden Demonstrationen. Die erste ist eine klassische KI-Herausforderung: das Spiel Sokoban. Dieses Lagerhaus-Puzzlespiel ist für KI täuschend schwierig, da es eine langfristige Planung erfordert, bei der ein einziger falscher Zug das Rätsel viel später unlösbar machen kann. Aktuelle generative KI kämpft bekanntermaßen mit dieser Art von Zustandsverfolgung und logischen Konsequenzen. Tarifi behauptet, ihr Modell habe Sokoban von Grund auf (tabula rasa) gemeistert und die Regeln sowie eine Strategie auf professionellem Niveau einfach durch Interaktion mit der Simulation erlernt.
Um zu beweisen, dass es hier nicht nur um Spiele geht, präsentierte Integral auch ein Projekt für Honda R&D. Die Aufgabe bestand darin, komplexe, reale Logistik- und Planungssysteme zu koordinieren – im Grunde Sokoban mit echten Lieferketten und APIs zu spielen. Die Planungsfähigkeiten wurden mit denen von Google DeepMinds legendärem AlphaGo verglichen, jedoch auf die unübersichtliche, dynamische physische Welt statt auf ein begrenztes Spielbrett angewendet.
Also, ist der AGI-Hype diesmal echt?
Bleiben wir realistisch. Integral AI hat eine unglaublich überzeugende Vision und eine Reihe falsifizierbarer Behauptungen präsentiert. Diese Ergebnisse stammen jedoch aus einer “Sandbox”, und die breitere wissenschaftliche Gemeinschaft hat sie noch nicht unabhängig verifiziert. Das Unternehmen hat im Grunde seinen eigenen AGI-Maßstab geschaffen und dann erklärt, dass es diesen übertroffen hat.
Wenn – und das ist ein gewaltiges Wenn – diese Behauptungen einer genauen Prüfung standhalten, sind die Implikationen atemberaubend. Es würde einen Abschied vom Datensammel-Paradigma signalisieren, den ökologischen Fußabdruck der KI drastisch senken und den Weg für Allzweckroboter ebnen, die sich an unsere Haushalte anpassen können, nicht nur an hochstrukturierte Fabriken.
Integral AI hat einen Fehdehandschuh hingeworfen und den Ansatz der gesamten Branche beim Bau intelligenter Maschinen herausgefordert. Das Unternehmen sieht dies als den ersten Schritt zu einer “Superintelligenz, die Freiheit und kollektive Handlungsfähigkeit erweitert”. Vorerst schaut die Welt zu. Die Behauptungen sind außergewöhnlich. Der nächste Schritt ist, den außergewöhnlichen Beweis zu erbringen und dieses Gehirn in der Box aus dem Labor in unsere Welt zu bringen – hoffentlich, ohne dabei Küchen in Brand zu setzen.






