AI
| Tobias Gerlach

Unter der Haube: Wie OpenAI's Codex wirklich 'denkt'

AI Coding OpenAI Deep Dive Agenten

👋

Ich hoffe, ihr habt einen entspannten Samstag. Heute möchte ich euch auf eine kleine Reise in den Maschinenraum der aktuellen KI-Entwicklung mitnehmen. OpenAI hat gestern (23. Januar 2026) einen faszinierenden Artikel veröffentlicht: “Unrolling the Codex agent loop”.

Als ich 2001 mit der Webentwicklung anfing, war “Automatisierung” noch ein Shell-Skript, das hoffentlich nicht den Server lahmlegte. Heute sprechen wir über KI-Agenten, die planen, ausführen und korrigieren. Aber wie funktioniert das eigentlich technisch? Und – noch viel wichtiger – ist das sicher?

Lasst uns das mal entpacken (“unrollen”), und zwar so, dass wir es alle verstehen.

Was ist eigentlich ein “Agent Loop”?

Früher funktionierte KI oft nach dem Prinzip: Eingabe -> Ausgabe. Ihr gebt einen Satz ein, die KI vervollständigt ihn. Fertig.

Der neue Ansatz von Codex (der Technologie hinter vielen Coding-Assistenten) ist aber ein Loop, also eine Schleife. Stellt euch das wie einen Dialog zwischen einem Entwickler und seinem super-schlauen Praktikanten vor:

  1. Der Plan: Die KI bekommt eine Aufgabe (z.B. “Füge ein Architektur-Diagramm in die README ein”).
  2. Die Überlegung: Sie wandelt das in Text um und entscheidet: “Okay, ich muss erst mal schauen, was überhaupt in der README steht.”
  3. Die Aktion (Tool Call): Statt nur Text zu antworten, ruft die KI ein Werkzeug auf – z.B. einen Shell-Befehl (cat README.md).
  4. Das Ergebnis: Die Ausgabe des Befehls wird wieder an die KI zurückgefüttert.
  5. Die Wiederholung: Mit diesem neuen Wissen plant die KI den nächsten Schritt, bis sie fertig ist.

Diesen Prozess nennt OpenAI den Agent Loop. Die KI “denkt” nicht nur einmal, sondern interagiert kontinuierlich mit eurer Entwicklungsumgebung.

Das “Unrolling”: Das Gedächtnis wächst

Das technisch Spannende (und Herausfordernde) daran ist, wie die KI den Kontext behält. Bei jedem Schritt in dieser Schleife wächst der sogenannte “Prompt” – also der Text, den die KI als Eingabe bekommt.

  • Start: User-Anfrage.
  • Runde 1: User-Anfrage + Gedanke der KI + Befehl der KI + Ergebnis des Befehls.
  • Runde 2: Alles von Runde 1 + neue Gedanken + neuer Befehl…

Das nennt man “Unrolling”. Man rollt die gesamte Historie der Handlungen aus, damit die KI weiß, was sie schon getan hat und ob es erfolgreich war.

Performance vs. Kosten

Ihr könnt euch vorstellen: Wenn dieser Text immer länger wird, braucht die KI mehr Rechenpower (“Kontext-Fenster”). OpenAI nutzt hier cleveres Prompt Caching. Da der Anfang der Konversation gleich bleibt, muss die KI nicht jedes Mal alles neu “lesen”, sondern nur den neu hinzugekommenen Teil verarbeiten. Das macht es schneller und effizienter.

Datenschutz: Ein Lichtblick? 🛡️

Ein Punkt, der mich als Datenschutz-Verfechter besonders gefreut hat, ist der Umgang mit Daten. OpenAI erwähnt explizit die Unterstützung für Zero Data Retention (ZDR).

Das bedeutet, dass der gesamte Prozess “stateless” (zustandslos) gestaltet ist. Es muss kein Server-Gedächtnis über eure vorherigen Anfragen geben, das irgendwo permanent gespeichert wird. Stattdessen wird der relevante Kontext jedes Mal neu (und verschlüsselt) mitgeschickt.

IMO: Das ist ein extrem wichtiger Schritt. Gerade wenn wir KIs tiefen Zugriff auf unseren Code und unsere Shell geben, müssen wir sicher sein, dass diese Daten nicht dauerhaft auf irgendwelchen Servern landen, um dort vielleicht andere Modelle zu trainieren.

Sicherheit und die “Sandbox”

Codex führt Befehle nicht einfach wild aus. Es gibt eine sogenannte Sandbox (einen geschützten Bereich) und strikte “Permissions Instructions”. Die KI muss wissen: “Darf ich das?”

Bevor ein Shell-Befehl ausgeführt wird, prüft das System Berechtigungen. Das ist essenziell. Stellt euch vor, der Agent beschließt plötzlich, rm -rf / auszuführen, weil er “Platz schaffen” will. 😱

Meine Meinung (IMO)

Ich finde die technische Umsetzung beeindruckend. Die Art und Weise, wie hier “Reasoning” (also logisches Schlussfolgern) mit echten Werkzeugen (Shell, File-System) verknüpft wird, ist ein echter Produktivitäts-Booster für uns Entwickler.

Aber: Ich bleibe auch hier kritisch gegenüber dem Hype.

  1. Autonomie: Je autonomer diese Loops werden, desto schwerer wird es nachzuvollziehen, warum eine Entscheidung getroffen wurde. Wir müssen sicherstellen, dass der Mensch immer die letzte Kontrollinstanz (“Human in the Loop”) bleibt.
  2. Abhängigkeit: Wenn wir uns zu sehr darauf verlassen, dass der Agent den Fehler im Loop selbst findet, verlernen wir vielleicht, den Fehler selbst zu sehen.
  3. Sicherheit: Auch wenn eine Sandbox existiert – Software ist nie fehlerfrei. Ein Agent, der Shell-Zugriff hat, ist ein potenzielles Risiko, wenn das Modell “halluziniert” oder manipuliert wird (Prompt Injection).

Trotzdem: Für Demokratisierung von Technologie ist das super. Es senkt die Hürde für Einsteiger, komplexe Systeme zu verstehen und zu bedienen. Solange wir die Kontrolle behalten und die Datenhoheit wahren, ist das ein Werkzeug, das Spaß macht.

Bleibt neugierig, aber kritisch!


Quelle: Unrolling the Codex agent loop | OpenAI

Hinweis: Dieser Beitrag spiegelt meine persönliche Meinung wider und stellt keine Rechtsberatung dar.
Hast du einen Fehler entdeckt oder hast du Fragen/Anmerkungen zu diesem Thema? Ich freue mich über deine Nachricht!

Tobias Gerlach

Tobias Gerlach

Battle proof Web Developer since 2001. Jede Welle gesehen – und immer noch da. Leidenschaft für sauberen Code, minimalistisches Design, modernste Technologien und digitalen Datenschutz.