Im April ist in der KI-Coding-Welt etwas ziemlich Witziges passiert. OpenAI hat ein Plugin für Claude Code rausgehauen. Und die Prosumer-Community hat „oh-my-zsh für Codex" geliefert — ein Open-Source-Projekt vom koreanischen Entwickler Yeachan-Heo, das in zwei Wochen über 16.000 GitHub-Sterne gesammelt hat. Beides Open Source. Beides gebaut, während die Fachpresse noch „Codex vs Claude Code"-Vergleichsartikel produziert hat.
Das Rivalitätstheater ist halt vorbei. Du kannst Codex jetzt innerhalb von Claude Code laufen lassen, mit offiziell von OpenAI gepflegten Befehlen, während eine Orchestrierungsschicht namens OMX mehrere Agenten in tmux-Panes koordiniert — in genau der Struktur, die oh-my-zsh seinerzeit für die Shell etabliert hat.
Wenn sich der letzte Satz nach drei verschiedenen Sprachen angefühlt hat, ist das genau der Punkt dieses Artikels. Hier kommt, was beide Tools eigentlich sind, wie du sie installierst (je etwa zwei Minuten), und warum die Geschichte, die sie zusammen erzählen, wichtiger ist als jedes einzelne Tool für sich.
Was ist oh-my-codex (OMX)?
Kurz: OMX ist für das Codex CLI das, was oh-my-zsh für die zsh-Shell ist. Wenn du oh-my-zsh noch nie installiert hast, denk es dir so: zsh ist das Terminal-Programm, das deine Befehle ausführt. Oh-my-zsh ist das Bündel aus Themes, Plugins, Aliases und Hooks, das zsh zum ersten Mal überhaupt angenehm nutzbar gemacht hat. OMX macht denselben Job für Codex.
Länger: Codex CLI ist OpenAIs terminal-basierter Coding-Agent — ein fähigerer Cousin von ChatGPT, der in deinem Terminal wohnt, deine Tests laufen lässt und deine Commits schreibt. Fähig, aber minimal. OMX fügt alles hinzu, was die minimale Version nicht mitbringt: ein Team koordinierter Agenten, die parallel in tmux-Panes arbeiten, persistentes Gedächtnis über MCP-Server, 33 spezialisierte Prompts für verschiedene Arten von Arbeit, Workflow-Skills wie TDD und Planungsstufen, Hook-Systeme für jedes größere Event und eine mehrstufige Pipeline von plan → PRD → exec → verify → fix.
Der beliebte Fork, gepflegt von Yeachan-Heo, hat in der ersten Aprilwoche die 16.000 GitHub-Sterne geknackt — ein Trending-Tracker meldete 1.789 Sterne in 24 Stunden. MIT-Lizenz. Swyx, einer der produktivsten Autoren zum Thema KI-Entwicklung, hat am Tag nach dem Trending-Hoch den Maintainer als Creator empfohlen.
Für die Profis: 13 benannte Agenten ($ultrawork, $deep-interview, $plan, $research, $team, $review, $tdd, $doctor, $hud, $trace, $autoresearch, $architect, $executor, $reviewer), tmux-basierte Parallel-Worker jeweils in isolierten git-worktrees (so gibt’s keine Merge-Konflikte zwischen Agenten), Hooks bei SessionStart/PreToolUse/PostToolUse/UserPromptSubmit/Stop, Discord- und Telegram-Integrationen, Launch-Profile von --yolo bis --madmax, die Vorsicht gegen Tempo tauschen.
Was ist codex-plugin-cc?
Kurz: Das kommt von OpenAI selbst. Es ist ein Plugin für Claude Code — erweitert also das Tool von Anthropic — und lässt dich aus Claude Code heraus Aufgaben an Codex delegieren. Du bleibst in Claude Code. Codex macht die Arbeit, die du ihm zuwirfst.
Länger: Wer sich schon mal gewünscht hat, dass Claude Code eine zweite Meinung zu einer riskanten Änderung einholen könnte — genau das ist das hier. Drei Befehle sind die wichtigsten:
/codex:reviewlässt einen Codex-Review auf deinen aktuellen, noch uncommitteten Änderungen laufen/codex:adversarial-reviewtestet deine Design-Entscheidungen unter Druck — speziell gebaut für Auth-Änderungen, Infrastruktur-Skripte und große Refactorings, bei denen stille Annahmen tödlich sind/codex:rescueübergibt Codex eine offene Aufgabe als Background-Job. Resume, wait, fresh-start, spezifisches Modell wählen, Effort-Level setzen — alles als Flags
Drei weitere Befehle managen laufende Jobs: /codex:status zeigt, was läuft, /codex:result gibt dir das finale Ergebnis plus eine Session-ID zum Direkt-Resumen in Codex, /codex:cancel stoppt alles, was du nicht mehr willst.
Unter der Haube: ein Model Context Protocol (MCP) Plugin, das mit deinem lokalen Codex CLI oder Codex-App-Server spricht. Es geht nichts zusätzlich an OpenAI über das hinaus, was du sowieso schickst, wenn du Codex nativ nutzt. ChatGPT-Abo (Free reicht) oder OpenAI-API-Key plus Node.js 18.18+ — mehr brauchst du nicht.
Ein Launch-Day-Post von einem Entwickler bekam Anfang April 2.243 Likes und 177 Reposts. Die Reaktion war größtenteils Unglaube darüber, dass OpenAI das überhaupt rausbringt. „Du kannst jetzt Codex in Claude Code laufen lassen" wäre vor sechs Monaten noch ein Witz gewesen.
OMX in unter 2 Minuten installieren
Terminal öffnen.
npm install -g @openai/codex oh-my-codex
omx setup
omx doctor
Das war’s. Erster Befehl holt das Codex CLI und das OMX-Paket von npm. Zweiter führt das interaktive Setup aus — fragt nach deinem OpenAI-API-Key, wenn noch keiner gesetzt ist, und legt das .omx/-State-Verzeichnis in deinem Projekt an. Dritter läuft ein Diagnose-Tool, das prüft, ob tmux, deine git-worktree-Berechtigungen und die Codex-Credentials korrekt verdrahtet sind.
Zum eigentlichen Starten einer Session:
omx --madmax --high
--madmax ist das aggressivste Launch-Profil. Es spawnt ein Team von Agenten in tmux-Panes, jeweils mit eigenem git-worktree. Willst du vorsichtiger starten, nimm --high alleine — oder --yolo für den Single-Agent-Modus mit schwachen Leitplanken. Für das volle Deep-Agentic-Programm gibt’s auch --xhigh.
Worauf du achten solltest: Wenn du auf ChatGPT Plus bist (20 Dollar im Monat) und --madmax laufen lässt, erwischt dich das Nutzungslimit schneller als du denkst. Ein Entwickler meldete, dass seine Quota nach sechs Minuten weg war. Wenn du OMX ernsthaft einsetzen willst, rechne den 100-Dollar-Codex-Pro-Tarif mit ein — die fünffache Rate-Limit-Decke macht parallele Agenten erst praktikabel.
codex-plugin-cc in unter 2 Minuten installieren
Das installiert sich in Claude Code, nicht aus deiner Shell. Claude Code öffnen, dann:
/plugin marketplace add openai/codex-plugin-cc
/plugin install codex@openai-codex
/reload-plugins
/codex:setup
Scope wählen: user, wenn du es überall haben willst. Project, wenn es nur im aktuellen Repo gelten soll. Local für eine einzelne Session. Das Setup führt durch die Codex-Anbindung — falls du das Codex CLI noch nicht installiert hast, fordert es dich dazu auf.
Nach dem Setup probier’s an einer echten Änderung:
/codex:review --base main
Du kriegst einen Codex-Review über alles, was sich gegenüber main unterscheidet. Für alles, was Authentifizierung oder Infrastruktur anfasst:
/codex:adversarial-review --background
Das startet den adversariellen Review im Hintergrund, du kannst weitermachen. Mit /codex:status nachsehen, mit /codex:result das Ergebnis holen — und wenn das Feedback vernichtend ist, hast du es wenigstens vor dem Merge gelesen.
Was die beiden zusammen eigentlich machen
Der Workflow, der in der Wildnis immer wieder auftaucht.
Claude Code öffnen. Claude Opus 4.7 für Architektur und Planung. Wenn du an einem Punkt landest, an dem Claude zu vorsichtig ist — statisches HTML, ein CSS-Tweak, ein reiner Refactor, bei dem er sich ständig druckst — /codex:rescue und Codex’ gpt-5.4-mini lässt du im Hintergrund durchziehen. Ergebnis zurückholen, in Claude Code reviewen, mergen.
Für große Refactorings lässt du beide Modelle gegeneinander arbeiten. Branch mit deiner Änderung aufsetzen. /codex:adversarial-review mit --focus "authentication and session handling" laufen lassen. Codex reviewt aus einer frischen Modellperspektive. Jede Meinungsverschiedenheit zwischen den beiden ist genau die Stelle, an der wirklich Risiko sitzt.
Auf der Terminalseite lässt OMX dieselben drei Agenten parallel laufen: einen für die API-Ebene, einen fürs Frontend, einen für die Tests. Jeweils in einem tmux-Pane, jeweils in einem eigenen git-worktree. Der $review-Agent am Ende prüft alle drei, bevor koordiniert gemergt wird.
Ein koreanischer Entwickler hat das Muster in einem Tweet zusammengefasst: „개발은 클로드 코드에게, 리뷰는 코덱스에게" — Entwicklung an Claude Code, Reviews an Codex. Ein japanischer Entwickler hat es noch einfacher ausgedrückt: „Die Claude-plus-Codex-Kollaboration ist das Beste." Keinem von beiden ist es wichtig, welches Unternehmen welches Modell liefert.
Der oh-my-zsh-Moment
Der Grund, warum OMX so abging, sind nicht die Features. Es ist die Form des Dings. Oh-my-zsh hat eine okaye Shell in eine community-besessene Plattform verwandelt. Jeder hatte ein Plugin. Jeder hatte ein Theme. Die Shell selbst hat sich nicht verändert — das Gerüst drumherum wurde zum Produkt.
Genau das passiert gerade bei KI-Coding-Agenten. Claude hat die obra/superpowers- und ui-ux-pro-max-Ökosysteme. Codex hat jetzt OMX und die 90+ offiziellen Plugins, die am 17. April ausgeliefert wurden. Beide entwickeln sich vom „liefere ein gutes Modell"-Zeitalter ins „liefere ein gutes Modell plus eine Orchestrierungsschicht"-Zeitalter.
Der wirklich neue Teil: Mit codex-plugin-cc reden diese Orchestrierungsschichten miteinander. Du kannst OMX über Codex laufen lassen, während Claude Code ihm mitten in einer Session Aufgaben delegiert. Die Modellkriege werden nicht mehr durch Benchmarks entschieden, sondern durch die Rohre drumherum.
Was es nicht kann (ehrliche Grenzen)
Rate-Limits zerschmettern dich auf den günstigen Tarifen. Parallele Agenten heißen parallele Tokens. Der 20-Dollar-Plus-Tarif von ChatGPT handhabt Single-Agent-Codex einwandfrei. Er handhabt OMX im --madmax-Modus nicht. Wenn du parallel laufen willst, rechne mit 100 Dollar im Monat für Codex Pro.
OMX geht von tmux aus. Unter Windows gibt’s einen psmux-Fallback, der ist aber weniger battle-tested. Die Mac/Linux-Erfahrung ist, wo die Entwicklungsarbeit reingegangen ist.
codex-plugin-cc braucht Codex CLI lokal. Es ist keine Cloud-zu-Cloud-Brücke. Wenn du Codex nicht auf deiner Maschine installiert haben willst, ist das nichts für dich.
Beide scheitern immer noch auf die Art, auf die Agenten halt scheitern. Tests, die in Schleifen hängenbleiben, Merge-Konflikte, die das LLM nicht auflöst, Dokumentation, die selbstbewusst aber leicht falsch geschrieben ist. Orchestrierung macht Fehler schneller auffindbar — sie macht sie nicht weg.
Trending-Sterne sind nicht dasselbe wie battle-tested. OMX ist Wochen alt. Manche Features (der MCP-Memory-Server, die Telegram-Integration) funktionieren in Demos und sind nicht in Produktion unter Druck getestet. Wenn du risikoavers bist, beobachte es einen Monat, bevor du es in deinen Haupt-Workflow einbaust.
Es gibt zwei „oh-my-codex"-Repos. Der Yeachan-Heo-Fork ist der mit 16.000 Sternen, auf den sich die meisten Tweets beziehen. Der staticpayload-Fork ist ein anderes, schlankeres Projekt. Stell sicher, dass du aus dem richtigen installierst.
Nach dem 17. April stellen manche die Relevanz von OMX in Frage. Ein chinesischer Entwickler hat darauf hingewiesen, dass mit den neuen Computer-Use-Plugins von Codex Desktop OMX’ Orchestrierungs-Feature sich mit dem überlappen könnte, was nativ ausgeliefert wird. Die Spannung solltest du im nächsten Monat beobachten. Heute gehen OMX’ Hooks und Team-basierte Workflows noch weiter als das, was die Desktop-App macht — aber die Lücke könnte schmaler werden.
Datenschutz-Hinweis: Wenn du in DACH unterwegs bist und DSGVO ein Thema ist, beachte: Beide Tools schicken deinen Code-Kontext an OpenAI (via Codex CLI) bzw. Anthropic (via Claude Code). Wer Enterprise-Compliance braucht, klärt das vorher mit seinem Datenschutzbeauftragten. Die Repos sind Open Source, aber die dahinterliegenden Modelle laufen halt bei den jeweiligen Anbietern.
Was das für dich bedeutet
Wenn du Claude-Code-Power-User bist: Installier codex-plugin-cc dieses Wochenende. Das ist ein 2-Minuten-Setup und gibt dir eine kostenlose zweite Meinung bei jeder Änderung. Du musst dich nicht verpflichten, Codex zu benutzen — es muss einfach verfügbar sein, wenn Claude sich bei etwas druckst, von dem du weißt, dass es simpel ist.
Wenn du schon Codex CLI nutzt: Installier OMX, wenn du regelmäßig lange Aufgaben fährst, die in Timeouts laufen, oder wenn du paralleles Multi-Agent-Arbeiten willst. Bleib beim vanilla Codex CLI, wenn deine Arbeit aus kürzeren Iterationszyklen besteht und du preissensibel bist.
Wenn du neu bei KI-Coding-Agenten bist: Lass beide erstmal liegen. Fang mit Claude Code oder Codex Desktop direkt an. Du musst spüren, was ein einzelner Agent falsch macht, bevor Orchestrierungsschichten Sinn ergeben. Komm in einem Monat wieder.
Wenn du in einem Team stehst, das auf ein Tool standardisieren soll: Die Frage ist damit eigentlich durch. Die Antwort ist beide, orchestriert. Bau deine Entscheidung darum, welchen Orchestrierungs-Stack du willst (OMX vs obra/superpowers vs selber bauen), statt darum, auf welches Modell du dich festlegst.
Wer sollte dieses Wochenende installieren?
- OMX jetzt installieren wenn: Du bist auf macOS oder Linux mit tmux, hast Codex Pro (100 Dollar im Monat) und hast eine mehrstündige Aufgabe, die du am Sonntag durchlaufen lassen kannst.
- codex-plugin-cc jetzt installieren wenn: Du nutzt Claude Code sowieso und willst ein 2-Minuten-Upgrade, das dir Codex als Backup gratis dazugibt.
- Beides installieren wenn: Du bist Solo-Entwickler oder Indie-Operator und dir fallen die Ideen aus, wie du in derselben Zeit mehr Durchsatz rausholst.
- Erstmal auslassen wenn: Du lernst dein Haupt-Tool noch. Orchestrierungs-Schichten verstärken, worin du schon gut bist. Wenn du noch in nichts gut bist, verstärken sie Verwirrung.
Unterm Strich
OMX und codex-plugin-cc sind zwei Hälften derselben Geschichte: KI-Coding wird zu einem Kompositionsproblem, nicht mehr zu einem Auswahlproblem. Die Ära „welches Modell ist das beste" geht zu Ende. Die Ära „welche Orchestrierungsschicht verbindet meine Modelle" fängt an.
Beide Tools sind kostenlos. Beide sind in unter fünf Minuten installiert. Beide sagen dir was darüber, wohin die Reise geht: Die Firmen, die Modelle liefern, liefern auch Werkzeuge, um mit ihren Konkurrenten zu interoperieren. Weil das ist, was Entwickler tatsächlich wollen.
Installier OMX. Installier codex-plugin-cc. Nutz sie eine Woche. Welcher Stack am Ende bei dir rauskommt, wird wahrscheinlich mit keinem der beiden exakt übereinstimmen — und das ist okay. Der Punkt ist, dass der Stack selbst zum Produkt wird.
Quellen
- openai/codex-plugin-cc — GitHub
- Yeachan-Heo/oh-my-codex — GitHub (populärer Fork, 16k+ Sterne)
- staticpayload/oh-my-codex — GitHub (schlankerer Fork)
- oh-my-codex.dev — offizielle Seite
- a2a-mcp.org — Was ist Oh My Codex (OMX)?
- OpenAI Developer Community — Introducing Codex Plugin for Claude Code
- npm — oh-my-codex
- MindStudio — OpenAI Codex Plugin for Claude Code: Cross-Provider-Review
- Alpha Signal — You can now trigger Codex from Claude Code
- OpenAI Developers — Codex Plugins