Mistral hat Vibe Remote Agents am 29. April 2026 gestartet — vor drei Tagen. Das Modell dahinter (Mistral Medium 3.5, 128B dense, 256k Kontext) erreicht 77,6 % auf SWE-Bench Verified — praktisch gleichauf mit Claude Sonnet 4.5 bei 77,2 %. Die Preise liegen ungefähr bei der Hälfte: 1,50 USD / 7,50 USD pro Million Tokens vs. Sonnet 4 mit 3 / 15 USD. Die Integrationen sind drin (GitHub, Linear, Jira, Sentry, Slack, Teams). Die Lizenz ist modified MIT. Du kannst es auf vier GPUs laufen lassen.
Wenn du auf einen ernstzunehmenden Codex-/Claude-Code-Wettbewerber gewartet hast, der nicht von einem einzigen US-Vendor gegated ist, ist das der glaubwürdigste Kandidat des Jahres. Für DACH-Mittelständler mit echten EU-Souveränitäts-Anforderungen ist es das erste 2026-Werkzeug, das diese Frage substanziell beantwortet — und nicht bloß rhetorisch.
Was du heute in der SERP nicht findest: einen einzigen Head-to-Head-Vergleich der drei Tools an derselben Aufgabe. Reichlich Claude-Code-vs-Codex-Stücke; reichlich Mistral-Medium-3.5-Launch-Reviews. Null Beiträge, die Vibe Remote Agents neben Claude Codes interaktivem Flow neben Codex’ Cloud-Async-Flow auf denselben Job stellen und dir sagen, wann welches gewinnt.
Dieses Stück ist genau dieser Vergleich, verankert an den vier Aufgaben, die jedes Team dieses Jahr tatsächlich durch Coding-Agenten laufen lässt — und ehrlich bei den Teilen, die noch ein paar Wochen echtes Real-World-Signal brauchen, bevor das Urteil festgezurrt ist.
Was Mistral am 29. April tatsächlich geliefert hat
Drei Dinge landeten gleichzeitig, und sie ergeben nur zusammen Sinn:
- Mistral Medium 3.5 — ein 128-Milliarden-Parameter-Dense-Multimodal-Modell, 256k Kontext, 1,50 USD Input / 7,50 USD Output pro Million Tokens auf der Mistral-API. Open-Weights auf Hugging Face unter modified MIT. Selbst-hostbar auf vier GPUs.
- Vibe Remote Agents — async Cloud-Sessions, die du aus der Vibe-CLI oder Le Chat spawnst. Der Agent läuft in Mistrals Cloud, klemmt sich an GitHub für Code und PRs, an Linear und Jira für Issues, an Sentry für Incidents, an Slack und Teams für Status-Updates. Per Mistrals Ankündigung: “laufende lokale CLI-Sessions können in die Cloud teleportiert werden, wenn du sie weiterlaufen lassen willst, mit Session-History, Task-State und Approvals, die mitwandern.”
- Le Chat Work Mode — eine Parallel-Tool-Calling-Schicht in Mistrals Chat-UI für Nicht-Entwickler. Andere Audience; in diesem Vergleich ignorieren wir das.
Der relevante Benchmark: 77,6 % auf SWE-Bench Verified. @Singularabbit auf X hatte die sauberste Lesart: “Ein 128B-Modell, das auf Augenhöhe mit 700B-1000B-Klasse-Modellen kommt — in puncto Parameter-Effizienz das beeindruckendste Ergebnis im ganzen Chart.” Diese Parameter-Effizienz ist der ganze Grund, warum das ein glaubwürdiger Vergleich ist und nicht nur ein weiteres Launch.
Zur Einordnung im Leaderboard: Claude Opus 4.7 schafft 87,6 % auf SWE-Bench Verified, GPT-5-Codex bei 74,9 % Baseline. Vibe sitzt zwischen ihnen, näher an Codex als an Opus. Auf Terminal-Bench 2.0 (dem für Agent-Workflows relevantesten Benchmark) führt GPT-5.4 mit 75,1 %, GPT-5.3-Codex mit 77,3 %, Opus 4.7 bei 69,4 %. Mistral hat Terminal-Bench-Zahlen für Vibe noch nicht veröffentlicht.
Die EU-Souveränitäts-Karte, die DACH-Mittelständler ehrlich werten sollten
Bevor wir zu den vier Aufgaben kommen — der Punkt, der diesen Launch von einem reinen Tool-Vergleich abhebt: Mistral ist ein Pariser Open-Source-KI-Unternehmen, sitzt in der EU, hostet in der EU, fällt unter EU-AI-Act-Pflichten, und veröffentlicht Open Weights. Das ist nicht nur Marketing-Sprech.
Die deutsche KI-Souveränitäts-Diskussion ist seit Monaten klar gerahmt: Aleph Alpha bekommt von der Schwarz-Gruppe (Lidl/Kaufland) erhöhte Beteiligungen, positioniert seine Lösungen explizit als “souveräne KI-Lösungen” im europäischen Cloud-Stack STACKIT. Bitkom warnt parallel beim AI Act davor, dass die Umsetzung nicht innovationsfeindlich sein darf — die “KI-Bremse”-Sorge. Für Mittelständler bedeutet das: Druck zur Nutzung starker US-Modelle einerseits (Anthropic, OpenAI, Microsoft, Google), wachsendes Interesse an souveränen Alternativen andererseits — wegen Lieferkettenrisiken, DSGVO-Lage, und Rechtsklarheit.
In diesem Kontext ist Mistral Vibe für DACH-IT-Verantwortliche nicht “noch ein US-LLM-Klon mit französischem Akzent”. Es ist die erste konkrete Antwort auf die Frage, ob du Coding-Agenten produktiv einsetzen kannst, ohne deinen Code dauerhaft an einen US-Cloud-Provider zu hängen. Selbst-Hosting auf vier GPUs ist die Story, die Anthropic und OpenAI nicht haben.
Das macht Vibe nicht automatisch zur richtigen Wahl für deinen Team-Stack. Es macht es zur Wahl, die du für die nächste 18-Monats-Beschaffungsentscheidung ehrlich evaluieren musst, statt sie als zu kleinen Spieler abzutun.
Die vier Aufgaben, die dir sagen, welches Tool zu wählen ist
Wir gehen vier Aufgaben durch, die du tatsächlich an einen Coding-Agenten delegieren würdest. Bei jeder erkläre ich, was jedes Tool am besten kann — mit einer Mischung aus (a) verifizierten Benchmarks, (b) tatsächlichem Real-User-Signal aus X dieser Woche und (c) ehrlichen Trade-offs, die der Launch-Hype überspringt.
Aufgabe 1: 600-Zeilen-Python-Modul refaktorieren
Der Job: ein 600-Zeilen-Modul, das in 18 Monaten gewachsen ist, drei Klassen extrahieren, Tests für die neue Struktur schreiben, PR shippen.
Claude Code gewinnt. Sonnet 4.6 im interaktiven Modus ist am besten bei Long-Context-Refaktoren, die sorgfältige Beurteilung verlangen, was zu brechen und was zu behalten ist. Das 200k-Kontext-Fenster hält das ganze Modul + deine Tests + deinen Import-Graph gleichzeitig. Die Konversations-Schleife fängt Edge-Cases, an die du nicht gedacht hast.
Wo Vibe mithält: Mistral Medium 3.5’s 256k-Kontext ist größer, und die Parameter-Effizienz-Erkenntnis von @Singularabbit hält — für Refactor-Tasks, die meist mechanisch sind, produziert Vibe + Medium 3.5 Output, der wie Sonnet 4.5 benchmarkt. Der echte Nutzer @noctus91 auf X (1. Mai): “Mistral Medium 3.5 mit Vibe-CLI-Harness ist genuinely great. Baue schon ein Side-Project drauf, läuft solide bisher.” Drei Screenshots seiner Mistral-Study-App — Karteikarten, Voice-Modus, Quiz — stützen die Aussage.
Wo Codex zurückfällt: GPT-5-Codex’ Reasoning-Stil bevorzugt überlegte, architektonisch korrekte Rewrites. Für reines Refactor-Arbeit, das keine neue Architektur braucht, ist das Overhead. Du bekommst eine bessere Antwort, langsamer, zu höheren Kosten.
Wahl: Claude Code für den chirurgischen interaktiven Flow. Vibe, wenn vergleichbare Qualität bei halben API-Kosten zählt und du Tools wechseln kannst.
Aufgabe 2: OAuth zu einer Next.js-App hinzufügen
Der Job: bestehende Next.js-15-App. Google-OAuth-Sign-in hinzufügen. Auf ein Session-Cookie verdrahten. Den existierenden E-Mail/Passwort-Flow nicht brechen.
Codex gewinnt. Das ist genau das Aufgaben-Profil, für das Codex designt wurde: ein gut dokumentiertes Framework, ein bekanntes Pattern (NextAuth.js v5 / Auth.js), eine klare Definition-of-Done. Codex’ überlegter Architektur-First-Stil produziert einen PR, den du mit Vertrauen mergen kannst. Per artificialanalysis.ai-Leaderboard erreicht Codex’ GPT-5.4-Base 75,1 % auf Terminal-Bench, das höchste der drei.
Wo Vibe mithält: Vibes Async-Flow ist hier interessant — OAuth-Task starten, Mittagspause, beim Zurückkommen Draft-PR. @rayanabdulcader auf X (29. April): “Remote Agents aus der CLI sind ein echter Game-Changer. Tasks anstoßen ohne GUI öffnen und im Hintergrund laufen lassen — genau das brauchte ich.” Der Async-Flow ist real, und die Integrationen landen das Resultat direkt in deiner GitHub-PR-Queue.
Wo Claude Code zurückfällt: Interactive-Modus ist designt, dich in der Schleife zu halten. Für eine OAuth-Integration, bei der du lieber abgibst und reviewst, verbringst du 30 Minuten in einer Konversation, die Codex oder Vibe async erledigen würden.
Wahl: Codex, wenn Qualität + Überlegung mehr zählen als Geschwindigkeit. Vibe, wenn Async + halbe Kosten mehr zählen.
Aufgabe 3: Einen flaky Test debuggen
Der Job: ein CI-Test, der 1 von 8 Runs scheitert. Logs sind dünn. Beste Team-Vermutung ist eine Race-Condition im Setup. Du musst es finden.
Claude Code gewinnt. Flaky-Test-Debugging ist der kanonische Use-Case für Interactive-Modus. Du beobachtest, wie der Agent reasoniert, korrigierst ihn, lenkst ihn. Sonnet 4.6’s Reasoning-Trace plus sein starkes Code-Verständnis machen ihn zum besten Partner für diese Art Diagnose-Schleife. Der Kosten-Spike durch Heavy-Reasoning ist real, aber gerechtfertigt.
Wo Vibe und Codex beide kämpfen: Async-Modi heißen, der Agent geht weg, arbeitet, und kommt mit einem Resultat zurück. Bei flaky Tests brauchst du einen Denk-Partner, keinen Worker. Sowohl Vibe Remote Agents als auch Codex Cloud werden eine Hypothese produzieren, aber der Iterations-Zyklus ist langsamer, weil jede “Was wenn es X ist?"-Runde Round-Trips über einen Remote-Run.
Das Vibe-Remote-Agent-Schlupfloch: wenn dein flaky Test in einer sauberen Cloud-Sandbox deterministisch reproduziert (oft tut er es nicht, weil er umgebungsabhängig ist), kann Vibe ihn 100-mal in parallelen async Sandboxes laufen lassen und das Failure-Pattern am schnellsten surface. Das ist ein Nischen-Sieg.
Wahl: Claude Code für fast alle flaky-Test-Debugs. Vibe nur, wenn die Reproduktion umgebungs-sauber ist und Parallelismus den Interactive-Flow schlägt.
Aufgabe 4: Einen 1.200-Zeilen-Pull-Request reviewen
Der Job: ein PR von einem Junior-Engineer, der ein neues Feature hinzufügt. 1.200 Zeilen über 18 Dateien. Gründlich reviewen, ohne zwei Stunden zu verbringen.
Vibe gewinnt. Das ist die Aufgabe, für die Vibe Remote Agents designt wurden. PR-Review an einen Remote-Agent abgeben, ihn ein strukturiertes Review mit Zeilen-Kommentaren produzieren lassen, wenige Minuten später das Resultat in deinem Slack haben. Die Integrations-Story (GitHub-PRs + Slack-Reporting) landet den Output exakt dort, wo du ihn konsumieren würdest.
Wo Claude Code mithält: @ishanxtwt auf X hatte einen detaillierten 100h-vs-20h-Breakdown von Codex vs Claude Code (lesenswert, falls noch nicht gelesen). Claude Codes Stärke bei PR-Reviews ist die Tiefe des Single-Pass-Reviews: er fängt Dinge, die Vibes schnellerer Pass übersieht. Kosten: ein Senior-Engineer-Wert an Aufmerksamkeit, während es läuft.
Wo Codex zurückfällt: Codex Cloud ist async wie Vibe, aber das Review-Output-Format ist weniger Slack-strukturiert und mehr GitHub-Comment-strukturiert. Wenn dein Team Reviews in Slack konsumiert, passt Vibes Reporting besser.
Wahl: Vibe für Routine-PR-Reviews. Claude Code für die hochstoßartigen Architektur-Reviews, bei denen Tiefe zählt.
Was das für dich bedeutet
Wenn du Solo-Entwickler oder 2-Personen-Startup bist: Die Mathematik ist meist Kosten. Vibes 1,50 USD / 7,50 USD vs. Sonnets 3 / 15 USD ist echtes Geld bei 50M Tokens/Monat. Wenn deine Arbeit hauptsächlich Aufgaben 1, 2 und 4 ist, spart der Wechsel ~50 % der API-Ausgaben mit einem Benchmark-gleichauf-Modell. Bleib nur auf Claude Code, wenn Aufgabe 3 (flaky-Test / Interactive-Debugging) deinen Workflow dominiert.
Wenn du in einem 10-50-Personen-Team bist: Hör auf, Single-Tool zu denken. Die meisten Teams werden bei Claude Code für individuelle interaktive Arbeit + Vibe Remote Agents für Async-PR-Reviews und Routine-Integrations-Tasks + Codex Cloud für die gut definierten “Feature-shippen”-Jobs landen. Die Tools sind genug differenziert, dass eines auszuwählen heißt, sinnvolle Produktivität auf dem Tisch zu lassen.
Wenn du DACH-Mittelständler mit Souveränitäts-Anforderung bist: Mistral ist die erste konkrete Antwort. EU-Hosting, EU-rechtliche Lage, Open-Weights bei Bedarf selbst-hostbar, EU-AI-Act-konform. Aleph Alpha + Schwarz-Gruppe haben den deutschen Equivalent für Foundation-Modelle besetzt; Vibe gibt dir den Coding-Agent-Layer obendrauf. Für regulierte Branchen (KRITIS-Versorger, Banken im NIS-2-Scope, GKV) ist das die erste Coding-Agent-Story, die deinen ISMS-Auditor nicht zuckend zurücklässt.
Wenn du CTO bist und auf die nächsten 18 Monate schaust: Das am meisten unterschätzte Element dieses Launches ist Mistrals Open-Weights-Story. Du kannst Medium 3.5 auf vier GPUs selbst-hosten. Wenn deine Sicherheits-Architektur US-gehostete-only-Modelle ausschließt, funktioniert Vibes CLI mit selbst-gehostetem Medium 3.5 genauso wie mit der Hosted-API. Das ist eine Deployment-Story, die weder Anthropic noch OpenAI bietet — und die in der DACH-Privatwirtschaft mit DSGVO-Sensibilität unmittelbar wertvoll wird.
Wenn du ein Tool für einen spezifischen Use-Case evaluierst: Match den Use-Case zur Tabelle oben. Wähl nicht nach Benchmarks. Wähl nicht nach Launch-Hype.
Was dieser Vergleich noch nicht sagen kann
Fünf ehrliche Grenzen einer Tag-3-Lesart:
Es existieren noch keine Real-User-Pipeline-Kostenmathematik. Ich habe diese Woche keinen einzigen “Ich habe meinen Workload auf Vibe gefahren und X% gespart”-Post auf X gefunden. Die 1,50/7,50 vs. 3/15-Mathematik ist theoretisch, bis jemand sie auf Production-Scale-Tokens fährt. Erwarte Kosten-Vergleichs-Posts in zwei Wochen, sobald Early-Adopter eine Abrechnungsperiode hinter sich haben.
Das “lokale CLI in die Cloud teleportieren”-Feature ist außerhalb von Mistrals Promo-Videos unverifiziert. Mistrals @mistralvibe-Account hat eine Demo gepostet. Null unabhängige Entwickler-Screenshots oder -Videos vom funktionierenden Teleport. Mit angemessener Optimismus zu behandeln, aber nicht mit Sicherheit.
Custom-MCP-Konnektoren haben frühe Reibung. @KhazAkar (CEO von @htmx_org) auf X (1. Mai): liebt Mistral Vibe, aber “Issue beim Hinzufügen eines Custom-Connectors — forgejo-mcp (ich hoste Code auf Codeberg, das AI-Scraper blockt) — in AI Studio. Auth-Methode lässt sich nicht wählen, Create-Button ist ausgegraut.” Wenn du auf einer selbst-gehosteten Git-Forge oder einem Non-Standard-MCP-Server bist, plan, ein paar Wochen zu warten, bis sich die rauen Kanten setzen.
Terminal-Bench-Zahlen für Vibe sind nicht veröffentlicht. Mistral hat SWE-Bench (77,6 %) veröffentlicht, aber nicht Terminal-Bench. Für Agent-Workflows ist Terminal-Bench der relevantere Benchmark. Bis diese Zahlen shippen, ist Codex’ Terminal-Bench-Vorsprung eine echte und unaddressierte Lücke.
Tag-3 ist zu früh für Production-Vertrauen. Drei Tage nach dem Launch sind genug, um auf Side-Projects zu testen, nicht genug, um das Primary-Tool deines Teams zu wechseln. Der Plan, der zu den Daten passt: Vibe bekommt ein Side-Project-Trial diese Woche, einen einzelnen nicht-kritischen Workflow nächste Woche, und eine echte Adoption-Entscheidung in der zweiten Juni-Woche nach mindestens vier Wochen Pipeline-Daten.
Das Fazit
Wenn du ein Tool wählst, ist Claude Code immer noch die sicherste Wahl für Solo-Entwickler im Interactive-Flow, und Codex die sicherste Wahl für Teams im Async-/wohldefiniert-Feature-Modus. Vibe Remote Agents ist der glaubwürdigste neue Eintritt 2026 und der richtige Zusatz zu deinem Toolkit, wenn du Async-PR-Reviews, EU-Souveränitäts-Constraints oder eine Bias zu Open Weights hast.
Das Framing, das diese Woche von europäischen Devs auf X landete, ist die ehrlichste Lesart: nicht “Mistral hat gewonnen” — “endlich gibt es eine echte dritte Option.”
Für Team-Upskilling auf der Agentic-Coding-Landschaft durchgängig deckt unser Claude Code Mastery Kurs den Interactive-Flow, unser AI Agents Deep Dive Kurs die Async-PR + Remote-Agent-Patterns, und unser Agentic AI Kurs die Architektur-Entscheidungen, die zählen, wenn du zwischen drei Tools statt einem wählst.
Querverlinkung: für die neue “Project Purge”-Funktion und PID-Namespace-Subprocess-Sandboxing siehe unseren Claude Code 2.1.126 Update-Walkthrough und für die IT-Käufer-Seite der breiteren Multi-Modell-Verschiebung unsere Microsoft Agent 365 4-Modell-Analyse.
Quellen
- Remote agents in Vibe — Mistral AI, 29. April 2026
- Mistral AI unveils Medium 3.5 model — TestingCatalog, 29. April 2026
- IT-Finanzmagazin — Agentic Coding & Coding-Agenten
- Bitkom — KI-Regulierung und KI-Bremse-Warnung
- Aleph Alpha / Schwarz Gruppe — souveräne KI im STACKIT
- Coding Agents Comparison — Artificial Analysis