Andrej Karpathy, Mitgründer von OpenAI, hat im Februar 2025 einen Begriff losgetreten, der seitdem durch sämtliche Tech-Diskussionen hallt: Vibe Coding. Die Idee dahinter ist so simpel wie verführerisch – einfach den KI-Agenten machen lassen, nicht groß nachfragen, Ergebnis nehmen, weitermachen. Für Prototyping und schnelle Proof-of-Concepts absolut brauchbar. Für ernsthafte Softwareentwicklung aber eine ziemlich riskante Angelegenheit.
„Das Problem ist, dass man ihn zwischen den Zeilen nicht so verstanden hat", sagt Gregor Biswanger. „Er hat ja gesagt: zum Prototyping, für kleine Aufgaben." Was daraus wurde? Ein Buzzword, das für alles und nichts steht – und eine Menge Code-Duplikationen, schlechte Qualität und jede Menge Spott im Netz.
Gregor selbst nutzt Vibe Coding durchaus – aber gezielt: Mehrere MP4-Dateien zusammenführen, ein Bild auf unter 2 MB komprimieren, nebenbei E-Mails beantworten. Den Code hat er bis heute nicht gesehen, die Aufgabe war erledigt. Genau dafür ist Vibe Coding gemacht.
Vise Coding: Der Schraubenschlüssel unter den KI-Workflows
Einen anderen Ansatz verfolgt Vise Coding – geprägt im März 2025 von David Farago aus der Nähe von Karlsruhe. Der Kern: Du akzeptierst keinen Code, den du nicht verstehst. Du gehst in Baby-Steps vor. Du planst sauber. Und du nutzt Hilfsmittel wie testgetriebene Entwicklung und das sogenannte Spec-Driven Development.
Dabei geht es darum, so präzise wie möglich die wichtigsten Informationen über das Projekt festzuhalten: Was soll die Software können? Welche Technologien kommen rein? Wie sieht die Architektur aus? Wer diese Grundlage sauber legt und dann strukturiert vorgeht, bekommt deutlich höher qualitativen Code – weil die KI das Projekt kennt und nicht blind vor sich hin generiert.
Der Haken: Vise Coding ist ein bisschen langsamer als Vibe Coding. Aber das ist der Trade-off, den professionelle Entwickler:innen bewusst eingehen sollten.
Sprachmodell ist kein Wissensmodell
Ein weiterer Punkt, den Gregor besonders betont: Viele verwechseln Sprachmodell mit Wissensmodell – und das ist ein teurer Irrtum. Ein LLM kann formulieren und antworten, hat aber kein zuverlässiges Fachwissen. Die Lösung heißt RAG – Retrieval Augmented Generation. Das bedeutet: externe Informationen aktiv in den Kontext einbeziehen, damit die KI tatsächlich das weiß, was sie wissen muss.
„Instruction-Dateien sind pures Gold", sagt Gregor. Wer GitHub Copilot einsetzt, sollte das Internet aktiv einbeziehen und relevantes Wissen explizit bereitstellen – das passiert leider nicht automatisch, im Gegensatz etwa zu Claude Code.
Die große KI-Dating-Show
Und welches Tool soll man nun nehmen? Gregor hat eine klare Meinung zu GitHub Copilot – vor allem wegen der tiefen Integration in Visual Studio Code und dem plattformübergreifenden Zusammenspiel mit der GitHub-Plattform. Issues per Copilot lösen lassen, Pull Request kommt fünf Minuten später? Das ist für ihn „einfach genial".
Trotzdem sieht er die Branche gerade in einer wilden Orientierungsphase: „Alle sind gerade dabei, den passenden Partner zu finden." Eine Dating-Show, wie er es nennt – und die Entscheidungen, die Unternehmen jetzt treffen, werden die nächsten Jahre prägen. Ähnlich wie 1995, als Java die Branche umgekrempelt hat.
Wer dabei die Kontrolle behalten will, ist mit Vise Coding gut beraten.
Gregor Biswanger spricht auf der DWX 2026 in Mannheim. DWX 2026 | 29. Juni bis 2. Juli 2026 | Mannheim https://www.developer-world.de/dwx