In den letzten Jahren haben wir KI-unterstütztes Programmieren erforscht, mit intelligenteren Testing-Tools experimentiert, Modelle an ihre Grenzen gebracht und unseren Workflow verfeinert.
Das Ziel war immer klar: Den Sweet Spot finden, wo KI nicht einfach nur Code für uns schreibt, sondern mit uns zusammenarbeitet, um bessere Ergebnisse schneller zu liefern. Das Resultat? Wir haben unsere Programmierzeit um 30 % verkürzt und können uns mehr auf Kreativität und Problemlösung konzentrieren.
In dieser Phase haben wir viel darüber gelernt, was funktioniert, was nicht, und wie man das Beste aus KI herausholt, ohne in die üblichen Fallen zu tappen. Werfen wir einen Blick auf die Tools, auf die wir setzen.
Die Tools, die unseren Workflow antreiben
Bei KI-Modellen ist Claude 4 Sonnet unser Go-to geworden. Es liefert stabile, hochwertige Ergebnisse, ohne das Budget zu sprengen. Während die KI-Community oft Claude 4 Opus als die beste Wahl bezeichnet, reservieren wir es nur für die komplexesten und herausforderndsten Projekte wegen des höheren Preises.
Was unsere Coding-Umgebung angeht, setzen wir auf den Cursor Editor. Dies war eine ausgezeichnete Investition, obwohl uns die jüngsten Preisänderungen dazu bringen, einen Backup-Plan im Hinterkopf zu behalten: Claude Code im Terminal gepaart mit einem Visual Studio Code Plugin.
Unsere Prinzipien für KI-unterstütztes Programmieren
Wir haben herausgefunden, dass Erfolg beim KI-Coding davon abhängt, wie wir es in unsere Arbeit integrieren. Das sind die Prinzipien, denen wir folgen:
- Der Zusammenhang entscheidet. Wir teilen detaillierte Task-Beschreibungen, unser Reasoning und unseren geplanten Ansatz, bevor die KI eine einzige Zeile Code schreibt.
- Mit kleinen Schritten voran. Wir vermeiden einen riesigen All-in-One-Prompt. Stattdessen lassen wir die KI einen Schritt-für-Schritt-Plan mit den kleinstmöglichen Tasks erstellen.
- Testen während der Umsetzung. Nach jedem Schritt überprüfen wir die Funktionalität via automatisierte Tests, Console Logs oder Error Logs, bevor wir weitermachen.
- Review vor Ausführung. Wir lassen die KI nie mit der Ausführung starten, bevor wir den Plan verfeinert und abgesegnet haben.
Wie wir mit KI debuggen
Wenn die KI Probleme hat oder sich in einer Endlosschleife mit einer unbrauchbaren Lösung befindet, machen wir Folgendes:
- Zusätzliche Logging-Punkte hinzufügen, um mehr Daten zu erfassen.
- Komplette Error Logs an die KI zurückgeben für besseren Kontext.
- Modelle wechseln – GPT 5 und Gemini 2.5 sind unsere bewährten Alternativen.
Tokens weise nutzen
- Wir vermeiden, die gesamte Codebase in jeden KI-Prompt einzubeziehen, da dies verfügbare Tokens schnell verbraucht, ohne tatsächlichen Mehrwert hinzuzufügen.
- Stattdessen laden wir selektiv nur die spezifischen Files, Module oder Code-Snippets, die direkt für die jeweilige Aufgabe relevant sind.
- Dieser gezielte Ansatz reduziert Token-Verbrauch, verbessert Verarbeitungseffizienz und stellt sicher, dass die KI sich auf die kontextuell wichtigsten Informationen fokussiert.
Manchmal halten wir sogar vollständige Instruktionen zurück, um zu sehen, ob die KI einen kreativen Ansatz vorschlägt, den wir nicht bedacht hatten – und das tut sie oft.
Unser Fazit
Wir sehen KI nicht als Wunderlösung für jede Entwicklungsherausforderung; für uns ist KI ein hochleistungsfähiges Teammitglied: schnell, beständig und unermüdlich, aber am effektivsten, wenn sie mit menschlichem Urteilsvermögen und Expertise gepaart wird.
In unserem Workflow bekommt KI nicht das Steuer in die Hand; stattdessen wird sie mit dem richtigen Kontext, Vorgaben und Richtung ausgestattet, damit sie sinnvoll beitragen kann, ohne das grosse Ganze aus dem Gleichgewicht zu bringen.
So verwendet hilft sie uns, schneller zu arbeiten, saubereren, pflegeleichteren Code zu schreiben und die volle Kontrolle über Architektur und Qualität unserer Arbeit zu behalten.
Diese Perspektive kommt aus Jahren des Ausprobierens, Verfeinerns und Verstehens, wo KI wirklich hilft und wo menschliche Arbeit unersetzlich ist.
Falls du das genaue Prompt-Framework sehen möchtest, das wir nutzen, um diese Balance zu finden, melde dich – wir teilen es gerne.