Ein Einstieg in die KI-Softwareentwicklung: Begriffe, Tools und Potenziale im Überblick

Die Arbeit im Code verändert sich aktuell grundlegend: Wir programmieren nicht mehr nur mit Werkzeugen, sondern zunehmend mit intelligenten Systemen, die uns bei Analyse, Umsetzung und Automatisierung unterstützen.

Wir verstehen KI-Systeme dabei vor allem als Verstärker: Sie erhöhen das Tempo und die Hebelwirkung, aber der Unterschied zwischen guter und schlechter Software entscheidet sich weiterhin durch Architektur, Sorgfalt und Verantwortung.

KI macht starke Teams produktiver – sie ersetzt sie aber nicht.

Für uns als Agentur heißt das, neue Möglichkeiten offen, aber kritisch zu prüfen und dort in unsere Workflows zu integrieren, wo sie echten Mehrwert schaffen, ohne Kompromisse bei Qualität, Wartbarkeit und handwerklichem Anspruch.

Dieser Beitrag ist der Einstieg in eine Blogreihe zum Thema „KI in der Softwareentwicklung“. Wir klären wichtige Begriffe und werfen einen Blick auf Tools, die wir getestet haben.

Das neue Vokabular: Was hinter den Buzzwords steckt

Damit wir vom Gleichen sprechen, hier ein kurzes Glossar der wichtigsten Begriffe:

  • LLM (Large Language Model): Das „Gehirn“ hinter der KI (wie GPT, Claude oder Gemini). Es wurde mit gigantischen Mengen an Texten und Programmcode trainiert, um die Strukturen von Sprache und Logik tiefgreifend zu verinnerlichen.

    Was es eigentlich macht: Anstatt “echtes Wissen“ zu besitzen, berechnet das Modell bei jeder Antwort die statistische Wahrscheinlichkeit, welches Wort oder welcher Code-Baustein als Nächstes am sinnvollsten erscheint. Das kann erstaunlich leistungsfähig sein, bleibt aber fehleranfällig.

  • KI-Agent: Ein KI-System, das selbstständig daran arbeitet, ein Ziel zu erreichen (z. B. Analyse, Planung und Durchführung). Technisch gesehen ist es eine Loop-Struktur: Der Agent entscheidet selbst, welche Werkzeuge er wann nutzt, bis die Aufgabe erledigt ist. Der Mensch gibt nur noch das Ziel vor und prüft das Ergebnis.

  • Coding Agent: Ein Spezialist für Programmierung. Er arbeitet meist direkt in der IDE (das steht für Integrated Development Environment) und ist unsere „digitale Werkbank“, in der wir Code schreiben, testen und verwalten. Ein Coding Agent baut ein „mentales Modell“ des Projekts auf und kann eigenständig Dateien anpassen.

  • Subagent: Ein kleinerer, hochspezialisierter Agent, der vom Hauptagenten für gezielte Teilaufgaben gerufen wird (z. B. eine spezifische API-Recherche). Er erhält genau den Kontext und die Werkzeuge, die er für seine Spezialisierung benötigt, was ihn bei seiner Teilaufgabe deutlich effizienter und präziser macht als einen „Allrounder“.

  • Skill: Eine klar definierte, spezialisierte Fähigkeit oder „Werkzeug-Kiste“, die einem KI-System zur Verfügung gestellt wird. Anstatt das gesamte Wissen und alle Möglichkeiten permanent im Arbeitsspeicher zu halten, kann der Agent situativ auf den passenden Skill zugreifen (z. B. „Web-Recherche“, „Datenbank-Abfrage“ oder „Formatierung nach internem Standard“), um eine Aufgabe effizient und konsistent zu lösen.

  • Self-Healing: Eine Schleife, in der die KI-Fehler im Code oder in Tests selbstständig erkennt, analysiert und durch Ausprobieren behebt, ohne dass ein Mensch eingreifen muss.

  • Token: Die „Währung“ der KI. Da Modelle keine Wörter im menschlichen Sinne verstehen, zerlegen sie Texte in kleine Zahlenfolgen – die Tokens. Abgerechnet wird nach dem Volumen der Ein- und Ausgabe. Jede Anfrage an die KI und jede Antwort, die sie generiert, verbraucht Tokens.

    Das ist wie damals beim ersten MP3-Player: Am Anfang konnte man sich unter „128 MB Speicherplatz“ nichts vorstellen, aber irgendwann wusste man, dass das für etwa 30 Songs reicht. Genauso bekommt man mit der Zeit ein Gefühl dafür, dass eine kurze Code-Analyse nur wenige Tokens kostet, während das Einlesen einer kompletten Dokumentation das „Konto“ schneller leert.

  • Context Window (Kontextfenster): Stell dir das wie das „Kurzzeitgedächtnis“ der KI vor. Es definiert, wie viel Code oder Dokumentation die KI gleichzeitig „im Kopf“ behalten kann. Ist das Fenster voll, beginnt die KI ältere Informationen zu vergessen, was bei großen Projekten zu Widersprüchen führen kann. Moderne Tools füttern dieses Fenster daher gezielt mit den relevantesten Code-Schnipseln.

  • Halluzinationen: Da KI-Modelle auf Wahrscheinlichkeiten basieren und keine echten Fakten „wissen“, erfinden sie manchmal Informationen, wenn sie eine Lücke füllen wollen.

    Beispiel aus der Praxis: Die KI schlägt mit voller Überzeugung eine Library oder eine API-Methode vor, die gar nicht existiert, aber absolut plausibel klingt. Ohne menschliche Kontrolle (Expertise!) landet so „Code-Müll“ im Projekt.

  • Prompt Engineering vs. Agent Orchestration: Früher war die Kunst, der KI den perfekten Befehl zu geben (Prompting). Heute verschiebt sich die Arbeit hin zur Orchestrierung: Wir bauen Umgebungen, in denen Agenten Zugriff auf die richtigen Tools haben und managen deren Verhalten.

  • Vibe Coding: Ein moderner Entwicklungsstil, bei dem man der KI keine kleinteiligen technischen Anweisungen mehr gibt, sondern eher die gewünschte Ästhetik, das Verhalten oder das allgemeine „Gefühl“ (den Vibe) einer Anwendung beschreibt. Dank leistungsstarker Modelle reicht diese vage Vision oft aus, um komplexen Code zu generieren. Dadurch agieren Entwickler*innen mehr als Kurator*innen weniger als Schreibende, die das Ergebnis prüfen und feinschleifen.

    Einordnung: Ideal für schnelles Prototyping und kreative Experimente. Im produktiven Einsatz ist jedoch Vorsicht geboten: Die Abstraktion erhöht das Risiko für versteckte Bugs und ein trügerisches Scheinverständnis, besonders bei sicherheitskritischen Anwendungen.

  • KI-nativ (AI-native): Ein Begriff für Software oder Arbeitsweisen, die von Grund auf für die Zusammenarbeit mit KI entwickelt wurden. Während herkömmliche Tools KI nur als „Aufsatz“ nutzen, sitzt sie bei KI-nativen Systemen direkt im Kern. Das macht sie deutlich schneller und intelligenter im Umgang mit komplexen Projekten.

Das Werkzeug-Update: Unsere Auswahl aktueller KI-Tools

Der Markt für KI-Tools ist extrem dynamisch. Was heute State-of-the-Art ist, kann morgen schon durch ein neues Modell und andere Methoden überholt sein. Hier ist unsere aktuelle Tool-Auswahl:

Chat-Anwendungen

Stehen für sich und können über den Browser oder mobile Apps genutzt werden, indem man mit der KI in Austausch tritt.

  • ChatGPT von OpenAI

  • Claude von Anthropic

In-IDE-Integrationen

Diese Erweiterungen leben direkt in unseren gewohnten Programmierumgebungen.

  • AI Assistent von JetBrains: Unterstützt z.B. in Echtzeit beim Tippen einzelner Funktionen oder Zeilen, Generierung von Code und Code-Dokumentation und Refactoring-Vorschlägen.
    Zudem gibt es einen KI-Chat, in dem verschiedene Modelle wie Codex oder Claude ausgewählt werden können. In temporären Chat-Sessions können spezifische Fragen zum Projekt gestellt und Strategien im Dialog entwickelt werden.

  • Claude Code von Anthropic: Mit Memory‑/Knowledge‑Base‑Mustern kann Claude Code Projektentscheidungen, Historie und Architekturkonzept dauerhaft berücksichtigen und sich wie ein “echter, langfristiger” Teamkollege verhalten und dazulernen.

    Vorteile: Möglichkeit zur Nutzung von Subagents (Teilaufgaben mit extra Context-Window) und von Skills, um Arbeitsschritte/Abläufe zu dokumentieren und immer wieder nutzen zu können. Ebenso möglich ist die Einbindung von Plugins, um den Code-Agenten zu erweitern.

  • Codex von OpenAI: In der aktuellen Version spezialisiert auf proaktives Arbeiten und hocheffiziente Logik-Prüfung. Das bedeutet, das Modell schreibt nicht nur isolierte Zeilen, sondern führt komplexe Arbeitszyklen (Planung → Umsetzung → Testen) eigenständig aus und korrigiert sich bei Fehlern selbst, bevor es das Ergebnis präsentiert.

    Wie wir es nutzen: Inkludiert in JetBrains AI Assistent.

Wer sich fragt, warum wir ChatGPT UND Claude nutzen: Man kann intern Codex und Claude kombinieren, um damit die jeweiligen Ergebnisse gegenseitig kritisch zu hinterfragen und ggf. zu verbessern.

Potenziale: Warum wir die KI im Team begrüßen

KI ist für uns kein Ersatz für Entwickler*innen, sondern ein mächtiger Sparringspartner:

  1. Fokus auf das Wesentliche: Unliebsame Routineaufgaben (Boilerplate-Code, einfache Migrationen) wandern zur KI. Das schafft Zeit für Architektur, komplexe Business-Logik und ausführliche Tests.

  2. Der interne Wissensschatz: Besonders bei eigenen Frameworks (wie unserem myty) hilft KI bei der Einarbeitung. Neue Teammitglieder können die KI fragen: „Wie wird bei uns dieses oder jenes umgesetzt?“, statt jedes Mal die Senior-Devs aus dem Flow zu reißen.

  3. Präzision ohne Ermüdung: KI ermüdet nicht bei repetitiven Aufgaben, muss aber trotzdem überprüft werden, weil sie Fehler nicht aus Müdigkeit, sondern wegen fehlender Erfahrung und aus falschen Annahmen oder unpassendem Kontext macht.

    Ein Vergleich aus der Medizin: In der Radiologie werden KI-Systeme genutzt, um MRT-Bilder auf kleinste Marker zu scannen. Wo ein menschliches Auge nach hunderten Bildern fehleranfällig wird, bleibt die Maschine bei Bild Nummer 1.000 so präzise wie beim ersten. Genau diese „digitale Ausdauer“ nutzen wir, um die Fehlerquote in unseren Projekten zu minimieren.

  4. Hürden abbauen: Die KI nimmt es einem nicht übel, wenn man dieselbe Frage fünfmal stellt. Das „auf dem Schlauch stehen“ verliert seinen Schrecken, da man ohne soziale Hemmschwelle („Sich die Blöße geben“) sofort eine Lösung suchen kann.

  5. Qualität statt nur Speed: Es geht nicht nur darum, schneller fertig zu werden, sondern die gewonnene Zeit in die Robustheit und Dokumentation der Software zu investieren.

Bedenken: Ein gesunder Realismus

Trotz aller Euphorie gibt es Punkte, die wir kritisch betrachten:

  • Die Kontrollinstanz Mensch: Zu glauben, man könne Mitarbeitende durch KI ersetzen, ist eine gefährliche Überschätzung. Wer keine eigene Expertise hat, kann die Ergebnisse der KI nicht validieren. Software ist am Ende viel mehr als das, was man im Frontend sieht – es geht um Architektur, Sicherheit und Wartbarkeit.

    Der „Dr. KI“-Effekt: Um bei unserem Beispiel der Radiologie zu bleiben: Die KI findet im MRT zuverlässig jede winzige Stelle, die den Markern entspricht. Aber erst die Ärztin oder der Arzt bewertet am Ende, ob dieser Befund medizinisch relevant ist und welche Behandlung daraus folgt. In der Softwareentwicklung ist es identisch: Die KI liefert die Bausteine, aber unsere Experten entscheiden, ob sie in das Gesamtgefüge passen und wie sie nachhaltig implementiert werden.

  • Abhängigkeit & Übungsverlust: Durch das Abgeben von Denkaufgaben besteht die Gefahr, dass man weniger Übung im Mitdenken hat und sich zu sehr auf die KI verlässt. Wir dürfen unser breit gefächertes Wissen nicht versanden lassen und zu „Bugfixern für die KI“ werden.

  • Datenschutz & Sicherheit: Wo landen unsere Daten? Werden unsere Daten zum Training genutzt? Stichwort Local LLMs vs. Cloud-Lösungen: Hier stellt sich die Frage der Datenhoheit. Während Cloud-Modelle (Claude/GPT) sehr leistungsfähig sind, bieten lokale Modelle (wie Llama auf eigener Hardware) mehr Sicherheit für sensiblen Quellcode, erfordern aber eigene Ressourcen und Sicherheitsvorkehrungen.

  • Soziale Dynamik: Wenn der Austausch mit dem Team durch den Chat mit der KI ersetzt wird, leidet eventuell der Zusammenhalt. Andererseits: Vielleicht wird der Teamspirit sogar besser, wenn man sich nicht mehr gegenseitig mit „nervigen Standard-Bugs“ belästigen muss?

  • Die Kosten im Blick behalten: Denn KI ist nicht „umsonst“. Wie wir selbst im Agenturalltag merken, summieren sich Token-Gebühren und Abonnements schnell. Ohne ein kluges Monitoring der Ausgaben kann es hier ein „böses Erwachen“ geben.

    Unser Vorgehen: Wir buchen ein Paket und testen iterativ aus, ob es für den Arbeitsalltag reicht. Zudem versuchen wir durch verschiedene Arbeitsweisen und Funktionen den Token-Verbrauch niedrig zu halten, zum Beispiel durch die Zerlegung von Aufgaben in kleine Teilaufgaben und die Einbeziehung von Subagents, Skills sowie neuen Sessions, damit das Kontextfenster nicht zu groß wird.

Die heutigen KI-Systeme greifen auf Muster, Praktiken und Konventionen zurück, die aus jahrzehntelanger Entwicklungsarbeit entstanden sind. Umso wichtiger ist es, diese Expertise nicht geringzuschätzen, sondern bewusst einzubringen. Gerade jetzt braucht es Architekturverständnis, um KI-Systeme sinnvoll zu steuern und ihre Ergebnisse fachlich einzuordnen.

Fazit: Wie sich unsere Arbeitsweise verändert

Die Herangehensweise an unsere täglichen Aufgaben hat sich schon jetzt stark verändert. Wir lassen uns Code-Blöcke und Dokumentationen in Sekundenschnelle generieren und nutzen die KI als flexiblen Sparringspartner.

Dabei können wir sogar steuern, wie sie mit uns kommuniziert, ob als geduldiger Mentor oder als zynischer Kollege, der uns die harte Wahrheit über unseren Code direkt ins Gesicht sagt.

Wir stehen erst am Anfang einer Entwicklung, deren volles Potenzial wir heute noch gar nicht absehen können. Was wir aber schon umgesetzt haben bzw. für die Zukunft planen:

  • KI-gestütztes Anforderungsmanagement

  • Claude Code Einführung für das gesamte Team mit Fokus auf Sicherheit

  • Figma Make/Figma MCP Integration, um Designumsetzung besser zu validieren

  • gemeinsames Repo für Skills und Subagenten

  • regelmäßiger Austausch über Neuerungen, Prozessoptimierungen und Best Practices im Umgang

  • steigende Testabdeckung durch neue KI-gestützte Test-First Infrastruktur

  • optimierte Code-Dokumentation

  • ein erstes KI-Agenten-Projekt in der Entwicklung

  • Refactoring großer Software-Pakete (CFM)

Ein Bereich, in dem diese neuen Möglichkeiten – besonders das „Self-Healing“ – ihre volle Stärke ausspielen, ist die Qualitätssicherung. Wie das in der Praxis aussieht, erfahrt ihr in unserem nächsten Blogbeitrag zum Thema „Testautomatisierung mit KI“.

Mehr zum Thema Kosten für KI:

Wir lieben die Herausforderung und sind auf Ihre gespannt!

Wenn gängige Standardsoftware nicht passt, schneidern wir Software nach Maß, die genau das kann, was Sie benötigen.

Kontakt aufnehmen