Google: 75 Prozent des neuen Codes stammen von KI-Systemen

Drei Viertel des neu geschriebenen Codes bei Google stammen bereits von KI-Systemen – ein Datenpunkt, der die Softwarebranche weltweit aufhorchen lässt und die Frage aufwirft, wie sich die Rolle menschlicher Entwickler grundlegend neu definiert.

Google: 75 Prozent des neuen Codes stammen von KI-Systemen

KI als primärer Code-Produzent

Beim Technologiekonzern Google generieren KI-Systeme inzwischen rund drei Viertel des gesamten neu geschriebenen Codes. Menschliche Entwickler übernehmen dabei die Prüfung und Freigabe des maschinell erzeugten Outputs. Die Zahl verdeutlicht, wie grundlegend sich die Arbeitsteilung in der Softwareentwicklung bei einem der größten Technologieunternehmen der Welt bereits verändert hat.

Die Aussage stammt aus Angaben des Unternehmens, die im Rahmen der Google Cloud Next 2026 kommuniziert wurden. Demnach wird der überwiegende Teil neuer Codezeilen nicht mehr von Entwicklern verfasst, sondern von KI-Systemen – primär auf Basis von Googles eigenem Large Language Model Gemini – erzeugt. Die menschliche Rolle verschiebt sich dabei von der Produktion hin zur Qualitätssicherung und zum Review.

Die Frage ist nicht mehr, ob KI in der Softwareentwicklung eingesetzt wird – sondern in welchem Umfang, und welche Governance-Strukturen notwendig sind.

Dieser Prozess ist kein vollständig autonomer Ablauf: Entwickler definieren weiterhin Anforderungen, prüfen den generierten Code auf Korrektheit und Sicherheit und entscheiden über die Integration in bestehende Systeme. Das Verhältnis zwischen menschlicher Kontrolle und maschineller Erzeugung bleibt formal erhalten – die Gewichtung hat sich jedoch deutlich verschoben.


Beschleunigung eines bereits laufenden Trends

Noch vor zwei Jahren hatte Google-CEO Sundar Pichai öffentlich kommuniziert, dass KI-Tools intern bereits mehr als 25 Prozent des Codes erzeugten. Die nun kommunizierte 75-Prozent-Marke zeigt, wie schnell sich dieser Anteil in kurzer Zeit nahezu verdreifacht hat.

Ähnliche Entwicklungen berichten auch andere große Technologieunternehmen:

  • Microsoft hat vergleichbare Zahlen für GitHub Copilot-gestützte Projekte veröffentlicht
  • Meta-Chef Mark Zuckerberg sprach jüngst davon, dass KI mittelfristig die Arbeit mittlerer Software-Engineering-Teams übernehmen könnte

„Noch 2023 galten KI-Coding-Assistenten primär als Hilfsmittel zur Autovervollständigung. Heute sprechen führende Unternehmen von vollständig KI-generierten Modulen und Funktionen.”

Die Geschwindigkeit dieser Entwicklung übersteigt die ursprünglichen Prognosen vieler Analysten erheblich.


Auswirkungen auf Entwicklerteams und Qualitätssicherung

Die Verlagerung wirft konkrete organisatorische Fragen auf. Wenn der Großteil des Codes maschinell erzeugt wird, verändern sich die Anforderungsprofile für Entwicklerinnen und Entwickler erheblich. Gefragt sind zunehmend:

  • Prompt Engineering – präzise Steuerung der KI-Ausgabe
  • Code-Review – kritische Bewertung maschinell erzeugter Ergebnisse
  • Systemarchitektur – übergeordnetes Design komplexer Software-Systeme
  • Testing & Qualitätssicherung – strukturierte Validierung von KI-Output

Gleichzeitig entstehen neue Risiken: KI-generierter Code kann Fehler, Sicherheitslücken oder lizenzrechtlich problematische Passagen enthalten, die bei unzureichender Prüfung in Produktivsysteme gelangen. Googles Modell setzt darauf, dass menschliche Entwickler diese Kontrollfunktion zuverlässig übernehmen – ein Anspruch, der bei weiter steigendem KI-Anteil unter erheblichen Druck geraten könnte.


Einordnung für deutsche Unternehmen

Für deutsche Software-Unternehmen und IT-Abteilungen markiert Googles Zahl einen strategischen Referenzpunkt. Wer KI-gestützte Entwicklungswerkzeuge bislang als ergänzendes Hilfsmittel betrachtet, sollte interne Prozesse und Rollenprofile neu bewerten.

Besonders in regulierten Branchen wie Finanzdienstleistungen oder dem Gesundheitswesen dürfte die Prüfpflicht für KI-generierten Code zu einem eigenständigen Compliance-Thema werden – mit konkreten Anforderungen an Dokumentation, Nachvollziehbarkeit und Haftung.

Die eigentliche strategische Frage lautet nicht mehr: „Setzen wir KI in der Entwicklung ein?” – sondern: „Welche Governance-Strukturen brauchen wir, um Qualität und Compliance bei maschinell generiertem Code dauerhaft sicherzustellen?”


Quelle: The Decoder

Scroll to Top