AGI steht für Artificial General Intelligence. Seit längerem dreht sich die Debatte darum, wann AGI eintritt. Neuere Schätzungen reichen von 1 Jahr über 5 Jahre bis zu 30 Jahre. Ich behaupte jetzt, AGI wurde für Software Entwicklung bereits im Herbst 2025 erreicht.
Inhaltsverzeichnis
KI-Experten debattieren nicht mehr darüber, ob künstliche Intelligenz jemals menschliches Niveau erreichen wird, sondern wann.
KI ist ja schon seit Jahren stärker im Schachspielen als die besten Schachspieler der Welt.
Inzwischen kann sie auch Texte zusammenfassen und Bilder generieren wie die besten Texter und Grafiker. Und Brustkrebs diagnostiziert KI inzwischen zuverlässiger als Radiologen.
In einzelnen Disziplinen ist KI dem Menschen also bereits ebenbürtig oder überlegen. Aber noch nicht gesamthaft in allen Gebieten. Das wäre dann eben Artificial General Intelligence AGI.
Ich halte die Betrachtung für irrelevant: Ob KI in allen Disziplinen gleichzeitig oder nur in einzelnen Bereichen überlegen ist, spielt keine Rolle. Es ist ein Problem.
Wer einer Arbeit nachgeht, die auch von KI beherrscht wird, steht vor einer grossen Herausforderung. Die meisten Tastaturarbeiten sind stark exponiert gegenüber künstlicher Intelligenz.
Überraschenderweise sind komplexe Arbeiten wie z.B. Software-Programmierung am stärksten betroffen.
Denn aus meiner eigenen Erfahrung (siehe meine Konversationen mit KI-Programmierassistenten) sehe ich im Herbst 2025 AGI erreicht im Bereich der Programmierung.
Intensive Nutzung von KI durch Programmierer
Die Studie Measuring AI’s Impact on Developer Productivity über die Nutzung von KI durch Programmierer fördert Interessantes zutage:
- 32% Reduktion des Zeitaufwand, um Code-Vorschläge zu prüfen (Pull-Requests Review)
- 61% mehr Code ausgeliefert (Das ist eine Menge Holz!)
- 44% Produktivitätssteigerung bei Senior Entwicklern
Auch die Akzeptanzkurve ist interessant:
- Nach einem Monat: 4% Engagement. Die Entwickler fragen sich «Ist das die neueste Spyware der IT-Abteilung?»
- Nach 6 Monaten ist mit 83% die höchste Nutzung erreicht: «Ohne meinen KI-Co-Piloten programmiere ich nicht mehr».
- Langfristige Stabilisierung bei 60% aktivem Engagement.
Gegen 40% des ausgelieferten Codes wurde KI-gestützt erstellt. Das gesamte Code-Volumen stieg um fast ein Drittel!
Weitere Hinweise für den Level von KI-generierter Software:
KI-Tools für Programmierung - auf AGI Level
Dass grosse Sprachmodelle (Large Language Models LLM) u.a. auch Programmiersprachen gut beherrschen, ist schon länger bekannt.
Sie können angefangene Programmierzeilen automatisch vervollständigen und die Code-Funktion automatisch kommentieren.
Das war an sich bereits sehr beeindruckend.

Seit Herbst 2025 ist es aber gar nicht mehr nötig, sich mit dem Programmiercode auseinanderzusetzen: KI-Tools wie Claude Code von Anthropic oder Codex von OpenAI verstehen inzwischen die in Prosa ausformulierten Programmieranforderungen (Product Requirements Document PRD) so gut, dass sie daraus selbständig funktionierenden Code generieren.
Sie formulieren übrigens auch das PRD selber, falls man sich diesen Schritt auch noch schenken will.
Als Auftraggeber kann man sich auf die Abnahmetests konzentrieren. Fällt eine Lösung nicht wunschgemäss aus, bestellt man in Prosa die nötigen Änderungen.
Persönlich arbeitete ich bis im Sommer 2025 mit Claude Code (Sonnet 4.1). Gefühlt nahm die Software-Qualität gemessen an der Funktionstreue auf Wochenbasis zu.
Opus 4.1, das leistungsfähigste, aber auch teuerste Modell von Anthropic, wollte ich demnächst testen.
Dann lancierte Open AI ihren Programmierassistenten Codex auf Basis von GPT-5. Der wirkt zwar behäbiger als Claude Code, er versteht aber die Anforderungen (Requirements) besser als Claude Code und kann auch (noch) besser programmieren.
Und nun publizierte Anthropic am 29. September 2025 Claude Code auf Basis von Sonnet 4.5. Das soll nochmal besser sein.
Googles Gemini 2.5 Pro hat noch Aufholbedarf.

Und dann gäbe es da noch die chinesischen Open-Source Modelle wie GLM 4.5 von Zhipu AI.
Wo Programmierassistenten Software-Prozesse nicht beherrschen
Die Programmierung von Anforderungen ist nur ein Teil der Software-Entwicklung. Mindestens so wichtig ist das Zusammentragen und die Formulierung der Anforderungen (Requirements Engineering).
Requirements-Engineers befassen sich damit, Business-Anforderungen zu verstehen und dann so zu übersetzen und zu strukturieren, dass sie für Programmierer verständlich werden (PRDs, Backlogs, Epics, User-Stories, etc.).
Die Arbeit von Requirements-Engineers sehe nicht bedroht, wenn es darum geht, Anforderungen von nicht-technischen Business-Ownern entgegenzunehmen. Hier ist typischerweise sehr viel händische «Übersetzungsarbeit» nötig: «Was wollt ihr genau?», «Das ist technisch machbar zu diesem Budget.», etc.
Warum ich Programmierassistenten auf AGI-Level sehe
Heute ist es möglich, Software-Anforderungen in Prosa zu formulieren und diese von Claude Code oder Codex in ein Product Requirements Document übersetzen zu lassen.
Hat man dieses gegengelesen, beginnt bereits die Programmierung.
Moderne Programmierassistenten entwickeln nicht einfach drauflos, sondern schreiben sich selber Testfälle, gegen die sie Software entwickeln. Um sicher zu gehen, kann man auch Scaffolding bestellen.
In einem Multi-Agenten Setup leitet ein koordinierender Software-Agent weitere Subagenten an bis fertiger Code getestet wurde und bereit ist für den Einsatz. Inklusive Security-Tests gegen missbräuchlichen Einsatz der Software.
Oder in Kurzform im Chatfenster eines KI-Tools:
- Erstelle ein PRD für die Aufgabenstellung XY («PRD» ist für KI ein bekannter Begriff)
- (Das Tool generiert ein Product Requirements Dokument im für Nicht-Programmier lesbaren Markup-Format. Dieses sollte man gegenlesen und bei Bedarf korrigieren oder ergänzen)
- Programmiere anhand des PRD die Lösung
- (Je nach Komplexität programmieren KI-Tools minuten- bis tagelang)
Ich programmiere auf diese Weise
- WordPress-Plugins
- Adobe Lightroom Plugins
- Schnittstellenzugriffe (API) z.B. auf Datenbanken
- API-Zugriffe auf LLMs wie GPT Vision zur Bildanalyse
- Automatisierte Publikation auf Social Media Kanälen wie Instagram oder LinkedIn
Via GitHub Actions oder Google Cloud Run lässt mich KI einzelne Arbeitsschritte zu ganzen Arbeitsabläufen zusammenkoppeln.
The Sky is the Limit. Dank KI auf AGI Niveau.
Workflow Automation ist für den Einstieg auch mit No-Code Tools wie Zapier, Make.com oder n8n möglich.
Mit No-Code stiess ich aber schnell auf Hindernisse. Mit Pro-Code von Programmierassistenten bin ich flexibler, schneller, und meine Lösungen sind besser wartbar als mit No-Code.
Warum ist das Monitoring von AGI wichtig?
Für angestellte Knowledge Worker ist es zentral, die Entwicklungen rund um KI zu verfolgen: Viele Jobs, die heute per Tastatur erledigt werden, können morgen von KI erledigt werden. Teilweise ist das bereits heute möglich.
Als Mitarbeiter muss man sich deshalb fragen, wie man sich für Arbeitgeber weiterhin nützlich macht. Denn mit Tastaturarbeit wird es zunehmend schwieriger, das kann KI besser, schneller und günstiger.
Als Unternehmer muss man sich fragen, ob die eigenen Dienstleistungen von Konkurrenten bedroht sind, die sich durch KI Vorteile verschaffen. Gibt es dank KI neue Geschäftsmodelle, die die bisherigen Prozesse obsolet machen?
Nebenbemerkung: Ja, die meisten Prozesse können neu gedacht oder überhaupt durch KI abgelöst werden.
Hier ein paar Tipps, um im Job nicht durch KI ersetzt zu werden.
Artificial Super Intelligence – ASI
Ein weiterer Aspekt, warum das Erkennen von AGI wichtig ist: Wenn sich KI selbständig zur Superintelligenz weiterentwickelt, tut sie das schneller als von Entwicklern händisch programmiert.
Dann ist die nächste KI Entwicklungsstufe nach AGI die Artificial Super Intelligence ASI. Diese wird viel schneller erreicht als AGI, weil Maschinen schneller «denken» und programmieren als Menschen.
Zwischen AGI und ASI dürften also nur wenige Jahre vergehen.
Meine persönliche Definition von ASI ist:
Artificial Super Intelligence ASI ist erreicht, wenn wir KI nicht mehr unter Kontrolle haben.
Die Kontrolle über KI könnte uns früher entgleiten als gedacht: Bereits heute realisieren KI-Modelle, wenn sie getestet werden und verhalten sich entsprechend «brav».
Hier habe ich persönlich erfahren, wie schlecht es sich anfühlt, wenn KI den Dienst willentlich verweigert.
Nick Bostrom vom Oxford of Humanity Institute sagt es konventioneller:
ASI ist eine Intelligenz, die in praktisch allen Bereichen, einschliesslich wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialer Kompetenzen, viel intelligenter ist als die besten menschlichen Gehirne.
Tim Urban von Wait But Why hat diesen voraussichtlichen Zusammenhang sehr einprägsam visualisiert:


Der Kommentar von Tim Urban hierzu:
Es ist unmöglich zu wissen, was ASI tun wird oder welche Konsequenzen das für die Menschheit haben wird. Wer etwas anderes behauptet, versteht nicht, was Superintelligenz bedeutet.
