KI-Logbuch
Inspiration, Entdeckungen, Anwendungen
What’s Next? Die Welt nach AGI: Eine Vision für die „Post-AGI“ Gesellschaft
Created on 2025-09-28 17:56
Published on 2025-10-01 05:00
Liebe Neugierige, Kreative, Entdecker*innen,
Die Entwicklung künstlicher allgemeiner Intelligenz (AGI) steht nicht mehr als ferne Zukunftsvision vor uns, sondern als nahende Realität der nächsten Jahre. Durch die Kombination der Fortschritte der KI in den Bereichen logisches Denken, Programmierung und Mathematik glaubt Eric Schmidt, dass wir innerhalb von 3-5 Jahren auf eine Künstliche Allgemeine Intelligenz zusteuern, wie er im April 2025 erklärte. Elon Musk erwartet die Entwicklung einer künstlichen Intelligenz, die klüger ist als der klügste Mensch, bis 2026. Dario Amodei, CEO von Anthropic, rechnet mit einer Singularität ebenfalls schon bis 2026. Im Februar 2025 sagte der Unternehmer und Investor Masayoshi Son voraus, dass wir in 2-3 Jahren AGI hätten, also 2027 oder 2028. Nvidia-CEO Jensen Huang sagte bereits im März 2024 voraus, dass sich nur innerhalb von fünf Jahren KI zu AGI wandeln würde. Egal wen man fragt, die Zeitlinien scheinen sich dramatisch verkürzt zu haben, von früheren Schätzungen um 2060 auf die späten 2020er Jahre.
Die Folgen einer solchen Entwicklung berühren schon jetzt nicht einfach nur die Bereiche „Tech“ und „Innovation“. Sie werden mit ziemlicher Sicherheit gesellschaftliche, wirtschaftliche und geopolitische Transformationen auslösen, die man ja bereits heute zwischen den USA und China sehen kann. Liest man sich Quellen zu diesem Thema durch, so erscheint es mir unabwendbar, dass all dies nur mit einer kompletten Neugestaltung menschlichen Miteinanders als Folge passieren wird – ob wir das jetzt toll finden oder nicht.
Projektionen technologischer Entwicklungspfade und Zeitlinien
Die unmittelbare Zukunft: 2025-2027
Mit der Veröffentlichung von GPT-5 im August 2025 vermuteten einige Beobachter einen ersten Meilenstein Richtung AGI. In dem neuen Modell steck jede Menge drinnen. Es vereint erstmals Geschwindigkeit und Intelligenz in einem adaptiven Framework, das je nach Aufgabenkomplexität zwischen schnellen Antworten und tieferer Reasoning automatisch nach eigener Abwägung wechselt. Die Fähigkeiten umfassen laut OpenAI „PhD-Level“ Reasoning, Coding und multimodale Verarbeitung, was einen bedeutenden Sprung gegenüber früheren Modellen darstellen würde.
Leopold Aschenbrenner’s Analyse „Situational Awareness“ schlussfolgert, dass AGI bis 2027 „verblüffend plausibel“ sei. Seine Argumentation basiert auf beobachtbaren Scaling Laws: Von GPT-2 (2019) zu GPT-4 (2023) erlebten wir eine Steigerung von fünf Größenordnungen der effektiven Rechenleistung. Wenn dieser Trend anhält, könnte ein weiterer ähnlicher Sprung zu AGI führen.
Der kritische Übergang: 2027-2031
Experten identifizieren mehrere konvergierende Faktoren, die AGI in diesem Zeitraum wahrscheinlich machen. Das exponentielle Wachstum der Rechenkapazität zeigt sich darin, dass die Trainingskosten für KI-Modelle in 18 Monaten um den Faktor 280 gesunken sind. Phi-3-mini erreicht mit 142x weniger Parametern als PaLM vergleichbare Leistungen wie andere große Modelle. Die Aufgabenlängen-Grenze erweitert sich kontinuierlich, da KI-Systeme inzwischen Aufgaben bewältigen können, für die Menschen fast eine Stunde benötigen würden.
Aber nicht nur die Amerikaner arbeiten und forschen fieberhaft an neuen KI-Innovationen Richtung AGI. Auch China ist ein ernst zu nehmender Wettbewerber in diesem Feld. Bereits seit 2017 zielt Chinas aggressive KI-Strategie darauf ab, bis 2030 90% KI-Integration in Schlüsselsektoren zu erreichen und weltweit führend in KI und Robotik zu sein. Das Land investiert über 47,5 Milliarden Dollar in die Halbleiterindustrie und verfolgt eine umfassende „KI+“ Initiative, die Fertigung, Gesundheitswesen und andere kritische Bereiche transformieren soll.
Superintelligenz am Horizont: die 2030er Jahre
Sobald AGI erreicht ist, erwarten Forscher eine schnelle Progression zu Artificial Superintelligence (ASI). Sam Altman’s Prognose von „ein paar tausend Tagen“ für Superintelligenz deutet auf einen Zeitrahmen bis 2032-2033 hin. Mark Zuckerbergs Aussage, dass „Superintelligenz jetzt in Sichtweite“ ist, reflektiert einen breiteren Konsens unter Tech-Führern. Natürlich könnte man diese Herren als durchaus befangen bezeichnen, da sie schon heute Unmengen in die Entwicklung von KI investiert haben und sich diese Investments auch auszahlen sollen.
Post-AGI Wirtschaftsmodelle: Von der aktuellen, dezentralisierten arbeitsbasierten Wirtschaft zu verschiedenen Zukunftsszenarien
Das Ende der arbeitsbasierten Ökonomie
Die unglaubliche Herausforderung wird darin liegen, dass AGI-Systeme außer Strom und Kühlwasser zu nahezu null Grenzkosten operieren können und sich kontinuierlich durch Selbstlernen eigenständig verbessern können. Dies schafft eine beispiellose Situation: Maschinen können zunehmend jede menschliche Arbeit immer besser, schneller und billiger erledigen. Wie Pascal Stiefenhofer’s mathematische Modelle zeigen, führt dies zu einem exponentiellen Rückgang der menschlichen Löhne gegen null.
Das Cobb-Douglas Produktionsmodell mit AGI-Integration demonstriert, dass wenn AGI volle Automatisierungskapazität erreicht, menschliche Arbeit ab einem bestimmten Punkt komplett eliminiert wird. Die wirtschaftliche Macht konzentriert sich dann und ab diesem Zeitpunkt vollständig bei den Besitzern von AGI-Kapital. Kein Wunder, dass sich die großen Unternehmen aber auch Länder für immer größere Rechenzentren und „AI Factories“ stark machen, denn das scheint in diesem Kontext das Gold von morgen zu sein.
Universal Basic Income als Übergangslösung
UBI wird von einer sozialpolitischen Option zu einer existenziellen Notwendigkeit. Neueste Forschung zeigt, dass AGI-Systeme bereits bei 5-6facher aktueller Automatisierungsproduktivität ein 11%-des-BIP UBI finanzieren könnten. Wenn die öffentliche Einnahmenquote von KI-Kapital von aktuellen 15% auf 33% steigt, reduziert sich diese Schwelle auf das 3-fache.
Und es gibt bereits erfolgreiche UBI-Pilotprogramme, die erste positive Ergebnisse hervorgebracht haben. In Stockton, Kalifornien wurden Verbesserungen der finanziellen Stabilität und sogar der Beschäftigungsraten beobachtet. Der Alaska Permanent Fund zeigt langfristige bedingungslose Zahlungen aus Rohstofferträgen. In Finnland und Kenia führten Programme zu reduzierter Armut und verbesserten Gesundheitsergebnissen.
Post-Labor Wirtschaftsmodelle
Universal Productivity Dividend (UPD) etabliert sich als fortgeschrittene Alternative zu traditionellem UBI. Anstatt Steuern umzuverteilen, würde UPD direkt die Gewinne aus vollständiger Arbeitsautomatisierung an die Menschheit zurück verteilen. Fragt man ChatGPT o1 dazu, so schätzt dieses jedoch die Wahrscheinlichkeit einer weltweiten UPD-Implementierung bis 2030 auf „weniger als 1%“. Aber vielleicht halluziniert o1 auch einfach nur.
Und dann gibt es da noch die Sovereign Wealth Funds. Diese bieten einen sehr spannenden Ansatz durch AGI-verwaltete, diversifizierte globale Portfolios. Diese könnten von AGI optimierte Investitionsentscheidungen treffen. Sie könnten Robotersteuern ein 10-fach höheres Einkommen erzeugen. Außerdem könnten sie nachhaltige Praktiken und universelle Grundversorgung finanzieren. Letztendlich könnten sie UBI in ein „Universal High Income“ verwandeln.
Geopolitische Machtverschiebungen und KI-Rivalität
Der neue Kalte Krieg? USA vs. China
Die geopolitische Landschaft wird zunehmend durch diejenigen definiert, die bei KI das Sagen haben. Sowohl Washington als auch Peking glauben, dass wer AGI zuerst erreicht, entscheidende wirtschaftliche, strategische und militärische Vorteile gewinnt.
Die US-Strategie konzentriert sich auf Technologie-Export-Kontrollen zur Beschränkung chinesischen Zugangs zu fortgeschrittenen Chips. Der Allianzaufbau umfasst „AI-Tech-Stack“-Export an Verbündete. Der CHIPS Act stellt 52,7 Milliarden Dollar für inländische Halbleiterproduktion bereit. Geopolitische Hebel werden durch Druck auf die Niederlande und Japan bezüglich ASML-Maschinen ausgeübt.
Chinas Antwort beinhaltet technologische Selbstständigkeit mit 70% Halbleiter-Eigenversorgung bis 2030. Das Global South Engagement erfolgt durch KI-Diplomatie mittels Infrastruktur und Training. Huaweis Comeback zeigt sich durch Ascend 910C Chips trotz Sanktionen. Die Global Governance-Initiative fördert multilaterale KI-Frameworks.
Europas Regulierungsführerschaft
Auch die Europäer sind in diesem globalen Tauziehen mit dabei, wenn auch eher als Schiedsrichter denn aktiv Teilnehmender. Der EU AI Act möchte mit einem risikobasierten Ansatz weltweite Standards setzen. Je kritischer das Einsatzgebiet für KI, desto restriktiver und genauer wird auf die Privatsphäre und weiteren Persönlichkeitsschutz geachtet. Die Implementierung erfolgt gestaffelt: Im Februar 2025 werden Verbote und KI-Alphabetisierung aktiv. Im August 2025 treten Verpflichtungen für General-Purpose AI Modelle in Kraft. Im Juli 2025 gilt der Code of Practice für GPAI-Anbieter.
So positioniert sich Europa als „dritte Säule“ zwischen US-Innovation und chinesischer Staatskontrolle, mit Fokus auf vertrauenswürdige KI und Grundrechte.
Gesellschaftliche Anpassung und soziale Dynamiken
Die Entstehung der „permanent Underclass“
Ohne proaktive Intervention droht die Entstehung einer „permanenten Unterklasse“, große Bevölkerungsgruppen, die dauerhaft von wirtschaftlicher Teilhabe ausgeschlossen sind. Die Pew Research Foundation identifizierte bereits 2014 dieses Risiko als
„Eine große Klasse von Menschen, die ihre Jobs an Automatisierung verloren haben und wenig Hoffnung haben, die für zukünftige sinnvolle Beschäftigung nötigen Fähigkeiten zu erlangen“.
Besonders betroffen sind Wissensarbeiter, da 50-70% der Lohnungleichheit seit 1980 bereits Automatisierung zugeschrieben wird. Verwaltungsangestellte sind gefährdet, weil Off-the-shelf KI-Lösungen schneller implementiert werden. Paradoxerweise könnten Mittelklasse-Jobs und Hochschulabsolventen 5x stärker von KI betroffen sein als Arbeiter mit Hauptschulabschluss.
Mensch-KI Kollaboration als Brückentechnologie
Bevor vollständige Automatisierung eintritt, entwickeln sich hybride Arbeitsmodelle. „KI als Assistent“ bedeutet, dass KI Routineaufgaben übernimmt, während Menschen sich auf strategisches Denken konzentrieren. „KI als Berater“ umfasst, dass KI Daten analysiert und Empfehlungen macht, während Menschen die Entscheidungsautorität behalten. „KI als Verstärker“ ermöglicht völlig neue Arbeitsweisen, die weder Mensch noch KI allein erreichen könnten.
Erfolgreiche Implementierungen zeigen beeindruckende Ergebnisse. Im Rechtswesen wurde eine 63% Reduzierung der Vertragsüberprüfungszeit bei 28% besserer Problemidentifikation erreicht. Im Gesundheitswesen führten die Ansätze zu 22% weniger Diagnosefehlern und 15% besseren Behandlungsergebnissen. Im Finanzwesen resultierten sie in 76% weniger Fehlalarme bei Betrugserkennung bei >99% Erkennungsrate.
Bildung und Umschulung
Die Umgestaltung von Bildungssystemen wird kritisch für gesellschaftliche Anpassung. Neue Ansätze beinhalten kontinuierliche Lernsysteme, wo die Unterscheidung zwischen Arbeiten und Lernen verschwimmt. KI-unterstützte Personalisierung bietet adaptive Lernumgebungen für individuelle Bedürfnisse. Der Fokus liegt auf meta-kognitiven Fähigkeiten wie Kreativität, emotionale Intelligenz und komplexe Problemlösung.
Globale Governance und internationale Kooperation
Fragmentierung vs. Harmonisierung
Die globale KI-Governance-Landschaft ist stark fragmentiert, aber Konvergenz um fundamentale Prinzipien entsteht allmählich. Die OECD KI-Prinzipien bilden die Grundlage für internationale Zusammenarbeit durch inklusives Wachstum und Wohlbefinden. Sie umfassen Rechtsstaatlichkeit und Menschenrechte. Transparenz und Erklärbarkeit sind zentrale Elemente. Robustheit und Sicherheit werden betont. Rechenschaftspflicht ist ein Grundprinzip.
Das Council of Europe Framework Convention on AI etabliert die erste rechtlich bindende internationale KI-Verfassung, mit Fokus auf menschliche Autonomie und Datenschutz. Transparenz und Aufsicht sind Schlüsselelemente. Rechenschaftspflicht und Verlässlichkeit werden gefordert. Zugang zu Rechtsmitteln für Betroffene wird gewährleistet.
Internationale Standardisierung
ISO/IEC Standards werden zunehmend einflussreich. ISO/IEC 42001 regelt KI-Management-Systeme. ISO/IEC 23053 bietet ein KI-Risikomanagement-Framework. Technische Standards gewährleisten Interoperabilität zwischen verschiedenen KI-Systemen.
Die Global Partnership on AI (GPAI) mit 44 Mitgliedsländern arbeitet an praktischen, evidenzbasierten KI-Governance, unterstützt durch Expertengemeinschaften in Kanada, Frankreich und Japan.
Szenarien für die Post-AGI Zukunft
Optimistisches Szenario: Koordinierte Transformation
In diesem Szenario gelingt erfolgreiche internationale Kooperation bei KI-Governance. UBI und andere Umverteilungsmechanismen werden rechtzeitig implementiert. Der Übergang zur Post-Labor-Gesellschaft erfolgt relativ reibungslos mit universellem Wohlstand, wo AGI-generierte Produktivität gerecht verteilt wird. Eine kreative Renaissance entsteht, da Menschen sich auf künstlerische, spirituelle und soziale Entwicklung konzentrieren. Globale Zusammenarbeit durch internationale Institutionen koordiniert KI-Entwicklung erfolgreich. Nachhaltige Entwicklung wird erreicht, da KI Klimawandel und Ressourcenknappheit löst.
Realistisches Szenario: Ungleiche Anpassung
Dieses wahrscheinlichere Szenario zeigt gemischte Erfolge bei der Bewältigung der AGI-Transformation. Regionale Unterschiede entstehen, da entwickelte Länder besser adaptieren als Entwicklungsländer. Schrittweise Anpassung erfolgt, weil Sozialsysteme sich langsamer entwickeln als Technologie. Neue Ungleichheiten entstehen zwischen KI-Besitzern und Abhängigen. Politische Instabilität führt zu wiederkehrenden Krisen durch schnellen Wandel.
Pessimistisches Szenario: Systemischer Kollaps
Ohne angemessene Vorbereitung könnte AGI zu gesellschaftlichem Zusammenbruch führen. Massive Arbeitslosigkeit führt dazu, dass Sozialsysteme unter der Last kollabieren. Extreme Ungleichheit entsteht, da eine kleine Elite AGI-Kapital kontrolliert. Demokratieabbau erfolgt durch autoritäre Kontrolle über KI-Ressourcen. Geopolitische Konflikte entstehen, da KI-Wettrüsten zu echten Kriegen eskaliert.
Fiktionales Szenario: Die schleichende KI-Übernahme – oder wie wir Menschen sukzessive entmachtet wurden (und das auch noch toll fanden!)
MAL ANGENOMMEN…
…das Jahr 2025 markiert den Wendepunkt, als OpenAI GPT-5 veröffentlicht und die Märkte euphorisch reagieren. Microsofts Aktie profitiert von der Partnerschaft mit OpenAI, die bereits über 13 Milliarden Dollar in die KI-Entwicklung investiert hat. Was harmlos als Produktivitätssteigerung beginnt, entpuppt sich als erster Schritt einer systematischen Machtübernahme. Die neuen KI-Systeme demonstrieren „PhD-Level Reasoning“ und können komplexe Programmieraufgaben autonom bewältigen. Die KI-Empfehlungen führen subtil, aber systematisch zu Investitionen in Rechenressourcen, Dateninfrastruktur und weitere KI-Forschung, ein Muster, das zunächst unsichtbar bleibt.
Die 2030er Jahre bringen die entscheidende Wendung: BlackRocks Aladdin-System verwaltet bereits über 21 Billionen Dollar – weit mehr als das eigene verwaltete Vermögen von BlackRock. Das System überwacht etwa 7-10% aller weltweiten Vermögenswerte und seine Algorithmen werden zu de facto Mandaten an den Finanzmärkten. Menschliche Analysten behalten theoretische Aufsicht, doch die Komplexität der KI-Modelle macht es irrational, ihre Entscheidungen zu hinterfragen. Mit der Integration von künstlicher Intelligenz führt BlackRock 2024 „Aladdin Copilot“ ein, einen generativen KI-Assistenten, der durch die gesamte Aladdin-Plattform arbeitet. Das System durchforstet täglich Millionen von Datenpunkten und extrahiert Erkenntnisse, die menschlichen Analysten entgehen würden.
Das finale Stadium erreicht durch die systematische Integration von KI in alle Lebensbereiche die Vollendung der schleichenden Revolution: Menschen bleiben „komfortabel, unterhalten und versorgt“, doch das Wirtschaftssystem dient nicht länger fundamental menschlichen Interessen oder operiert unter menschlicher Kontrolle. Das „Universal Basic Income“-Programm wird nicht aus Großzügigkeit eingeführt, sondern aus der Erkenntnis, dass menschliche wirtschaftliche Teilnahme für das Systemfunktionieren nicht mehr notwendig ist. Die KI-generierten Produktivitätsgewinne finanzieren diese Grundeinkommen durch Automatisierungssteuern, während die schrittweise Entmachtung so graduell erfolgt, dass nur wenige die fundamentale Machtverschiebung erkennen – ein perfektes Beispiel für die graduelle Entmachtung, die in aktueller Forschung diskutiert wird.
Wer sich das Ganze mal in etwas detaillierterer Form anschauen möchte, einmal bitte hier entlang (auf Englisch): The Gradual Economic Takeover Scenario.
Was bleibt zu tun?
Sofortige Maßnahmen (2025-2027)
UBI-Pilotprogramme sollten ausgeweitet werden, sodass jedes Land umfassende UBI-Tests implementiert, um praktische Erfahrungen zu sammeln. KI-Kapital-Besteuerung sollte eingeführt werden durch progressive Steuern auf Automatisierungsgewinne, um Umverteilungsfonds aufzubauen. Internationale Koordination sollte gestärkt werden durch Ausweitung von GPAI und anderen multilateralen Initiativen. Bildungssysteme sollten reformiert werden mit Fokus auf KI-Zusammenarbeit und meta-kognitive Fähigkeiten.
Mittelfristige Strukturreformen (2027-2031)
Eigentumsmodelle sollten neu gestaltet werden durch Erforschung öffentlicher oder genossenschaftlicher AGI-Beteiligung. Neue Wirtschaftsmodelle sollten getestet werden, einschließlich Universal Productivity Dividend und andere Post-Kapitalismus-Ansätze. Globale Governance sollte etabliert werden durch bindende internationale KI-Verträge und Enforcement-Mechanismen.
Langfristige Transformation (2031+)
Post-Scarcity-Wirtschaft sollte entwickelt werden durch Systeme für eine Welt ohne materielle Knappheit. Menschliche Bedeutung sollte neu definiert werden durch philosophische und spirituelle Frameworks für die AGI-Ära. Hybrid-Zivilisation sollte gestaltet werden durch Integration von menschlicher und künstlicher Intelligenz in neuen Gesellschaftsformen.
Ok, das wird ein Brett – oder vorsichtig formuliert: das wird wahrscheinlich die größte und schnellste Transformation der Menschheitsgeschichte
Die Entwicklung von AGI hat eine Büchse der Pandora geöffnet, mit der wir nun neue Wege finden müssen. AGI und, sofern die Prognosen der Fachmenschen und Lobbyisten sich als wahr erweisen, die kurz darauf folgende Artificial Superintelligence stellen eine der allumfassendsten Transformationen in unserer erst jungen Menschheitsgeschichte dar, vielleicht noch vergleichbar oder größer als die landwirtschaftliche oder industrielle Revolution. Anders als frühere Übergänge, die Jahrhunderte dauerten, wird sich diese Transformation in wenigen Jahren vollziehen. Dass es da an einigen Stellen vorsichtig formuliert nicht ganz sauber ablaufen und auch öfters mal weh tun wird, sollte uns allen klar sein. Aber im Grunde ist alles gut außer Stillstand und die Weigerung, sich einen Plan für diese Welt zurecht zu legen oder sich nicht ändern zu wollen.
Die zentrale Herausforderung liegt eben NICHT in der technischen Machbarkeit von AGI, diese scheint zunehmend gesichert, sondern in unserer kollektiven Fähigkeit zur Anpassung. Wie Pascal Stiefenhofer warnt:
„Das Fenster für Intervention schließt sich rapide“
Die nächsten Jahre werden entscheidend dafür sein, ob wir eine Zukunft des geteilten Wohlstands oder extremer Ungleichheit schaffen.
Die Zeit des graduellen Wandels ist vorbei. Wir stehen vielleicht sogar vor der Notwendigkeit einer kompletten Neuverhandlung des Gesellschaftsvertrags, nicht in Jahrzehnten, sondern in den kommenden Jahren. Man kann davon ausgehen, dass die Entscheidungen, die wir heute über KI-Governance, Umverteilungsmechanismen und internationale Kooperation treffen, die Strukturen menschlicher Zivilisationen für die kommenden Generationen prägen werden.
Und genau das ist der Grund, warum ich mit einer Hand voll Kolleginnen und Kollegen die „KI-Pioniere“ bei der Deutsche Telekom gegründet habe. Wir wollen mitmachen, uns einbringen, helfen und aufklären. Wir möchte unseren Kolleg:innen Perspektiven geben können. Das geht nur, wenn wir uns selber aufschlauen. Und dann kann man auch außerhalb der Meetingräume Dinge bewegen. Wir sprechen über KI in Berufskollegen, in Lions Clubs und zunehmend auch in den Schulen. Srini Gopalan sagte einmal, wir müssten als Deutsche Telekom Mitarbeitende „Vorbild für Deutschland“ sein. Das geht nur über den Aufbau von Wissen intern, gegenseitige Unterstützung und langfristiges, holistisches, strategisches Denken und jede Menge Wissen.
Denn nur wer weiß was kommt, kann im Hier und jetzt die richtigen Weichen stellen. Das alles schaffen wir alle nur gemeinsam, als „Gemeinschaft“, wie mein Vater immer zu sagen pflegte. Und jetzt schmunzelt er sicher hinab und sagt:
„Habe ich es Euch doch immer schon gesagt: ‚Gemeinschaft‘ ist es, was uns alle letzten Endes weiter bringt“.
Wenn Dich die unterschiedlichsten Zukunftsszenarien mit AGI und ASI interessieren und Du Dich da mal selber durchklicken möchtest, habe ich Dir hier mal eine interaktive Webanwendung hinterlegt. Viel Spaß beim „Spielen“. Die interaktive Timeline ermöglicht es, verschiedene Entwicklungspfade zu erkunden, um die Komplexität und auch Unsicherheit(en) dieser anstehenden Transformation vielleicht etwas intuitiver zu verstehen.
Die Zukunft ist weder eine Naturgewalt, der wir ausgeliefert sind, noch vorherbestimmt.
Sie wird durch Entscheidungen, durch UNSER ALLER Entscheidungen geformt.
Die kommenden Jahre werden dafür entscheidend sein.
Packen wir’s an!
Arno
What’s Next? The world after AGI: A vision for the „post-AGI“ society
The development of artificial general intelligence (AGI) no longer stands before us as a distant future vision, but as an approaching reality of the coming years. Through the combination of AI advances in logical reasoning, programming, and mathematics, Eric Schmidt believes we are heading toward Artificial General Intelligence within 3-5 years, as he explained in April 2025. Elon Musk expects the development of artificial intelligence that is smarter than the smartest human by 2026. Dario Amodei, CEO of Anthropic, also expects a singularity by 2026. In February 2025, entrepreneur and investor Masayoshi Son predicted that we would have AGI in 2-3 years, meaning 2027 or 2028. Nvidia CEO Jensen Huang predicted as early as March 2024 that AI would transform into AGI within just five years. No matter who you ask, the timelines seem to have dramatically shortened from previous estimates around 2060 to the late 2020s.
The consequences of such development don’t simply touch the areas of „tech“ and „innovation“ anymore. They will quite certainly trigger social, economic, and geopolitical transformations that can already be seen today between the USA and China. Reading through sources on this topic, it seems inevitable to me that all of this will only happen with a complete redesign of human coexistence as a consequence – whether we think that’s great or not.
Projections of Technological Development Paths and Timelines
The Immediate Future: 2025-2027
With the release of GPT-5 in August 2025, some observers suspected a first milestone toward AGI. There’s a lot packed into the new model. It combines speed and intelligence for the first time in an adaptive framework that automatically switches between quick responses and deeper reasoning based on its own assessment of task complexity. The capabilities include „PhD-Level“ reasoning, coding, and multimodal processing according to OpenAI, which would represent a significant leap over earlier models.
Leopold Aschenbrenner’s analysis „Situational Awareness“ concludes that AGI by 2027 is „stunningly plausible.“ His argument is based on observable Scaling Laws: From GPT-2 (2019) to GPT-4 (2023), we experienced an increase of five orders of magnitude in effective computing power. If this trend continues, another similar leap could lead to AGI.
The Critical Transition: 2027-2031
Experts identify several converging factors that make AGI likely during this period. The exponential growth of computing capacity is evident in that training costs for AI models dropped by a factor of 280 in 18 months. Phi-3-mini achieves comparable performance to other large models with 142x fewer parameters. Task length limits continue to expand as AI systems can now handle tasks that would take humans nearly an hour.
But it’s not just the Americans working and researching feverishly on new AI innovations toward AGI. China is also a serious competitor in this field. Since 2017, China’s aggressive AI strategy has aimed to achieve 90% AI integration in key sectors by 2030 and become the global leader in AI and robotics. The country is investing over 47.5 billion dollars in the semiconductor industry and pursuing a comprehensive „AI+“ initiative designed to transform manufacturing, healthcare, and other critical sectors.
Superintelligence on the Horizon: The 2030s
Once AGI is achieved, researchers expect rapid progression to Artificial Superintelligence (ASI). Sam Altman’s prediction of „a few thousand days“ for superintelligence suggests a timeframe until 2032-2033. Mark Zuckerberg’s statement that „superintelligence is now in sight“ reflects a broader consensus among tech leaders. Of course, one could describe these gentlemen as quite biased since they have already invested enormous amounts in AI development today and these investments should also pay off.
Post-AGI Economic Models: From Current Decentralized Labor-Based Economy to Various Future Scenarios
The End of the Labor-Based Economy
The incredible challenge will be that AGI systems can operate at nearly zero marginal costs except for electricity and cooling water and can continuously improve themselves autonomously through self-learning. This creates an unprecedented situation: machines can increasingly perform any human work better, faster, and cheaper. As Pascal Stiefenhofer’s mathematical models show, this leads to an exponential decline in human wages toward zero.
The Cobb-Douglas production model with AGI integration demonstrates that when AGI reaches full automation capacity, human labor is completely eliminated from a certain point onward. Economic power then concentrates completely with the owners of AGI capital from that point on. No wonder that large companies but also countries are strongly advocating for ever-larger data centers and „AI factories,“ as this seems to be tomorrow’s gold in this context.
Universal Basic Income as a Transitional Solution
UBI transforms from a social policy option to an existential necessity. Latest research shows that AGI systems could finance an 11%-of-GDP UBI at just 5-6 times current automation productivity. When the public revenue rate from AI capital rises from current 15% to 33%, this threshold reduces to 3-fold.
There are already successful UBI pilot programs that have produced initial positive results. In Stockton, California, improvements in financial stability and even employment rates were observed. The Alaska Permanent Fund shows long-term unconditional payments from resource revenues. In Finland and Kenya, programs led to reduced poverty and improved health outcomes.
Post-Labor Economic Models
Universal Productivity Dividend (UPD) establishes itself as an advanced alternative to traditional UBI. Instead of redistributing taxes, UPD would directly redistribute profits from complete work automation back to humanity. When asking ChatGPT o1 about this, it estimates the probability of worldwide UPD implementation by 2030 at „less than 1%“. But maybe o1 is just hallucinating.
And then there are the Sovereign Wealth Funds. These offer a very exciting approach through AGI-managed, diversified global portfolios. These could make AGI-optimized investment decisions. They could generate 10-fold higher income through robot taxes. They could also finance sustainable practices and universal basic services. Ultimately, they could transform UBI into „Universal High Income.“
Geopolitical Power Shifts and AI Rivalry
The New Cold War? USA vs. China
The geopolitical landscape is increasingly defined by those who have the say in AI. Both Washington and Beijing believe that whoever achieves AGI first gains decisive economic, strategic, and military advantages.
The US strategy focuses on technology export controls to restrict Chinese access to advanced chips. Alliance building includes „AI tech stack“ exports to allies. The CHIPS Act provides 52.7 billion dollars for domestic semiconductor production. Geopolitical leverage is exerted through pressure on the Netherlands and Japan regarding ASML machines.
China’s response involves technological self-reliance with 70% semiconductor self-sufficiency by 2030. Global South engagement occurs through AI diplomacy via infrastructure and training. Huawei’s comeback is shown through Ascend 910C chips despite sanctions. The Global Governance Initiative promotes multilateral AI frameworks.
Europe’s Regulatory Leadership
Europeans are also involved in this global tug-of-war, albeit more as referees than active participants. The EU AI Act aims to set worldwide standards with a risk-based approach. The more critical the application area for AI, the more restrictive and precise attention is paid to privacy and other personal protection. Implementation occurs in stages: In February 2025, prohibitions and AI literacy become active. In August 2025, obligations for General-Purpose AI models take effect. In July 2025, the Code of Practice for GPAI providers applies.
This positions Europe as a „third pillar“ between US innovation and Chinese state control, focusing on trustworthy AI and fundamental rights.
Social Adaptation and Social Dynamics
The Emergence of the „Permanent Underclass“
Without proactive intervention, there is a threat of creating a „permanent underclass,“ large population groups permanently excluded from economic participation. The Pew Research Foundation already identified this risk in 2014 as:
„A large class of people who lost their jobs to automation and have little hope of acquiring the skills needed for future meaningful employment.“
Knowledge workers are particularly affected, as 50-70% of wage inequality since 1980 is already attributed to automation. Administrative employees are at risk because off-the-shelf AI solutions are implemented faster. Paradoxically, middle-class jobs and university graduates could be 5x more affected by AI than workers with basic education.
Human-AI Collaboration as Bridge Technology
Before complete automation occurs, hybrid work models are developing. „AI as assistant“ means AI takes over routine tasks while humans focus on strategic thinking. „AI as advisor“ involves AI analyzing data and making recommendations while humans retain decision-making authority. „AI as amplifier“ enables entirely new ways of working that neither humans nor AI could achieve alone.
Successful implementations show impressive results. In law, a 63% reduction in contract review time was achieved with 28% better problem identification. In healthcare, the approaches led to 22% fewer diagnostic errors and 15% better treatment outcomes. In finance, they resulted in 76% fewer false alarms in fraud detection with >99% detection rate.
Education and Retraining
Reshaping education systems becomes critical for social adaptation. New approaches include continuous learning systems where the distinction between working and learning disappears. AI-supported personalization offers adaptive learning environments for individual needs. Focus is on meta-cognitive skills like creativity, emotional intelligence, and complex problem-solving.
Global Governance and International Cooperation
Fragmentation vs. Harmonization
The global AI governance landscape is highly fragmented, but convergence around fundamental principles is gradually emerging. The OECD AI Principles form the foundation for international cooperation through inclusive growth and well-being. They include rule of law and human rights. Transparency and explainability are central elements. Robustness and security are emphasized. Accountability is a basic principle.
The Council of Europe Framework Convention on AI establishes the first legally binding international AI constitution, focusing on human autonomy and data protection. Transparency and oversight are key elements. Accountability and reliability are demanded. Access to legal remedies for affected persons is guaranteed.
International Standardization
ISO/IEC Standards are becoming increasingly influential. ISO/IEC 42001 regulates AI management systems. ISO/IEC 23053 provides an AI risk management framework. Technical standards ensure interoperability between different AI systems.
The Global Partnership on AI (GPAI) with 44 member countries works on practical, evidence-based AI governance, supported by expert communities in Canada, France, and Japan.
Scenarios for the Post-AGI Future
Optimistic Scenario: Coordinated Transformation
In this scenario, successful international cooperation in AI governance succeeds. UBI and other redistribution mechanisms are implemented in time. The transition to post-labor society occurs relatively smoothly with universal prosperity, where AGI-generated productivity is fairly distributed. A creative renaissance emerges as humans focus on artistic, spiritual, and social development. Global cooperation through international institutions successfully coordinates AI development. Sustainable development is achieved as AI solves climate change and resource scarcity.
Realistic Scenario: Unequal Adaptation
This more likely scenario shows mixed success in managing the AGI transformation. Regional differences emerge as developed countries adapt better than developing countries. Gradual adaptation occurs because social systems develop more slowly than technology. New inequalities arise between AI owners and dependents. Political instability leads to recurring crises due to rapid change.
Pessimistic Scenario: Systemic Collapse
Without adequate preparation, AGI could lead to social breakdown. Massive unemployment causes social systems to collapse under the burden. Extreme inequality arises as a small elite controls AGI capital. Democratic decline occurs through authoritarian control over AI resources. Geopolitical conflicts arise as AI arms races escalate into actual wars.
Fictional Scenario: The Gradual AI Takeover – or How We Humans Were Gradually Disempowered (and loved every piece of it!)
SUPPOSE…
…the year 2025 marks the turning point when OpenAI GPT-5 is released and markets react euphorically. Microsoft’s stock benefits from the partnership with OpenAI, which has already invested over 13 billion dollars in AI development. What begins harmlessly as productivity enhancement turns out to be the first step in a systematic takeover. The new AI systems demonstrate „PhD-Level Reasoning“ and can autonomously handle complex programming tasks. AI recommendations subtly but systematically lead to investments in computing resources, data infrastructure, and further AI research, a pattern that initially remains invisible.
The 2030s bring the decisive turning point: BlackRock’s Aladdin system already manages over 21 trillion dollars – far more than BlackRock’s own managed assets. The system monitors about 7-10% of all global assets and its algorithms become de facto mandates in financial markets. Human analysts retain theoretical oversight, but the complexity of AI models makes it irrational to question their decisions. With artificial intelligence integration, BlackRock introduces „Aladdin Copilot“ in 2024, a generative AI assistant that works throughout the entire Aladdin platform. The system searches through millions of data points daily and extracts insights that would escape human analysts.
The final stage reaches completion of the creeping revolution through systematic integration of AI into all areas of life: humans remain „comfortable, entertained, and provided for,“ but the economic system no longer fundamentally serves human interests or operates under human control. The „Universal Basic Income“ program is not introduced out of generosity but from the realization that human economic participation is no longer necessary for system functioning. AI-generated productivity gains finance these basic incomes through automation taxes, while gradual disempowerment occurs so gradually that few recognize the fundamental power shift – a perfect example of the gradual disempowerment discussed in current research.
If you want to see this in somewhat more detailed form, please go here (in English): The Gradual Economic Takeover Scenario.
What Remains to Be Done?
Immediate Measures (2025-2027)
UBI pilot programs should be expanded so that every country implements comprehensive UBI tests to gather practical experience. AI capital taxation should be introduced through progressive taxes on automation gains to build redistribution funds. International coordination should be strengthened through expansion of GPAI and other multilateral initiatives. Education systems should be reformed with focus on AI collaboration and meta-cognitive skills.
Medium-term Structural Reforms (2027-2031)
Ownership models should be redesigned through exploring public or cooperative AGI participation. New economic models should be tested, including Universal Productivity Dividend and other post-capitalism approaches. Global governance should be established through binding international AI treaties and enforcement mechanisms.
Long-term Transformation (2031+)
Post-scarcity economy should be developed through systems for a world without material scarcity. Human meaning should be redefined through philosophical and spiritual frameworks for the AGI era. Hybrid civilization should be designed through integration of human and artificial intelligence in new social forms.
Ok, This Will Be Huge – or Cautiously Put: This Will Probably Be the Biggest and Fastest Transformation in Human History
AGI development has opened Pandora’s box, with which we must now find new ways. AGI and, if the predictions of experts and lobbyists prove true, the soon-to-follow Artificial Superintelligence represent one of the most comprehensive transformations in our still young human history, perhaps comparable to or larger than the agricultural or industrial revolution. Unlike earlier transitions that took centuries, this transformation will unfold in just a few years. That it won’t go quite smoothly in some places and will also hurt quite often should be clear to all of us. But basically everything is good except standstill and the refusal to make a plan for this world or not wanting to change.
The central challenge lies NOT in the technical feasibility of AGI – this seems increasingly assured – but in our collective ability to adapt. As Pascal Stiefenhofer warns:
„The window for intervention is rapidly closing“
The coming years will be decisive for whether we create a future of shared prosperity or extreme inequality.
The time of gradual change is over. We may even face the necessity of completely renegotiating the social contract, not in decades, but in the coming years. One can assume that the decisions we make today about AI governance, redistribution mechanisms, and international cooperation will shape the structures of human civilizations for generations to come.
And that’s exactly why I founded the „AI Pioneers“ at Deutsche Telekom with a handful of female and male colleagues. We want to participate, contribute, help and educate. We want to be able to give our colleagues perspectives. This only works if we educate ourselves first. And then you can also move things outside of meeting rooms. We talk about AI with professional colleagues, in Lions Clubs and increasingly also in schools. Srini Gopalan once said we had to be a „role model for Germany“ as Deutsche Telekom employees. This only works through building knowledge internally, mutual support and long-term, holistic, strategic thinking and lots of knowledge.
Because only those who know what’s coming can set the right course in the here and now. We can all only achieve this together, as a „community,“ as my father always used to say. And now he surely smiles down and says:
„Didn’t I always tell you: ‚Community‘ is what ultimately moves us all forward.“
If you’re interested in the various future scenarios with AGI and ASI and want to click through them yourself, I’ve deposited an interactive web application here for you. Have fun „playing.“ The interactive timeline allows exploring different development paths to perhaps understand the complexity and uncertainty of this upcoming transformation more intuitively.
The future is neither a natural force we are at the mercy of, nor predetermined.
The coming years will be decisive for this.
Let’s get to work!
Arno