„China überholt die Vereinigten Staaten wirtschaftlich. Ein geschwächtes Russland führt seinen Krieg in der Ukraine als eingefrorenen Konflikt fort, während der Konflikt um Taiwan heiß wird und einen Weltkrieg zu drohen beginnt. Mehr Länder erwerben Atomwaffen. Kryptowährungen stellen den Dollar infrage. Künstliche Intelligenz erreicht oder übertrifft sogar menschliche Fähigkeiten. Die NATO besteht fort, verändert sich jedoch grundlegend“. Ein düsteres Tableau – entworfen vom US-Think Tank Atlantic Council für das Jahr 2036, (siehe https://www.atlanticcouncil.org/content-series/atlantic-council-strategy-paper-series/global-foresight-2036/)

Es gab schon immer Epochen, in denen die Zukunft nur mehr als Echo gedacht wurde: Prophezeiung, Utopie, Eschatologie bis zur politischen Prognostik, die das Kommende entweder enthüllen oder beschwören wollen. Doch die Zukunft sollte nicht als absolute Unverfügbarkeit oder als Fatalität hingenommen, sondern als „systematisch bearbeitbarer Entscheidungsraum“, so der französische Industrieller, Philosoph und Zukunftsforscher Gaston Berger (1896-1960).

Zukunft als Verantwortung

Die Zukunft ist kein Ort. Sie lässt sich als Vorsatz deuten, somit nicht einfach nur das, was vielleicht passieren wird, sondern das, wofür wir uns entscheiden und woran wir uns messen lassen. Das ist keine Nebensache.

Damit verdichtet sich Zukunftsinteresse paradoxerweise dort, wo Modernisierung zugleich Überschuss erzeugt. Berger fasst diese Doppelbewegung in eine drastische Metapher: Moderne Zivilisation gleiche einem Auto, das immer schneller auf unbekannter Straße in der Nacht fährt; die „Scheinwerfer“ müssten immer weiter reichen, um Katastrophen zu vermeiden. Schneller werden wir ohnehin — aber ob wir dabei noch sehen können, kommt nicht von selbst. Wer den Telos nicht kennt, kann zwar Informationen sammeln, ohne Orientierung zu gewinnen.

Hier verläuft auch die Achse von Technikoptimismus zum Technikpessimismus. Optimistische Interpretationen lesen Zukunftsforschung als Fortschrittsnavigation. Pessimistische lesen sie als Warninstrument: Katastrophen, Irreversibilität, Schadenspotenziale. Der US-amerikanische Philosoph Hans Jonas (1903-1993) ist der Schlüsselautor der Letzteren. Moderne Technik, so seine Diagnose, erzeugt neue Größenordnungen von Folgen; daraus entsteht eine „Dimension der Verantwortung“: Wenn Macht wächst, wächst die Pflicht, das Mögliche zu bändigen.

Diese Erklärungen stehen selbstverständlich im grellen Licht der Gegenwart-Szenarien, in den Scheinwerfern, die zu kurz zu sein drohen. Ein Beispiel liefert das Scowcroft Center for Strategy and Security des Atlantic Council, das zwischen 14. November 2025 und 5. Dezember 2025 Geostrategen und Foresight-Praktiker befragte, wie sie erwarten, dass sich die Welt in den nächsten zehn Jahren verändern wird. Die aufgeführten Szenarien sind selbst bereits eine Art Gegenwartskritik für die Zukunft.

Elitenblick

Man kann diese Liste als präzise Illustration der Diagnose lesen: Eine Welt, in der Schadensmöglichkeiten nicht nur erwartet, sondern in Systemlogiken hineingebaut werden. Entsprechend „dunkel“ ist die Stimmungslage: 63 Prozent erwarten, dass es der Welt im Jahr 2036 schlechter gehen wird als heute; 37 Prozent glauben, dass es ihr in zehn Jahren besser gehen wird.

Die Umfrage misst nicht die Zukunft, sondern die Erwartungslage professioneller Akteure – und gerade diese Stimmungslage wirkt in Politik und Märkten performativ, weil sie Entscheidungen strukturiert. Mich interessiert daran weniger die Treffsicherheit der Prognose als das, was sie über unsere Gegenwart verrät.

Selbst die Soziologie der Befragten erzählt eine Geschichte für sich: Die Stichprobe hat 447 Teilnehmende aus 72 Ländern, etwa die Hälfte aus den USA, mehr als ein Fünftel aus Europa, darunter 1 Person aus Österreich, knapp ein Fünftel aus dem sogenannten Globalen Süden; überwiegend männlich, überwiegend über 50, verteilt über Privatsektor, Think Tanks, NGOs, Regierung, akademische Institutionen, Beratungen und multilaterale Organisationen.

Es sind nicht „die Volksmassen“, die hier sprechen, sondern professionelle Zukunftsdeuter – und die Stichprobe ist entsprechend nicht frei von Verzerrungen. Umso bemerkenswerter wirkt das Ergebnis: Wenn die berufsmäßigen Scheinwerferträger nebliger sehen, ist Vorsicht geboten. Nicht unbedingt ist die Nacht dunkler; aber wir fahren schneller, die Kurven sind enger, die Bremswege länger.

Künstliche allgemeine Intelligenz

Die Umfrageteilnehmer der Global Foresight 2036 erwarten zum Beispiel, dass sich künstliche Intelligenz (KI) im kommenden Jahrzehnt rasch weiterentwickeln wird. Eine klare Mehrheit (58 Prozent) glaubt, dass die Welt bis 2036 über die heutigen prädiktiven und generativen KI-Systeme hinausgehen und künstliche allgemeine Intelligenz (AGI) erreichen wird, die in der Umfrage definiert wird als „ein System künstlicher Intelligenz, das die kognitiven Fähigkeiten von Menschen bei jeder Aufgabe erreicht oder übertrifft“ – eines der ehrgeizigsten Ziele, die KI-Unternehmen derzeit verfolgen.

Warum „Vorsatz“?

Ein Vorsatz ist mehr als ein Plan. Er ist eine Selbstbindung gegen die Versuchung der Ausrede. Wer „Zukunft“ als Vorsatz versteht, akzeptiert, dass das Kommende weder bloß Schicksal noch bloß Prognose ist. Es ist das Feld unserer Verantwortbarkeit. Praktisch gesprochen: Zukunft ist nicht nur der Zeitpfeil nach vorn, sondern das Ziel, das unsere Gegenwart mit normativer Gravitation ordnet.

Die fortlaufende Übung, den „Lichtkegel“ weiter zu stellen, ohne zu behaupten, man kenne die ganze Straße, ist kein Orakel. Sie ist präventiv, weil sie Katastrophen nicht erst im Rückspiegel begreift und rational, weil sie unsere Entscheidung als Ursprung des möglichen Risikos ernst nimmt.

Ein Vorsatz namens Zukunft heißt, die Moderne nicht nur zu beschreiben, sondern ihr eine Verpflichtung abzuringen. Nicht-Entscheiden ist bereits auch eine Entscheidung. Wenn Risiko heißt, dass unser Handeln Schaden ermöglichen kann, dann wird Verantwortung – durch Voraussicht, Begrenzung und Selbstbindung – zum Muss.