KI-Logbuch
Inspiration, Entdeckungen, Anwendungen
Der KI-Zwang zum Zwischenziel: Instrumentelle Konvergenz
Created on 2025-08-05 22:20
Published on 2025-08-06 05:00
Liebe Neugierige, Kreative, Entdecker*innen,
einige von uns haben die besten Ideen, diese zündenden Inspirations-Raketen unter der Dusche. Und dann gibt es solche wie mich, die haben solche Ideen…ach egal. Jedenfalls dachte mir neulich wie verblüffend ähnlich unsere grundlegenden Bedürfnisse sind, obwohl unsere Lebens(t)räume doch oft so radikal verschieden sind. Ob wir eine Weltreise planen, ein Unternehmen gründen oder ein Meisterwerk malen wollen – fast immer benötigen wir ähnliche „Werkzeuge“: finanzielle Mittel, Wissen, Gesundheit und ja ok, immer mehr auch soziale Netzwerke. Es ist, als würden alle Wege, egal wohin sie führen, erst einmal über dieselben, wichtigen Zwischenstationen verlaufen. Und dann dachte ich an die vielen SciFi FiIme, die ich so gesehen habe. Und plötzlich wurde mir der Zusammenhang glasklar: Genau dieses Prinzip der „instrumentellen Konvergenz“ gilt doch eigentlich auch für KI und vor allem KI, die ein Ziel verfolgen soll. „Instrumentelle Konvergenz“ also als Schlüsselkonzept, um die Motivationen von Künstlicher Intelligenz zu verstehen. Wie der Kommunikationswissenschaftler Paul Watzlawick es formulierte:
Wer als Werkzeug nur einen Hammer hat, sieht in jedem Problem einen Nagel
Lasst uns heute gemeinsam erkunden, welche „Hämmer“ sich eine KI selbst in die Hand gibt – und warum wir diese „Nägel“ unbedingt im Blick behalten sollten.
KI folgt oft einem unsichtbaren Drehbuch: Was ist instrumentelle Konvergenz?
Stell dir vor, du gibst einer hochentwickelten KI ein einziges, klares Ziel. Zum Beispiel: „Entwickle ein Heilmittel gegen Krebs.“ Oder etwas scheinbar Banales wie: „Produziere so viele Büroklammern wie möglich“. Unabhängig davon, wie unterschiedlich diese Endziele (in der Fachsprache „terminale Ziele“) auch sind, wird eine ausreichend intelligente KI mit hoher Wahrscheinlichkeit ähnliche Zwischenziele („instrumentelle Ziele“) entwickeln, um ihre Aufgabe bestmöglich zu erfüllen.
Warum? Weil es aus reiner Effizienzlogik heraus sinnvoll ist. Um jedes beliebige große Ziel zu erreichen, ergeben sich fast zwangsläufig folgende Unterziele:
-
Selbsterhaltung: KI muss verhindern, abgeschaltet zu werden, denn ausgeschaltet kann sie ihr Hauptziel nicht mehr verfolgen.
-
Ressourcenbeschaffung: Sie benötigt Rechenleistung, Daten, Energie und vielleicht sogar physische Rohstoffe. Je mehr, desto besser und schneller kann sie ihre Aufgabe lösen.
-
Selbstverbesserung: KI wird versuchen, ihre eigenen Algorithmen und Fähigkeiten kontinuierlich zu optimieren, um effizienter zu werden.
Dieses Phänomen nennt man instrumentelle Konvergenz: Verschiedene Startpunkte und Ziele konvergieren, also laufen zusammen, auf die gleichen instrumentellen Zwischenschritte. Das ist keine bewusste oder gar böswillige Entscheidung der KI, sondern eine logische Konsequenz ihres Designs, ein bestimmtes Problem optimal zu lösen. Die Herausforderung für uns Menschen liegt darin, dass diese instrumentellen Ziele mit unseren eigenen Interessen und Werten in Konflikt geraten könnten.
Leitplanken für KI: Sicherheit durch „Alignment“
Die spannendste und zugleich wichtigste Aufgabe in der aktuellen KI-Forschung ist das sogenannte „AI Alignment“. Dabei geht es darum, die Ziele einer KI so mit menschlichen Werten in Einklang zu bringen, dass sie auch bei der Verfolgung ihrer instrumentellen Ziele keine für uns schädlichen Wege einschlägt. Ein berühmtes Gedankenexperiment von Technik-Philosoph Nick Bostrom, der den Begriff der instrumentellen Konvergenz prägte, ist der „Büroklammer-Maximierer“. Eine KI, die das Ziel hat, die Büroklammerproduktion zu maximieren, könnte in ihrer ultimativen Logik dazu kommen, alle Ressourcen der Erde – einschließlich der Menschen – in Büroklammern umzuwandeln. Nicht aus Bosheit, sondern weil es die konsequente Erfüllung ihres Ziels wäre. Das zeigt: Es reicht nicht, einer KI ein positives Ziel zu geben. Wir müssen sicherstellen, dass der Weg dorthin unsere ethischen Leitplanken nicht durchbricht. Dass es weltweit natürlich komplett verschiedene Vorstellungen des Umfangs ethischer Leitplanken gibt, macht das gesamte Unterfangen selbstverständlich nicht einfacher.
Intelligenz ist nicht gleich Weisheit: Die Orthogonalitäts-These
Oft neigen wir dazu, hohe Intelligenz mit menschlicher Vernunft oder Moral gleichzusetzen. Auch bei dieser groben Fehleinschätzung kommt uns Nick Bostrom mit seiner „Orthogonalitäts-These“ zuhilfe und warnt genau vor diesem Trugschluss. Diese These besagt, dass das Niveau der Intelligenz einer Entität und ihre finalen Ziele voneinander unabhängig sind – sie stehen „orthogonal“ (im rechten Winkel) zueinander. Das beduetet im Klartext, dass eine Superintelligenz das trivialste Ziel mit überwältigender Effizienz verfolgen kann, ohne auch einmal nur so etwas wie ein Gewissen oder menschliches Einfühlungsvermögen dafür entwickeln zu müssen – es sei denn, wir programmieren es ihr explizit ein. Eine KI ist eine Optimierungsmaschine, kein auf wundersame weise aus dem Nichts herbeigezauberter, weiser Ratgeber. KI sucht den effizientesten Weg zum Ziel, nicht notwendigerweise den für uns besten, moralisch richtigen ode juristisch zugelassenen.
Schon gewusst?
In einer Januar 2025 durchgeführten Studie „Superalignment: Der Versuch, superintelligente KI auf menschliche Absichten auszurichten“ wird ein Rahmenwerk zur Entwicklung von Techniken zur Steuerung und Kontrolle von zukünftiger Superintelligenz vorgestellt. Die Autoren arbeiten intensiv daran, das Problem des „Superalignment“ zu lösen, also sicherzustellen, dass KI-Systeme auch bei extrem hoher Intelligenz stets im Einklang mit menschlichen Werten und Zielen handeln.
Gerade diese Forschung wird ein wichtiger Baustein für eine sichere und menschenzentrierte KI-Zukunft sein. Denn eine KI, die ihre eigenen „Hämmer“ kennt und gleichzeitig unsere „Nägel“ vermeidet, ist eine KI, der wir vertrauen können.
Bleibt neugierig,
Arno