Mit Sora ist ein Training autonomer KI in dynamisch erzeugten Umgebungen/Welten als Simulation endlich möglich. Das hat 2 Implikationen:
- Damit Konsistenz in den Videos erhalten bleibt, muss die openAI KI zwangsläufig von einem zum nächsten Frame VORHERSAGEN können, was als nächstes am wahrscheinlichsten passieren wird. Sie muss also wenn auch nur zu Anfang ansatzweise zu „precognition“ fähig sein, basierend auf den zugrundeliegenden Daten.
- Es wird möglich sein, immer komplexere Systeme in Echtzeit zu simulieren, auch und vor allem visuell. Software Entitäten in diesen Welten können auf alle möglichen Szenarien trainiert werden (beispielsweise arbeiten und leben auf dem Mars). Ist das Training abgeschlossen entnimmt man die Software Entität ihrer simulierten Umgebung und versetzt sie in die reale Welt (whatever das ist) in der sie dann, perfekt über X Trainingszyklen vorbereitet, ihre Aufgabe erfüllen kann.
Diese beiden Implikationen wären für mich jedenfalls der viel relevantere Teil, über den jetzt alle reden sollten und nicht die visuelle Brillianz der Umsetzung – der Impact ist in seinen Konsequenzen fast noch gar nicht abschätzbar. Und ich fange jetzt bewusst nicht auch noch von Nick Bostrom an… ;-P