Heyho!
Der sinnvolle Einsatz einer KI die z.B. Kriege vorausberechnet um diese im Idelafall zu verhindern ist rein logisch nicht möglich. Die Vorhersage einer 100%ig richtig berechneten Zukunft wird diese automatisch überschreiben und sich damit selbst ad absurdum führen.
Konkretes Beispiel:
Vor dem zweiten WK würde die KI berechnen, dass die Nazis verlieren. Soweit so gut.
Würden die Nazis also aufgeben? Vielleicht, oder sie entwicklen einen verzweifelten Fanatismus und erobern die Welt. Well Shit.
In jedem Fall würde die mühsam berechnete Zukunft 1 (Nazis verlieren) durch eine neue, völlig offene Zukunft 2 ersetzt werden (z.B. Nazis gewinnen doch), womit der ganze Aufwand doch ziemlich sinnfrei war und in diesem Fall sogar alles schlimmer gemacht hat.
Nun könnten wir natürlich noch annehmen, dass die KI so krass genial ist, dass sie das alles einberechnet.
Sie könnte demnach zu dem Schluss kommen: Die Nazis verlieren, aber weil ich euch das gesagt habe gewinnen sie doch, sry.
Dadurch würde aber natürlich Zukunft 2 wiederrum überschrieben und es ist wieder alles offen.
Eine tatsächlich unumstößliche, schlussendliche Zukunft zu berechen würde also unendlich lange dauern -> ist also nicht möglich
Die einzige Möglichkeit den Teufelskreis zu durchbrechen wäre die KI in dem Moment zu stoppen, in dem eine akzeptable Zukunft gefunden wurde (z.B. wenn es in Zukunft 3 gar keinen Krieg gäbe).
Vergleichbar also mit den selbsterfüllenden Prophezeiungen der griechischen Mythlogie (Wobei in unserem Fall Zukunft 2 prophezeit werden müsste um Zukunft 3 zu errreichen). Da die KI in diesem Fall aber aktiv manipulieren würde, wäre das allerdings wieder eine ganz andere Situation.
Danke für die tolle Folge!!