Quantencomputer sollen eine Lösung für Rechenprobleme dieser Art sein, sagen Physiker
Die Überlegung mit der Obergrenze mit 10^120 oder auch 2^400 oder 2^500 habe ich schon öfters gesehen, auch schon vor zig Jahren, in Büchern/Vorträgen über Kryptologie oder Komplexitätstheorie/Theor. Informatik. Ich glaube nicht, dass der Buchautor der Urheber dieser Überlegung ist.
Die Überlegung zeigt
1. mal wieder: das exponentielle Wachstum ist gigantisch und kaum zu begreifen, siehe auch die Schachbrett/Reiskorn Legende mit "nur" 2^64. Oder der Josefs-Pfennig.
- Ein Super-Parallel-Computer der heutigen getakteten Art (praktisch alle heutigen Computer sind getaktet), kann nicht mehr als 10^120 Möglichkeiten durchprüfen.
Das zeigt also auch, dass das Zusammenschalten von Computern zu Parallel-Rechnern keine Lösung ist, wenn man 2^n Schritte "exhaustive search" in seinem Programm hat und n größer wird als 200, 300 oder spätestens 400.
Beispiel: Zerlegen einer Zahl in die Primfaktoren: nach heutigem Stand braucht man für eine Dezimalzahl der Länge 10.000 2^500 Einzel-Überprüfungen https://www.globalsign.com/de-de/blog/ecc-101/
Ein Lösungsvorschlag sind Quantencomputer, die ein Ergebnis "sofort" finden sollen, physikalische Gesetze ausnutzend: im Nu soll die Lösung zu einer Eingabe da sein, die Quantengesetze sorgen dafür. Ob es wirklich funktioniert, kann ich nicht beurteilen, ich bin kein Physiker. Von den praktischen Ergebnissen her sieht es eher bescheiden aus (hört sich irgendwie nach Kindergarten an): Im Jahr 2001 verkündet IBM, man habe so die Zahl 15 faktorisiert, und im Jahr 2012 verkündet die Uni Bristol, man habe es geschafft, 21 zu faktorisieren. Wow ... https://www.youtube.com/watch?v=mqFLXayD6e8
Bernd Borchert
Wenn Du 9 weitere Universen zum Rechnen bekommst, erhöht sich Deine Grenze von 10^160 leider nur auf 10^161.