Herbert Preskill, Richard-Feynman-Professor für theoretische Physik am Caltech, reflektiert über die frühen Gedanken von Richard Feynman zu Quantencomputern. Feynman erkannte in den 1980er Jahren die Herausforderungen der Quantenmechanik und regte an, Quantencomputer zur Lösung komplexer Probleme einzusetzen. Preskill teilt seine eigene Reise in die Quanteninformatik, die 1994 begann, als Shors Algorithmus die Möglichkeiten quantenbasierter Lösungen aufzeigte, und diskutiert die Herausforderungen und Fortschritte in der Entwicklung leistungsfähiger Quantencomputer.
Herbert Preskill, professeur Richard-Feynman de physique théorique au Caltech, réfléchit sur les premières idées de Richard Feynman concernant les ordinateurs quantiques. Feynman a reconnu dans les années 1980 les défis de la mécanique quantique et a proposé d’utiliser des ordinateurs quantiques pour résoudre des problèmes complexes. Preskill partage son propre parcours vers l’informatique quantique, qui a commencé en 1994, lorsque l’algorithme de Shor a révélé les possibilités de solutions basées sur la quantique, et discute des défis et progrès dans le développement d’ordinateurs quantiques performants.
Herr Preskill, Sie sind Richard-Feynman-Professor für Theoretische Physik am California Institute of Technology. Richard Feynman gilt nicht nur als einer der prominentesten Teilchenphysiker des 20. Jahrhunderts, sondern war auch Pionier in der Theorie der Quantencomputer. Fühlen Sie sich in seiner Nachfolge unter Druck?
Sein Name ist überwältigend, und es ist schwer, ihm gerecht zu werden. Aber ich sehe das gelassen. Niemand erwartet, dass ich Feynman in seinen Leistungen nachfolge. Übrigens hatte ich das Glück, ihn kennenzulernen, als ich 1983 nach Caltech kam. Unsere Büros lagen im selben Flur, und wir haben oft über wissenschaftliche Themen gesprochen, jedoch nie über Quantencomputer, was ich heute bedauere.
Feynman dachte bereits in den frühen 1980er Jahren über Quantencomputer nach und war damit seiner Zeit weit voraus. Was waren seine Überlegungen?
Die zentrale Herausforderung, die Feynman adressierte, reicht bis in die 1920er Jahre zurück, als die Quantenmechanik ins Leben gerufen wurde. Eine der Schlüsselformeln dieser Theorie ist die Schrödingergleichung, die beschreibt, wie Elektronen mit Atomkernen interagieren. Diese Gleichung bildet die Basis für Chemie und Materialwissenschaft, doch ist sie für mehr als ein paar Elektronen mit herkömmlichen Computern nur schwer zu lösen. In einem Vortrag im Jahr 1981 schlug Feynman vor, dass wir Computer, die auf den Prinzipien der Quantenmechanik basieren, nutzen sollten, um das Verhalten von Systemen mit vielen Elektronen zu verstehen.
Wurde die Tragweite seiner Ideen in jener Zeit erkannt?
Einige erkannten es, jedoch nicht viele. David Deutsch, ein Professor in Oxford, war einer von ihnen. Er verstand die Wichtigkeit von Quantencomputern und arbeitete Feynmans Konzepte weiter aus.
Wann begann Ihr eigenes Interesse an Quantencomputern?
Mein Interesse entstand 1994, als das Thema richtig Aufschwung nahm. Der Mathematiker Peter Shor hatte gezeigt, dass es Probleme gibt, die Quantencomputer theoretisch effizient lösen können. Ein bekanntes Beispiel ist die Faktorisierung großer Zahlen in Primfaktoren, die für herkömmliche Computer als zu kompliziert gilt. Dies ist grundlegendes Wissen für viele Verschlüsselungssysteme, die wir für unsere Online-Kommunikation nutzen. Shors Algorithmus beeindruckte mich ungemein; es war eine der spannendsten Ideen, die ich je gehörte habe, und ich wollte sie vertiefen.
Was hat zu diesem Karrierewechsel geführt? Bis zu diesem Zeitpunkt waren Sie als Teilchenphysiker und Kosmologe tätig.
Ich wurde teilweise durch die Schließung des supraleitenden Supercolliders im Jahr 1993 motiviert. Dieser Partikelbeschleuniger hätte sogar leistungsfähiger sein können als der Large Hadron Collider am CERN. Die Einstellung des Projekts aus finanziellen Gründen war frustrierend und ließ mich offen für neue Herausforderungen. In dieser Phase stieß ich auf Shors Algorithmus.
Feynman äußerte seine Gedanken zu Quantencomputern in den frühen 80ern, und dennoch haben wir bis heute keine leistungsstarken Quantencomputer. Weshalb ist das so?
Wir verfügen bereits über Quantencomputer, aber ihre Fähigkeiten sind noch begrenzt. Das Problem liegt darin, dass die Quantensysteme, die wir zur Speicherung und Verarbeitung nutzen, mit der Umgebung interagieren, was zu Informationsverlust führt. Für fehlerfreie Berechnungen müssen Quantencomputer nahezu vollständig von der Außenwelt isoliert werden, was äußerst schwierig ist, da unsere Hardware alles andere als perfekt ist, und das wird sie auch niemals sein.
Befinden wir uns in der Ära des sogenannten Noisy Intermediate-Scale Quantum Computing. Was kann man mit diesen etwa hundert fehleranfälligen Quantenbits tatsächlich tun?
2019 hat Google nachgewiesen, dass ein Quantencomputer einen klassischen Computer bei einem bestimmten Problem übertreffen kann. Jedoch erinnert uns der Begriff ‘noisy’ daran, dass diese Systeme nicht fehlerkorrigiert sind und das Rauschen eine Grenze darstellt, wie viele Berechnungen durchgeführt werden können, bevor wir zu einer brauchbaren Antwort gelangen. Um praktisch nutzbare Anwendungen zu haben, brauchen wir Quantencomputer mit Fehlerkorrektur.
Wie sieht der aktuelle Stand aus?
Wir machen Fortschritte. Die Fehlerkorrektur ist darauf ausgelegt, die