Google, einer der Hauptakteure in der Quantencomputing-Forschung, hat gerade seinen neuen Chip namens vorgestellt Weide. Dieser aus 105 Qubits bestehende supraleitende Chip bietet eine beispiellose Leistung und wäre in der Lage, Fehler exponentiell zu reduzieren und damit eine der größten Fallstricke des Quantencomputings zu lösen. Genug, um wirklich den Weg für eine neue Ära zu ebnen, auch wenn noch ein langer Weg vor uns liegt.
Qubit- und Quantenfehler: Worüber reden wir?
Und QubitKontraktion von „wie viel„ (oder „Quantenbit“) ist die Grundeinheit der Quanteninformation. Anders als ein klassisches Bit, das nur die Werte 0 oder 1 annehmen kann, kann sich ein Qubit in einer Überlagerung dieser beiden Zustände befinden. Diese einzigartige Eigenschaft ermöglicht es Quantencomputern, eine exponentielle Anzahl von Möglichkeiten gleichzeitig zu erkunden und ebnet so den Weg für beispiellose Rechenkapazitäten.
Leider sind Qubits äußerst fragile Systeme und empfindlich gegenüber Störungen in ihrer Umgebung. Quantenfehler, wie z. B. Fehler von Bit-Flip (Umschalten eines Qubits von einem Zustand in einen anderen), Phasenumkehr (Änderung der relativen Phase zwischen zwei Zuständen eines Qubits), Leckage (Kontroll- oder Messfehler, die das Qubit unbrauchbar machen) oder Dekohärenz (Verlust von Quanteninformationen im Laufe der Zeit) können auftreten und die in Qubits gespeicherten Informationen verändern, was die Zuverlässigkeit von Qubits beeinträchtigt Berechnungen.
Willow: ein riesiger Fortschritt bei der Fehlerkorrektur
Willows wahre Stärke liegt gerade in ihrer Fähigkeit, a umzusetzen Quantenfehlerkorrektur effektiv. Die seit fast 30 Jahren theoretisierte Technik zielt darauf ab, Quanteninformationen zu schützen, indem physikalische Qubits in Netzwerken namens „Oberflächencodes“ gruppiert werden. Jeder Oberflächencode verwendet ein quadratisches Array von Qubits, um ein robusteres logisches Qubit zu bilden. Die Theorie sagt voraus, dass das logische Qubit umso besser geschützt und die Leistung umso besser ist, je größer der Oberflächencode ist.
Allerdings bedeutet die Vergrößerung des Netzwerks auch eine Erhöhung der Fehlermöglichkeiten. Willow markiert einen Durchbruch, indem es die exponentielle Fehlerunterdrückung mit zunehmender Größe des Oberflächencodes demonstriert. Das heißt, jedes Mal, wenn die Netzwerkgröße erhöht wird, wird die codierte Fehlerrate geteilt. Diese Ergebnisse bestätigen theoretische Vorhersagen und beweisen, dass eine Quantenfehlerkorrektur tatsächlich möglich ist. Damit wird Willow zum ersten wirklich überzeugenden skalierbaren logischen Qubit-Prototyp, der in der Lage ist, die Einschränkungen seiner physikalischen Komponenten zu überwinden.
Erstaunliche Leistung im Vergleich zu herkömmlichen Supercomputern
Um die Leistung von Willow zu bewerten, verwendete Google einen Standard-Benchmark namens RCS (Zufallsstichprobeoder „Random Circuit Sampling“). Dabei werden auf einem Quantenprozessor zufällige Quantenschaltungen ausgeführt, die aus Quantengattern bestehen, die in beliebiger Reihenfolge angewendet werden. Der Prozessor erzeugt dann eine Reihe von Ergebnissen, die den Messungen der Qubits am Schaltkreisausgang entsprechen. Die Schwierigkeit für klassische Computer besteht darin, diese Zufallsschaltungen zu simulieren und die Wahrscheinlichkeitsverteilung der Messergebnisse nachzubilden.
Dieser Test gilt als einer der schwierigsten für klassische Computer und ermöglicht einen effektiven Vergleich der Fähigkeiten von Quantencomputern mit denen von Supercomputern. Und die von Willow erzielten Ergebnisse sind erstaunlich: Der Chip führte eine Berechnung in weniger als fünf Minuten durch, die dauern würde 10 Septillionen Jahre (also 1025 Jahre, also eine 1 gefolgt von 25 Nullen) zu einem der leistungsstärksten aktuellen Supercomputer. Diese Zahl, die das Alter des Universums bei weitem übersteigt, verdeutlicht auf dramatische Weise das Potenzial des Quantencomputings.
Willow gilt als der bisher leistungsstärkste Chip, sowohl hinsichtlich der Fehlerkorrektur als auch der RCS-Benchmark-Leistung. Die Zeiten von Konsistenzdie messen, wie lange Qubits ihren Quantenzustand beibehalten können, wurden ebenfalls erheblich verbessert und erreichen fast 100 Mikrosekunden. Diese Leistungen bestätigen, dass das Quantencomputing in eine neue Ära eintritt, in der Rechenkapazitäten für herkömmliche Maschinen und „binäres“ Computing unzugänglich sind.
Lesen Sie auch: Treffen mit Eleni Diamanti, der Quantenkryptographie-Expertin in Frankreich
Auf dem Weg zu konkreten Anwendungen des Quantencomputings?
Trotz dieser Fortschritte ist der Weg zu konkreten Quantenanwendungen noch lang. Die nächste Herausforderung für das Fachgebiet besteht darin, nützliche erste Berechnungen auf aktuellen Quantenchips zu demonstrieren, die für die Anwendung in der realen Welt relevant sind. Bisher konzentrierten sich die Experimente auf Benchmarks wie RCS, die die synthetische Leistung im Vergleich zu klassischen Computern messen, von denen jedoch keine praktischen Anwendungen bekannt sind, oder auf Simulationen von Quantensystemen, die wissenschaftlich interessant sind, aber auf herkömmlichen Computern in angemessener Zeit möglich sind.
Das Ziel besteht nun darin, diese beiden Aspekte zu kombinieren: Algorithmen zu schaffen, die für klassische Computer unzugänglich sind und gleichzeitig für konkrete Probleme nützlich sind. Google ist optimistisch, dass die Chip-Generation Willow dieses Ziel erreichen kann. Das Unternehmen fördert außerdem Zusammenarbeit und Innovation, indem es seine Open-Source-Software und Bildungsressourcen Forschern, Ingenieuren und Entwicklern zur Verfügung stellt.
Lesen Sie auch: OVHCloud weiht auf seinem Croix-Standort seinen ersten Quantencomputer ein: Wofür wird er verwendet?
???? Um keine Neuigkeiten von 01net zu verpassen, folgen Sie uns auf Google News und WhatsApp.
Quelle :
Google Quantum AI