Sie sind hier: Home > Technologie > Google kündigt Leistungssprung bei Quantencomputer an

Google kündigt Leistungssprung bei Quantencomputer an

Quantencomputer sind die Zukunft, allerdings bislang für den Einsatz in der Praxis kaum geeignet, weil sie eine zu hohe Fehlerquote haben. Ein Spezialchip von Google soll eine Wende bringen.

Google ist nach eigenen Angaben ein entscheidender Schritt zur Überwindung einer der grössten Herausforderungen im Quantencomputing gelungen. Mit dem neuen Spezialchip «Willow» wurde offenbar der Weg für die Entwicklung praktisch nutzbarer Quantencomputer geebnet.

In einer Studie im Fachblatt «Nature» berichtete ein Team um den Informatiker Hartmut Neven, Gründer und Leiter des Quantum Artificial Intelligence Laboratory von Google, dass zum ersten Mal eine Quantenfehlerkorrektur mit Fehlerraten unter einem relevanten Schwellenwert erreicht wurde. Die Fehlerkorrektur ist entscheidend für die Entwicklung von skalierbaren und anwendbaren Quantencomputern.

Quantencomputer können mathematische Probleme sehr viel schneller lösen als bisherige Computer, beispielsweise beim Verschlüsseln von Daten, in der Materialforschung oder beim maschinellen Lernen für Anwendungen Künstlicher Intelligenz. Die bereits entwickelten Systeme sind jedoch zu klein und machen zu viele Fehler, um einen Mehrwert zu liefern. Problematisch ist auch, dass bislang mit zusätzlichen Recheneinheiten («Qubits») die Fehlerquote ansteigt.

Bündelung der Recheneinheiten

Um dieses Problem in den Griff zu bekommen, fasste das Google-Team mehrere fehleranfällige physikalische Qubits zu einem weniger fehleranfälligen logischen Qubit zusammen. Für die Demonstration dieses Zusammenhangs verwendete die Forscherinnen und Forscher den neu entwickelten Quantenprozessor «Willow».

Neven und sein Team betonen, mit der verwendeten Methode und dem neuen Chip seien skalierbare, fehlerkorrigierte Quantencomputer möglich. Allerdings merken die Forschenden auch an, dass die erzielte Fehlerrate weiterhin nicht für einen anwendbaren Quantencomputer ausreiche. Das Team rechnet damit, dass sie für zufriedenstellende Raten deutlich mehr physikalische Qubits bräuchten. Der Einsatz von mehr Qubits mit der verwendeten Methode werde ausserdem zu einer längeren Rechenzeit führen.

Weg ist noch weit

Michael Hartmann, Professor für Theoretische Physik an der Friedrich-Alexander-Universität Erlangen-Nürnberg, lobt die wissenschaftliche Qualität der Arbeit. Zu beachten sei jedoch, dass ein fehlertolerantes Rechnen von den Autoren an die Bedingung geknüpft worden sei, dass es gelinge, die Ergebnisse zu deutlich grösseren Qubit-Zahlen zu skalieren.

«Mit der derzeitigen Qualität von Qubits wird man 100’000 bis eine Million Qubits benötigen, um grosse, fehlertolerante Rechnungen durchführen zu können, die für klassische Supercomputer jenseits des Möglichen sind», so Hartmann. In der vorliegenden Arbeit würden Ergebnisse eines Chips mit 105 Qubits präsentiert. «Damit wird ersichtlich, wie weit der Weg noch ist.»(dpa)