
Skalowanie laboratorium: Eksperymentalna droga od spinów jądrowych do obwodów nadprzewodzących
Od teorii do fizycznej rzeczywistości
Historia obliczeń kwantowych często kojarzy nam się z czystą teorią – algorytmami Shora czy Grovera zapisanymi na tablicach w latach 90. Jednak dla inżynierów i fizyków doświadczalnych prawdziwa walka toczyła się w laboratoriach, gdzie próbowano okiełznać naturę, by stworzyć pierwszy działający kubit. Droga ta prowadziła od egzotycznych eksperymentów z rezonansem magnetycznym po dzisiejsze potężne procesory kwantowe oparte na nadprzewodnictwie.
Era NMR: Komputery kwantowe w probówkach
Pod koniec lat 90. XX wieku pierwsze sukcesy w implementacji algorytmów kwantowych nie pochodziły z zaawansowanych nanotechnologii, lecz z dziedziny dobrze znanej medycynie – jądrowego rezonansu magnetycznego (NMR). Naukowcy tacy jak Isaac Chuang i Neil Gershenfeld wykorzystywali spiny jądrowe wewnątrz cząsteczek cieczy jako kubity.
W 2001 roku IBM ogłosił historyczny sukces: wykorzystując 7-kubitowy komputer NMR, udało się rozłożyć liczbę 15 na czynniki pierwsze (3 i 5) za pomocą algorytmu Shora. Choć był to kamień milowy, metoda NMR miała fundamentalną wadę – skalowalność. Wraz ze wzrostem liczby kubitów, sygnał stawał się coraz słabszy, co uniemożliwiało budowę systemów większych niż kilkanaście kubitów.
Pułapki jonowe i zimne atomy
Równolegle do eksperymentów z cieczami, inni badacze skupili się na izolowaniu pojedynczych jonów w próżni za pomocą pól elektromagnetycznych. Metoda pułapek jonowych, rozwijana m.in. przez Christophera Monroe i Davida Winelanda, pozwoliła na uzyskanie niezwykle wysokiej precyzji operacji bramkowych i długich czasów koherencji. To właśnie w tej technologii upatrywano szansy na stabilne systemy kwantowe, jednak wyzwania związane z manipulacją setkami laserów jednocześnie zmusiły inżynierów do poszukiwania bardziej „przemysłowych” rozwiązań.
Rewolucja w ciele stałym: Obwody nadprzewodzące
Przełom nastąpił, gdy świat nauki zwrócił się ku fizyce ciała stałego. Zamiast polegać na naturalnych atomach, inżynierowie zaczęli projektować „sztuczne atomy” przy użyciu obwodów nadprzewodzących. Kluczowym elementem stało się złącze Josephsona – cienka warstwa izolatora między dwoma nadprzewodnikami.
Dlaczego ta technologia wygrała wyścig o skalowalność w ostatniej dekadzie? Oto główne powody:
- Litografia: Obwody nadprzewodzące można produkować przy użyciu technik podobnych do tych stosowanych w klasycznych procesorach krzemowych.
- Kontrola: Kubity te są sterowane impulsami mikrofalowymi, co pozwala na wykorzystanie istniejącej infrastruktury telekomunikacyjnej.
- Szybkość: Operacje na kubitach nadprzewodzących są o rzędy wielkości szybsze niż w przypadku pułapek jonowych.
Współczesność: Od „Sycamore” do „Osprey”
Dziś liderzy tacy jak Google czy IBM stawiają niemal wyłącznie na architekturę nadprzewodzącą. W 2019 roku procesor Sycamore od Google ogłosił „kwantową supremację”, wykonując w 200 sekund zadanie, które klasycznemu superkomputerowi zajęłoby tysiące lat. Z kolei IBM systematycznie zwiększa liczbę kubitów, przekraczając barierę 400 jednostek w procesorze Osprey.
Choć droga od spinów jądrowych w cieczach do wielkich chłodziarek rozcieńczalnikowych była długa i wyboista, historia ta pokazuje niesamowitą adaptacyjność myśli inżynierskiej. Kolejnym etapem nie jest już tylko zwiększanie liczby kubitów, ale wprowadzenie korekcji błędów (Quantum Error Correction), co ostatecznie zamknie erę eksperymentalną i otworzy drzwi do praktycznych zastosowań komercyjnych.
