Poskromić kwanty

W porównaniu do komputerów kwantowych nawet najpotężniejszy superkomputer jest śmiesznie słaby. A my właśnie się uczymy budować takie maszyny

Idea komputera kwantowego narodziła się z rozważań, co się stanie, kiedy tradycyjne komputery dojdą do granic swoich możliwości.


Przeczytaj też: Prawo Moore'a. Samospełniająca się przepowiednia?

Elementy procesorów są coraz bardziej miniaturyzowane i - jeśli ta tendencja się utrzyma - w ciągu 15, najdalej 20 lat ich rozmiary będą porównywalne z wielkością pojedynczych atomów. A wtedy staną się nieprzewidywalne, bo zaczną podlegać zasadom fizyki kwantowej.

One zaś wydają się całkiem zwariowane dla zwykłego śmiertelnika. Gdy astronom chce w środku nocy spojrzeć na Jowisza, sprawdza w tablicach jego aktualne położenie, synchronizuje z nim lunetę i ma pewność, że tam go znajdzie. Z elektronem w atomie takiej pewności nie ma. Nie ma on ustalonej orbity, po której krąży wokół jądra - można go znaleźć jednocześnie w różnych miejscach wewnątrz atomu.

Szalone komputery?

Dla komputera klasycznego taka niepewność oznacza porażkę. Dzisiejsze komputery przetwarzają informację zapisaną w postaci ciągu zer i jedynek, czyli bitów. Podstawowymi cegiełkami elektronicznej maszyny są bramki logiczne. Może ona zmienić przechodzący przez nią bit (z zera na jedynkę lub na odwrót) albo zostawić go bez zmiany. Typowy pecet zawiera ogromnie skomplikowany zespół setek tysięcy takich bramek.

Wyobraźmy sobie teraz, że bramki mają naturę kwantową, a więc nigdy nie wiadomo z góry, co się stanie z bitem. Co gorsza sam bit może mieć nieustaloną wartość - jeden lub zero. Praca takiego komputera przypominałaby picie herbatki u Szalonego Kapelusznika z "Alicji w Krainie Czarów". Albo maszynę losującą w lotto. Nikt nigdy by nie wiedział, w jaki sposób działa i jaki wynik pokaże.

W latach 80. zeszłego wieku kilku fizyków wpadło na pomysł, jak tę słabość obrócić w siłę. W ich głowach narodziła się wtedy idea komputera kwantowego operującego na kwantowych bitach, czyli kubitach. Prawdopodobnie jako pierwszy opisał go w 1985 roku David Deutsch z Oksfordu (warto jednak wiedzieć, że pochodzący z Torunia, niedawno zmarły polski fizyk Roman Ingarden w 1976 roku opublikował artykuł pod tytułem "Quantum Information Theory", w którym przypuszczalnie po raz pierwszy został użyty termin "kwantowa teoria informacji").

Fot. M.S. Allman/NIST
Obwód nadprzewodzący opracowany przez naukowców z NIST. Qubit jest zaznaczony na różowo, zielony obszar transportuje informacje, a fioletowy - umożliwia ich interakcje. Fot. M.S. Allman/NIST

Kubit zgodnie z prawami mikroświata nie ma ustalonej wartości jeden albo zero. Przyjmuje obie te wartości jednocześnie, tak jak elektron, który w atomie występuje w wielu miejscach naraz. Albo jak foton - cząstka światła - która może w tym samym momencie podążać do celu dwiema różnymi drogami.

Skoro kubit może mieć dwie różne wartości, to może da się go wykorzystać w dwóch różnych rachunkach (operacjach) jednocześnie? Dlaczego nie, to możliwe! Trzeba tylko napisać odpowiedni algorytm. Dwa kubity dają możliwość prowadzenia czterech operacji naraz, trzy kubity - ośmiu, cztery - 16 i tak dalej. Wartości rosną tak jak kolejne potęgi dwójki, szybko osiągając astronomiczne liczby równolegle prowadzonych obliczeń (już dla 300 kubitów przekraczają one liczbę cząstek elementarnych we Wszechświecie).

W podobnym rachowaniu równoległym tkwi właśnie siła komputerów kwantowych. Klasyczne komputery i procesory często wykorzystuje się do pracy równoległej, by zwielokrotnić ich możliwości. Ale w przypadku komputera kwantowego mowa jest o gigantycznej, praktycznie nieskończonej liczbie prowadzonych równolegle operacji.

Taki komputer miałby wielką przewagę nad dzisiejszymi, nawet najbardziej potężnymi maszynami. W ciągu sekund powinien poradzić sobie z obliczeniami, które zajęłyby współczesnym komputerom setki czy tysiące lat.

Jeden taki algorytm

Nie ma jednak róży bez kolców. Istnieją dwa fundamentalne ograniczenia. Po pierwsze, nie dla każdego problemu da się znaleźć algorytm, który korzysta z zalety "wash and go", czyli dwóch [rachunków] w jednym [kubicie]. Właściwie dotąd znany jest praktycznie tylko jeden taki kwantowy algorytm, który wymyślił Peter Shor z AT&T Bell Labs w Murray Hill w 1994 roku.

Jeden, ale za to jaki! Shor podał przepis, jak za pomocą komputera kwantowego szybko rozkładać bardzo duże liczby na iloczyny liczb pierwszych (to te, które dalej dzielą się już tylko przez jeden lub przez samą siebie).

Dlaczego jest to przydatne? Bo klucze do najbardziej strzeżonych współczesnych szyfrów opierają się na bardzo dużych liczbach i na pewności, że nawet najszybsze współczesne komputery nie radzą sobie z ich rozkładem w rozsądnym czasie, to jest przed upływem wielu lat. Tymczasem komputer kwantowy mógłby to zrobić w mgnieniu oka, łamiąc praktycznie wszystkie systemy kryptograficzne używane obecnie na co dzień w transakcjach bankowych, komunikacji, armii. Można wyobrazić sobie chaos, jaki zapanowałby na świecie.

Ale na razie chaos do światowej gospodarki wprowadzają tylko Grecy, bo chwilowo kwantowy algorytm Shora nie ma na czym działać. Stworzenie komputera kwantowego jest powstrzymywane przez drugi istotny czynnik - wrażliwość układów kwantowych na zniszczenie, co fizycy nazywają dekoherencją.

Qubit zmienia swój stan pod wpływem pomiaru. Skany z mikroskopu elektronowego. Fot. Science
Qubit zmienia swój stan pod wpływem pomiaru. Skany z tomografu. Fot. Science

Żeby kubity prowadziły równoległe rachunki, nic nie może zakłócać ich pracy, ale zapewnienie im spokoju nie jest proste. Zwłaszcza że chcemy mieć większą liczbę kubitów niż jeden. W praktyce oznacza to odizolowanie ich od otoczenia, a więc umieszczenie w próżni albo zamrożenie w temperaturze niemal zera bezwzględnego (żeby uniknąć chaotycznych drgań cieplnych). Z drugiej strony, w pewnym momencie chcemy przecież poznać wynik obliczeń, a więc musimy brutalnie ingerować w układ kwantowy. Spełnienie tych sprzecznych warunków nie jest łatwe.

Dlatego wciąż jeszcze w sklepach królują tradycyjne pecety i maki

Pierwsza jaskółka...

Cztery lata temu kanadyjska firma D-Wave Systems Inc. pokazała ponoć pierwszy na świecie komputer kwantowy. Spotkało się to z niedowierzaniem. Do dziś trwa dyskusja, czy to jest faktycznie przedstawiciel świata maszyn, których powstanie wieszczył w 1985 roku David Deutsch. Problem w tym, że komputer D-Wave miał tylko 16 kubitów, więc w żaden sposób nie mógł wykazać swojej przewagi (potrafił tylko rozwiązać najprostsze sudoku, co z pewnością nie jest wielkim osiągnięciem). W tym roku firma wypuściła już wersję 128-kubitową (i oferuje na sprzedaż za 10 milionów dolarów), ale wciąż wielu naukowców podejrzewa, że w działaniu niczym się ona nie różni od tradycyjnych maszyn.

Mimo to amerykański koncern zbrojeniowy Lockheed Martin ogłosił pod koniec maja, że kupił od D-Wave jeden z kwantowych systemów komputerowych (nie podano za ile). A jeśli za coś zabiera się wojsko, żarty się skończyły.

fot. D-Wave Systems Inc. 2011
Pierwszy komercyjny procesor kwantowy / fot. D-Wave Systems Inc. 2011

 

Jakie zadania przerastają współczesne komputery?

Dla wielu problemów znany jest algorytm, ale jest on bardzo powolny albo wymaga niezwykle obszernej pamięci. I wcale nie wystarczy zbudować szybszy i lepszy komputer, bo złożoność obliczeń postępuje szybciej niż rozwój możliwości elektronicznych maszyn.
Tak jest w przypadku problemu dręczącego komiwojażera - jaką ma wybrać trasę, która łączy odwiedzane przez niego miasta, żeby jej długość była minimalna. To nie jest banalny problem, gdyż tylko w przypadku 15 największych niemieckich miast tras, jakie komiwojażer ma do wyboru, jest aż 43.589.145.600. W tym wypadku komputer poradził sobie z rachowaniem i wyborem najlepszego szlaku spośród miliardów. Ale przy zwiększaniu liczby miast problem szybko staje się nie do rozwikłania - obliczenia wykonywane przez najszybsze superkomputery zajęłyby więcej czasu, niż wynosi wiek Wszechświata.
Nie chodzi tylko o ułatwienie logistyki. Problem komiwojażera to ilustracja całej grupy podobnych zagadnień - wytyczania najbardziej efektywnych połączeń tranzystorów i innych elektronicznych elementów na czipie czy też sekwencjonowania DNA. Do tego rodzaju problemów należy też możliwość łamania współczesnych szyfrów, które chronią dostęp do naszych kont bankowych i kart kredytowych.

Piotr Cieśliński jest redaktorem działu naukowego w "Gazecie Wyborczej".

Zobacz także:

Spintronika / fot. Science
Spintronika. Komputery bez tranzystorów - małe, szybkie i energooszczędne

Więcej o: