Scharakteryzowanie i optymalizacja obliczeń kwantowych wykonywanych przez kubity, czyli podstawowe jednostki komputera kwantowego, to zadanie, jakie postawili przed sobą polscy fizycy i informatycy, zrzeszeni w projekcie TEAM-NET, kierowanym przez prof. Marka Kusia. Na jego realizację otrzymali od Fundacji na rzecz Nauki Polskiej dofinansowanie w wysokości ponad 17 mln zł.
W używanych na co dzień komputerach dane są zapisywane w systemie binarnym, czyli poprzez sekwencje bitów, z których każdy znajduje się w jednym z dwóch stanów: 0 lub 1. Grupy takich bitów są przesyłane między różnymi podzespołami jednego komputera lub też między różnymi komputerami w sieci. Co istotne, komputer klasyczny wykonuje operacje w określonej kolejności, jedna po drugiej, i nie jest w stanie wykonywać kilku czynności jednocześnie. Dlatego im bardziej złożone jest zadanie, tym dłużej trwa szukanie rozwiązań, a do rozwiązania wielu ze współczesnych problemów moc obliczeniowa klasycznych komputerów jest już wręcz niewystarczająca.
– Komputery kwantowe pozwolą rozwiązywać skomplikowane problemy z wielu dziedzin nauki i przemysłu dużo szybciej i efektywniej niż najlepsze komputery klasyczne. W ciągu kilka sekund potrafią one wykonać obliczenia, które komputerowi klasycznemu mogą zająć nawet kilka lat – tłumaczy prof. Marek Kuś z Centrum Fizyki Teoretycznej PAN w Warszawie, czyli ośrodka będącego liderem projektu TEAM-NET.
Wszystko dlatego, że w komputerach kwantowych informacje zapisywane są w kubitach (od angielskiego quantum bit). Kubit od zwykłego bitu różni się tym, że nie ma ustalonej wartości 0 lub 1, ale zgodnie z zasadami mechaniki kwantowej znajduje się w stanie pośrednim, nazywanym superpozycją. Oznacza to, że jednocześnie znajduje się i w stanie 0, i w stanie 1. A zatem kubit niesie w sobie znacznie więcej informacji niż zero-jedynkowy bit. Na dodatek kubity mogą być ze sobą splątane: dwa kubity to już cztery splątane ze sobą wartości, trzy kubity – osiem wartości, itd. Stanów pojedynczych kubitów nie można traktować jako niezależnych, bo zmiana jednego wpływa na wszystkie pozostałe. Właśnie dzięki splątaniu kubitów, komputer kwantowy może wykonywać obliczenia na wszystkich wartościach jednocześnie, co daje mu potężną moc obliczeniową. Choć sprawa komplikuje się z uwagi na konieczność „odczytania” wyników takiego obliczenia, co nieuchronnie niszczy stan kwantowy.
Komputer kwantowy, gdy już powstanie, pozwoli na błyskawiczne wyszukiwanie potrzebnych informacji w ogromnych ilościach danych oraz umożliwi przeprowadzanie najbardziej skomplikowanych, wielopłaszczyznowych symulacji z nieograniczoną liczbą czynników. Technologia ta z pewnością znajdzie zastosowanie w naukach o życiu, medycynie i przemyśle farmaceutycznym, gdzie posłuży do odkrywania nowych leków. Innym sektorem oczekującym na powstanie komputerów kwantowych jest bankowość i cała branża finansowa, która skorzysta m.in. na możliwości doskonałego symulowania zachowań giełdy.
– W tej chwili nie możemy jednak określić, kiedy powstanie komputer kwantowy. Wciąż mierzymy się z wieloma bardzo poważnymi ograniczeniami i nie wiadomo, kiedy uda się je przezwyciężyć. Konstrukcja działającego komputera kwantowego jest niezwykle trudna choćby ze względu na nieunikniony wpływ szumu i dekoherencji układów kwantowych – podkreśla prof. Kuś.
Chodzi o to, że kubity są bardzo niestabilne i ekstremalnie wrażliwe na wpływ otoczenia. Nawet najdrobniejsze wahania temperatury, hałasu, ciśnienia czy pola magnetycznego mogą prowadzić do wybicia kubitów ze stanu współzależnych superpozycji, czyli do zjawiska określanego przez fizyków jako dekoherencja. Jeśli kubity nie utrzymują stanu superpozycji, dochodzi do błędów w obliczeniach, a im więcej kubitów połączymy, tym więcej takich błędów będzie generowanych. Obecnie kubity mogą utrzymać swój stan kwantowy tylko przez około 100 mikrosekund, zanim dojdzie do dekoherencji. Z tego powodu komputery kwantowe muszą znajdować się w specjalnie przygotowanym środowisku. Wymagają m.in. chłodzenia na poziomie temperatury bliskiej zera bezwzględnego oraz umieszczenia w wysokiej próżni, pod ciśnieniem 10 mld razy niższym niż ciśnienie atmosferyczne.
– Oznacza to, że komputery kwantowe szybko nie zagoszczą w naszych domach czy biurach. W niedalekiej przyszłości możemy się spodziewać natomiast urządzeń zbudowanych z niewielu niedoskonałych kubitów. Nasz projekt ma na celu scharakteryzowanie mocy obliczeniowej i zbadanie możliwych praktycznych zastosowań takich urządzeń. Skupiać się będziemy nie na budowie samego urządzenia, ale na przetestowaniu jego oprogramowania i scharakteryzowaniu algorytmów, które zoptymalizują jego działanie. Aby zrealizować ten cel, utworzymy sieć współpracujących ze sobą czterech grup badawczych, zajmujących się nowatorskimi aspektami obliczeń kwantowych: kwantowym uczeniem maszynowym, kontrolą złożonych układów kwantowych, kwantową korekcją błędów i problemem identyfikacji zasobów odpowiedzialnych za tzw. przyspieszenie kwantowe” – precyzuje prof. Marek Kuś.
W skład konsorcjum naukowego wchodzą, oprócz Centrum Fizyki Teoretycznej PAN w Warszawie, także Wydział Nauk Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Jagiellońskiego oraz Instytut Informatyki Teoretycznej i Stosowanej PAN w Gliwicach.
Źródło: FNP