Živahen teden na področju kvantnega računalništva
Jurij Kristan
6. okt 2020 ob 07:22:20
IonQ in Honeywell sta naznanila novo generacijo svojih kvantnih računalnikov na podlagi tehnologije ujetih ionov, z nekajkrat povečanim kvantnim volumnom glede na lansko leto. Novo generacijo kvantnega simulatorja imajo tudi pri D-Wavu, medtem ko so v IBMu začrtali časovnico do prek tisočkubitnega stroja v letu 2023.
Trenutno uradne rekorde v razvoju kvantnih računalnikov še vedno držijo stroji na osnovi transmonov, kjer so fizična reprezentacija kubitov superprevodne zanke. Po tej poti gredo v Googlu, IBMu, Rigettiju in še nekaterih vidnih igralcih s tega področja, za jakostno lestvico pa najraje uporabljajo število delujočih kubitov v napravi. Toda transmoni so močno občutljivi na motnje, zato je takšna postavka varljiva. Nemajhen del kubitov je namreč potrebno nameniti popravljanju napak, obenem pa zmogljivost niža tudi omejeno število možnih povezav med njimi, kar krni kompleksnost algoritmov, ki jih je mogoče za takšen računalnik spisati. Zato so v IBMu pred tremi leti zasnovali kvantni volumen - mersko enoto, ki vključuje tudi takšen drobni tisk. V grobem povedano: kvantni volumen raste ne le s številom kubitov, temveč tudi z njihovo povezljivostjo in odpornostjo na motnje.
Letošnjega marca so pojem pompozno uporabili pri Honeywellu, ko so se vključili v tekmo za razvoj splošnega kvantnega računalnika. Razlog za to je dejstvo, da sami uporabljajo reprezentacijo kubitov z ujetimi ioni, ne transmoni. Ta tehnologija je po golem številu uporabljenih kubitov kakšno leto ali dve za tisto s superprevodnimi zankami, toda takšne kubite je med seboj lažje povezovati in so manj občutljivi na motnje, posledično pa seveda lahko ponudijo večji kvantni volumen. V Honeywellu so spomladi na razpolago dali stroj z volumnom 32, medtem ko so za poletje napovedali takšnega s 64. V juniju jim je to zares uspelo, pred dnevi pa so objavili, da so prišli do volumna 128. Tako zaenkrat držijo obljubo glede napovedi, da naj bi bili sposobni kvantni volumen podvojevati na vsake pol leta.
Da pa je to še vedno zgolj eksperimentalen pojem in ne vsesplošno sprejet kriterij, kaže primer najnovejše naprave firme IonQ. Tudi oni uporabljajo ujete ione, in sicer stroj z 32 kubiti. Toda ti naj bi bili tako zelo zanesljivi in povezljivi, da naj bi izračun kvantnega volumna skočil kar do štirih milijonov! Zato se tudi sami sprašujejo, ali ni morda že čas, da se ta "merska enota" pošteno redefinira. Je pa potrebno omeniti, da mašine še niso natančneje popisali v znanstvenem članku ali je dali v javno rabo, zato ima strokovna javnost o trditvah glede "najzmogljivejšega kvantnega računalnika ta hip" še resne dvome. V IonQju pravijo, da bo zadeva v prvih mesecih prihodnjega leta na voljo v Microsoftovem in Amazonovem oblaku, predvsem pa tudi oni trdijo, da so spodobni na šest do osem mesecev podvojevati število razpoložljivih kubitov. Obenem so objavili še pristop za popravljanje napak pri ujetih ionih. Predvidevajo, da bi lahko nekje v roku dveh let prišli do stopnje, ko bodo na teh napravah lahko "začeli obravnavati zanimive probleme", okoli leta 2025 pa nemara pričeli tudi z reševanjem praktičnih izzivov, ki so klasičnim računalnikom nedosegljivi.
Seveda tudi glavni tekmeci s transmoni ne počivajo, kar so sredi septembra poudarili pri IBMu in najavili predvideno časovno premico razvojne poti do 1121-kubitnega procesorja Condor. Mejnik naj bi jim uspel v letu 2023, na poti do njega pa jih skozi več vmesnih stopenj - čipa Eagle in Osprey - čaka več zelo zaguljenih tehnoloških izzivov. Z rastjo števila kubitov hitro raste tudi količina kontrolnih vezij zanje, ki so vsako zase možna vstopna pot za motnje. Ker morajo biti superprevodne zanke ohlajene na dobro stotinko kelvina, postajajo skladno z rastjo čipov bolj zapleteni tudi hladilniki. In nenazadnje - za dobro delovanje s čimmanj napakami si morajo biti ti elementi fizično res zelo podobni, kar pa v proizvodnji polprevodnikov, kjer so napravljeni, ni vedno pravilo. IBM sicer trenutno operira s 65-kubitnim čipom Hummingbird, inženirji pa menijo, da bodo na poti do procesorja Condor lahko razvili večino tehnologij, ki so potrebne za skokovito večanje takšnih čipov do milijona kubitov. Tudi oni tako reševanje prvih prebojnih računskih problemov postavljajo v sredino desetletja.
Ob robu dogajanja pri splošnih kvantnih računalnikih velja omeniti tudi, da so v D-Wavu lansirali nov kvantni simulator z imenom Advantage, ki so ga sicer napovedali že lani. Za osvežitev spomina: D-Wave ne proizvaja kvantnih računskih strojev običajnega tipa, temveč tako imenovane quantum annealerje, kar bi lahko prevedli v kvantni simulator ali optimizator. Kubiti - ki so tudi tu implementirani s superprevodnimi zankami - namreč v teh strojih niso namenjeni poganjanju kvantnih algoritmov, temveč reševanju optimizacijskih problemov z iskanjem minimalnega energijskega stanja. Takšne naprave imajo torej precej ožjo namembnost, toda hkrati niso tako zelo občutljive na motnje. Če se napaka prikrade v cevovod splošnega kvantnega računalnika, je ves končni izračun zanič, pri kvantnem optimizatorju pa zgolj zmanjša natančnost končne rešitve. Advantage ima tako kar 5000 uporabnih kubitov, s 35.000 možnimi povezavami (prejšnja generacija je imela 2000 kubitov s 6000 povezavami). Tudi v D-Wavu so mnenja, da jih od zares praktično uporabnih naprav ločita vsaj še dve generaciji.
Ob robu so lansirali tudi novo programje za obdelavo podatkov, ki je zanimivo s stališča, da se posebej posveča spajanju procesiranja na kvantnih in klasičnih napravah. Treba je namreč vedeti, da bomo bržkone večino problemov reševali kombinirano, saj je preprosto preveč zamudno in potratno, da bi ves algoritem tekel na kvantnem računalniku, če pa ga lahko določen del oddela navaden. To še posebej velja za kvantne optimizatorje, ki imajo pravzaprav v tem trenutku še vedno docela primerljive inačice v svetu navadnih ničel in enic in na svoj trenutek kvantne premoči še čakajo.