ScienceDaily - Ekipa raziskovalcev z Univerze Yale poroča, da so uspeli pripraviti prvi enostavni trdni kvantni procesor, s čimer so sanje o kvantnem računalniku korak bliže. Za izvedbo rudimentarnih algoritmov, kot je enostavno iskanje, so uporabili dva superprevodna dvo-kubitna čipa. O uspehu piše tudi Nature.
Običajni procesorji za predstavitev podatkov in njihovo obdelavo uprabljajo dvoje stanj - vključeno ali 1 in izključeno ali 0. Dva bita tako lahko shranita naslednje informacije: 00, 01, 10 ali 11. Kvantni sistemi pa poznajo še eno stanje, ki se mu pravi superpozicija stanj, ko ima bit vse vrednosti hkrati. To obilno poveča količino informacij, ki jih lahko shranimo, in hitrost, s katero jih lahko obdelujemo. Slednje kvantni računalniki izvajajo z izkoriščanjem še enega kvantnega pojava, ki se imenuje kvantna prepletenost.
Ekipa teoretičnih fizikov je napravila dva umetna "atoma" oz. kubita, ki sta bila v resnici iz milijard aluminijevih atomov, a sta se vedla kot en atom, ki je zmožen superpozicije. Doslej je pripravo kvantnih računalnikov omejevala kratkoživost kubitov, ki so zdržali le nekaj nanosekund, kar je bilo premalo. Nov dosežek pa je nekaj milisekund, kar je že dovolj za izvedbo enostavnih algoritmov. Sedaj se bodo osredotočili na povezavo več kubitov in podaljšanje njihove življenjske dobe, da bi lahko pognali še kompleksnejše algoritme.
članka v wikipediji sta grozljiva. lahko kdo razloži kaj pomeni da "zdržijo" nekaj nanosekund? zakaj je problem povečati preživetje in kako to vpliva na računanje?
članka v wikipediji sta grozljiva. lahko kdo razloži kaj pomeni da "zdržijo" nekaj nanosekund? zakaj je problem povečati preživetje in kako to vpliva na računanje?
Bom poskusil povedati preprosto: Pri kvantnih računalnikih poteka srdit boj med dvema elementoma - kvantno dekoherenco in računskim časom. Slednji ni nič drugega, kot čas, ki ga porabiš, da opraviš vse potrebne operacije na tvojem sistemu. V tem času mora sistem nujno ostati koherenten, torej nekako morajo kvantne lastnosti, ki jih manifestirajo superpozicije stanj, zdržati dovolj dolgo časa. Sistem postane nekoherenten zaradi interakcij z okolico, ki jo v praksi ne moreš nikoli (popolnoma) izolirati od sistema.
Kako pa je kaj z algoritmi za tele kvantne procesorje? Nekje sem bral, da je tudi to bolj v povojih. Mislim na osnovne algoritme tipa seštej, večje/manjše/enako, množi, razvrsti itd...
Klasični algoritmi na kvantnem procesorju ne profitirajo ničesar. 5 + 10 tut na kvantnem procesorju potrebuje vsaj en cikel. Razvrsti (sort) je prvi tak klasičen problem, ki ima potencial da kej profitira ampak zopet s posebnim algoritmom, ki ne bazira na atomarnem primerjanju. Tuki bi mogoče "Criticall pristop" še najbol pomagal, ker smo v razvijanju teh kvantnih algoritmov še posebej (evolucijsko pogojeno) švoh.
Nism pa prepričan da bi lahko tak kvantni criticall uspešno laufal na klasični mašini.
No, Shoreov algoritem je baje že uspešno faktoriziral 15 na kvantnem računalniku, 4 qbitnem. Če bi imeli več qbitov, recimo milijon, potem bi lahko faktorizirali, da bi bilo veselje.
Plus še ene par reči mogoče. Ni posebne nuje po mojem, za takimi mašinami.
Ja v resnici znamo trenutno kvantne algoritme klasificirati v tri skupine, kjer imamo gain napram klasičnim: (1) Algoritmi, ki bazirajo na kvantni verziji Fourierove transformacije. Tak je npr. Shorov algoritem, ki se meni ne zdi preveč uporaben, res je pa, da ne poznam aplikativne rabe faktorizacije. Dobro RSA lahko razbijamo, samo to je itak useless, ker bomo potem zgolj prešaltali na kakšen drug enkripcijski postopek oziroma šli na kvantno izmenjavo ključev.
Aja, pa s kvantno verzijo DFT-ja si pri klasičnem DFT-ju (ki je verjetno najbolj vsestransko uporaben algoritem poleg kakšne diagonalizacije) nimamo kaj pomagati...
(2) Kvantno iskanje po neurejenem seznamu (Groverjev algoritem) - to se ne zdi švoh, vendar je speed-up tukaj le kvadratičen, ker je že klasični algoritem polinomski (oziroma linearen). (3) Simulacije kvantno-mehanskih sistemov. To se po pomojem dalo zelo lepo izrabiti. Pri klasičnih algoritmih namreč eksponentno napihovanje Hilbertovega prostora ponavadi onemogoča simulirati več kot nekaj deset spinov npr., kar je daleč premalo, da bi lahko prišli do željene TD limite ali vsaj izluščili nekate asimptotične vrednosti. Ravno v kvantnih simulacijah (trenutno se uporablja več tehnik, največkrat DMRG ali kvantni monte carlo) tiči razlog, zakaj je razvoj v domeni nanofizike tako hendikepiran.
Treba pa je omeniti še optimizacijske procese, ki imajo res močno aplikativno zalednje (sploh v machine learningu). Tu nam pride bolj na roko drugi koncept kvantnega računanje, t.j. adiabatno kvantno računanje. Na hitro zakaj gre:
Izmisliš si Hamiltonian, katerega osnovno stanje ustreza globalnemu minimumu neke "cost function" (kakšen je slovenski izraz, cenovna funkcija?). Tak fizikalni sistem si včasih ni težko zamislit in realizirat, bolj je problem kako priti v vakuumsko stanje. Zato postopaš takole... Izbereš si en "preprost" sistem, ki ga znaš inicializirati v osnovnem stanju in ga potem počasi modificiraš v željeni Hamiltonian, t.j. sistem, ki vsebuje rešitev. Če opraviš evolucijo dovolj počasi, je verjetnost, da "padeš ven" iz osnovnega stanja sistema zelo majhna. Torej na koncu pomeriš končno stanje in iz njega izračunaš konfiguracijo optimuma. To je ideja, v praksi pride v igro precej tehničnih detajlov, ki vplivajo na uspešost takega procesa. Vendar pozor, obstaja tudi "milejša" verzija takšnega računanja, ki za razliko od opisanega ni eksaktna (torej ni nujno, da smo med evolucijo cel čas v osnovnem stanju), pa še vedno da dobre rezultate - torej privede do dobri lokalnih minimumov. Tehniki se reče kvantno ohlajanje (quantum annealing). Mogoče se bo zadeva izkazala za praktično uporabno, vendar smo tudi tukaj še precej daleč od česa "konkretnega". DWAVE-ovci sicer trdijo, da so že sestavili 128 qubitni čip za tak algoritem, vendar določeni detajli še niso jasni (jah, pač privatniki so), zato je veliko strokovnjakov še vedno skeptičnih, če je to to, kar oni pravijo da je.
Drugače pa ja, kvantni računalniki najbrž nikoli ne bodo nadomestili klasične, ker najverjetneje sploh ne morejo pohitriti večine klasičnih algoritmov, zato jih je zaradi kompliciranosti izvedbe nesmiselno uporabiti. Poleg tega je že bilo dokazano, da kvantni računalniki ne morejo reševati problemov, ki jih klasični računalniki ne znanjo, npr. neodločitvenih problemov (vsaj kvantni računaliki, ki jih modelira univerzalni kvatni stroj).