Vis enkel innførsel

dc.contributor.advisorFuchs, Franz Georg
dc.contributor.advisorStasisk, Alexander Johannes
dc.contributor.advisorDanon, Jeroen
dc.contributor.advisorMøll, Halvor Nilsen
dc.contributor.authorUthayamoorthy, VIroshaan
dc.date.accessioned2022-09-16T17:21:00Z
dc.date.available2022-09-16T17:21:00Z
dc.date.issued2022
dc.identifierno.ntnu:inspera:115383357:37457635
dc.identifier.urihttps://hdl.handle.net/11250/3018624
dc.description.abstractDenne masteroppgaven introduserer konsepter innen maskinlæring og kvante-maskinlæring. Spesiell fokus vil bli ilagt variasjonelle kvantealgorithmer hvor parametre i kvantekretser blir optimert. Hvordan disse kretsene trenes of kjente problemer relatert til disse hybride beregningsmodellene blir diskutert gjennom oppgaven. Skopet til oppgaven begrenses til en spesifikk kvantealgoritme kalt QAOA. I forhold til denne algoritmen kommer to heuristikker innen parameter initialisering til å bli testet og analysert på beregningsproblemet MaxCut. Analysen er utført på uvektete grafer med tre kanter pr. node og diverse Erdös-Renyi graf instanser. Heuristikkene heter INTERP og Parameter Fixing. Disse heuristikkene ble henholdsvis introdusert av Zhou m.fl. [1] and Lee m.fl. [2]. Begge heuristikkene viser til måter for å inkrementelt øke dybden av en QAOA krets ved å ta i bruk parameterverdier fra et foreløpig lokalt minimum. Numeriske reultater for begge metodene indikerer at den underliggende mekanismen for begge metodene ligner og at INTERP er den foretrukne metoden på grunn av dens relativt lave kjøretid. En utvidelse av dette arbeidet ble også utført basert på en metode lignende Alam m.fl [3] hvor maskinlæring blir brukt for å lære trendene i optimale QAOA parametre. Denne tilnærmingen gjør at man kan redusere antallet optimeringssteg for å øke dybden på QAOA kretsen til en målsatt dybde. Denne prosedyren ble implementert og testet på vektede grafer med tre kanter pr. node. Resultatene viser at relativt få graf instanser er nødvendig for at et kunstig nevralt nettverk skal kunne lære de optimale QAOA parametrene. Til slutt bygger masteroppgaven videre på Rivera-Dean m.fl.’s [4] ESCAPE algorithme ved å implementere algoritmen på en mer realistisk måte. Dette gjøres ved å se på en skudd-basert kvantedatamaskin. Med formålet om å redusere antallet kall til kvantedatamskinen blir en gradient-fri variant av algoritmen utviklet og testet. Denne prosedyren er testet på vektede grafer med 12 og 16 noder hvor hver node er tilkoblet tre andre noder. Resultatene viser at denne varaisjonen er mer effektiv enn funnene til Rivera-Dean m.fl. [4] Det er grunn til å tro at den høye suksessraten kommer av konvergensproblemer i de gradient-fri optimeringsprosedyrene og at tilfeldige perturbasjoner gjør at ESCAPE prosedyren finner området i kostlandskapet som har gode løsninger. Simuleringer på en støy-modell fra IBMQ viser at antallet vellykkede of defekte kjøringer av algoritmen er sammenlignbare, og dermed er algortimen lite pålitelig på realistiske kvantedatamaskiner. Resultatene som blir diskutert i master oppgaven stammer fra omfattende numeriske simuleringer. Over 20 000 CPU timer ble brukt for å kjøre simuleringer på 90 graf instanser for å hente inn data for ESCAPE rutinen. Dataene som ble brukt for å trene opp et nevralt nettverk til å predikere parametrene ved å bruke trender fra INTERP rutinen baserte seg på 200 graf instanser.
dc.description.abstractThis master thesis introduces concepts of machine learning and quantum machine learning. Particular focus will be put on variational quantum algorithms (VQAs) and how these quantum circuits are trained. Known issues related to the trainability of these hybrid quantum-classical computation methods are also discussed. Limiting the scope to the variational quantum algorithm QAOA, two different parameter initialization heuristics were implemented and analyzed on the problem of MaxCut. The analysis considers unweighted 3-regular graphs and Erdös-Rènyi graphs in particular. These heuristics are referred to as INTERP and Parameter Fixing and were introduced by Zhou et al. [1], and Lee et al. [2] respectively. Both heuristics provide ways to incrementally increase the depth of the QAOA circuit by finding local optima at the current depth. Numerical results of both methods indicate that the underlying mechanisms are similar for both heuristics and that INTERP is preferable because of its lower run-time. Based on trends discovered using the INTERP heuristic, a similar procedure to the one presented by Alam et al. [3] was implemented where machine learning is used to learn the patterns in these optimal QAOA parameters. Using this approach, one can reduce the number of intermediary optimization runs needed to find good local optima at a target depth. The thesis shows that relatively few graph instances are needed to learn the optimal QAOA parameters using a feedforward neural network. This machine-learning procedure was tested on weighted 3-regular graphs. Lastly, the thesis considers a realistic implementation of the ESCAPE algorithm of Rivera-Dean et al.’s [4] using a shot-based simulator instead of an ideal one. In this implementation, a gradient-free optimizer was used instead of a gradient-based one to reduce the number of function evaluations performed on a quantum computer. The procedure was tested on weighted five and twelve-node graphs, with the number of successful escapes being higher than the original procedure. This increase in performance is believed to be caused by convergence difficulties with gradient-free optimizers and random perturbations into regions of better cost. Simulations on the five-qubit noise model FakeManilla from IBMQ show that the number of successful and failed escapes is comparable, and thus the procedure is less reliable on NISQ hardware. The thesis bases its results on extensive numerical simulations. Over 20 000 CPU hours on computer clusters were used to run simulations on 90 graph instances to gather data for the ESCAPE routine. At each depth of the QAOA routine for each graph instance, 100 randomized initializations were used to gauge the performance of the algorithm. The INTERP routine and the subsequent usage of a neural network to perform parameter predictions was tested for 200 graph instances.
dc.languageeng
dc.publisherNTNU
dc.titleQuantum Machine Learning for Variational Quantum Algorithms
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail
Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel