Implicit Regularization in Machine Learning for Adaptive Control
Abstract
Moderne maskinlæring bruker svært overparameteriserte modeller som kan tilpasses treningsettet feilfritt og fortsatt prestere godt på testsettet. Ny forskning knytter denne evnen til gradientmetodene brukt for å optimalisere nettverkene. Både teoretisk og empirisk forskning viser at optimeringsmetodene regulariserer den lærte modellen implisitt. I en nylig artikkel utforsker Boffi og Slotine hvordan implisitt regularisering i maskinlæring kan overføres til adaptiv regulering med stabilitetsgaranti. Denne oppgaven undersøker likheter mellom maskinlæring og adaptiv regulering. Dynamisk prediksjon av et Hamiltonsk system brukes for å illustrere hvordan gradientmetoder implisitt regulariserer de lærte parameterene. Modern machine learning utilizes highly overparameterized models that are able to perfectly fit the training data while still performing well on the test set. New research pins this ability to the first order gradient methods used to optimize the networks. Both theoretical and empirical research demonstrate that the optimization methods have \textit{implicit bias} effectively regularizing the learned models. In a recent article, Boffi and Slotine explores how the implicit regularization phenomenon in machine learning can be transferred to adaptive control with stability guarantees. The current thesis examines the similarities between machine learning and adaptive control. Dynamic prediction of a Hamiltonian system is used to demonstrate how gradient based adaption laws impose regularization on the learned model.