• norsk
    • English
  • English 
    • norsk
    • English
  • Login
View Item 
  •   Home
  • Fakultet for informasjonsteknologi og elektroteknikk (IE)
  • Institutt for informasjonssikkerhet og kommunikasjonsteknologi
  • View Item
  •   Home
  • Fakultet for informasjonsteknologi og elektroteknikk (IE)
  • Institutt for informasjonssikkerhet og kommunikasjonsteknologi
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Machine Learning and Statistical Models to Reduce Perceived Latency of Delay- Sensitive Applications

Olsen, Kristoffer Scherman
Master thesis
Thumbnail
View/Open
no.ntnu:inspera:238079456:47745229.pdf (4.209Mb)
URI
https://hdl.handle.net/11250/3157092
Date
2024
Metadata
Show full item record
Collections
  • Institutt for informasjonssikkerhet og kommunikasjonsteknologi [2809]
Abstract
I en verden med stadig utvikling innenfor kommunikasjonsteknologi øker

etterspørselen etter nettverksarkitektur med lave forsinkelser og høy

pålitelighet. Ukontrollerbare hendelser som nettverksbelastning,

pakketap og jitter kan forårsake forsinkelser som påvirker kvaliteten

på tjenester for forsinkelses-følsomme applikasjoner. Ettersom kunstig

intelligens og maskinlæringsmodeller blir mer populære, har de

nå kommet inn på området forsinkelses reduksjon og kan være en potensiell

løsning for å forbedre eksisterende løsninger.

\noindent

Denne oppgaven undersøker bruken av maskinlæringsmodeller for å redusere

oppfattet forsinkelse i interaksjon mellom menneske og maskin. Et fysisk

testmiljø bestående av en robotarm, en fjernkontroll, en PC for å tolke

kommandoer og en proxy-PC for å utføre inferens når nødvendig,

presenteres for å trene, teste, evaluere og justere et sett med

maskinlæringsmodeller som gjennom tidligere arbeid og forskning innen

lignende problemer har vist lovende resultater. Eksperimentelle

resultater indikerer at modellene er i stand til å forutsi systemets

fremtidige tilstand med relativt høy nøyaktighet, og at modellene er i

stand til å redusere den oppfattede forsinkelsen innenfor en definert

tidsramme.
 
In an evolving world of communication technology, the demand for low

latency, high reliability network architecture is increasing. Uncontrollable

events such as network congestion, packet loss, and jitter can cause

delays impacting the quality of service of delay sensitive applications. As

Artificial Intelligence (AI) and machine learning models are becoming

more popular, they have entered the field of latency mitigation and could

be a potential solution to improve existing solutions.

This thesis investigates the use of machine learning models to reduce the

perceived latency in human to machine interaction. This work focuses

primarily on the technical aspects, but is a step towards since it can be

a foundation to conduct more evaluations regarding perceived latency.

A physical testbed consisting of a robotic arm, a remote controller, a

PC for interpreting commands and a proxy-PC to conduct inference

when necessary is presented to train, test, evaluate and tune a set of

machine learning models that through previous work and research within

similar problems have shown promising results. Experimental results

indicate that the models are able to predict the future state of the system

with relative high accuracy, and that the models are able to reduce the

perceived latency within a defined time horizon.
 
Publisher
NTNU

Contact Us | Send Feedback

Privacy policy
DSpace software copyright © 2002-2019  DuraSpace

Service from  Unit
 

 

Browse

ArchiveCommunities & CollectionsBy Issue DateAuthorsTitlesSubjectsDocument TypesJournalsThis CollectionBy Issue DateAuthorsTitlesSubjectsDocument TypesJournals

My Account

Login

Statistics

View Usage Statistics

Contact Us | Send Feedback

Privacy policy
DSpace software copyright © 2002-2019  DuraSpace

Service from  Unit