Vis enkel innførsel

dc.contributor.advisorGambäck, Björn
dc.contributor.authorSteinbakken, Stian
dc.date.accessioned2019-12-29T15:00:29Z
dc.date.available2019-12-29T15:00:29Z
dc.date.issued2019
dc.identifier.urihttp://hdl.handle.net/11250/2634466
dc.description.abstractMorsmålsidentifisering går ut på å identifisere en forfatters eller talers morsmål (L1) basert på tekster eller opptak gjort av denne personen på et annet språk (L2). Morsmålsidentifisering kan være viktig for pedagogikk, da å vite hvilke feil en elev med et gitt morsmål typisk gjør når han eller hun skal lære et annet språk kan hjelpe pedagoger med å kjenne igjen vanlige mønster og lage tilpassede lærings- opplegg basert på forskjellige språk. Morsmålsidentifisering har også bruks- områder innenfor kriminalteknikk, forfattergjenkjenning og datainnsamling, i til- legg til å kunne brukes til å detektere digitalt bedrageri og barnelokking. De tidligere beste løsningene for morsmålsidentifisering har i hovedsak basert seg på tradisjonelle maskinlæringsteknikker, primært støttevektormaskiner. Disse tradisjonelle teknikkene har gang på gang gitt bedre resultater enn løsninger som baserer seg på dyp-læring – trolig på grunn av mangel på annotert data for morsmålsidentifisering. Oppmerksomhetsbaserte dyp-læring teknikker har dog nylig blitt allestedsnærværende i sekvensprosessering, og oppnår tidenes beste resultater på flere oppgaver innenfor naturlig språkbehandling. Disse oppmerk- somhetsbaserte systemene krever ingen rekursjon eller konvolusjon, som gjør at systemene kan parallelliseres i stor grad og gjør det mulig å trene store modeller raskt. Med bakgrunn i den imponerende ytelsen til oppmerksomhetsbaserte dyp- læring teknikker, i tillegg til at det nå finnes mer annotert data, utforsker denne masteroppgaven hvordan slike oppmerksomhetsbaserte dyp-læring teknikker kan anvendes for å øke ytelsen i morsmålsidentifisering. Mer spesifikt ser denne opp- gaven nærmere på hvordan det oppmerksomhetsbaserte systemet BERT – Bidi- rectional Encoder Representations from Transformers – kan brukes, både alene og i kombinasjon med eksisterende teknikker, for å oppnå bedre resultater innen morsmålsidentifisering. BERT taes først i bruk på TOEFL11 datasettet, som har vært standard datasett for morsmålsidentifisering siden 2013. Deretter anvendes BERT på det langt større datasettet kalt Reddit-L2, hvor modellen oppnår “state-of-the-art” resultater. Videre brukes BERT, sammen med tradisjonelle teknikker under en meta-klassifikator, til å oppnå en treffsikkerhet på 0.853 på TOEFL11 testsettet. BERT trenes så på mer enn 50 ganger så mye data som har blitt brukt for engelsk morsmålsidentifisering tidligere, og produserer en treffsikkerhet på 0.902 på det såkalte Reddit-L2 in-domain scenarioet – 21.2 prosentpoeng bedre enn den tidligere beste treffsikkerheten oppnådd.
dc.languageeng
dc.publisherNTNU
dc.titlePaying Attention to Native-Language Identification
dc.typeMaster thesis


Tilhørende fil(er)

Thumbnail
Thumbnail

Denne innførselen finnes i følgende samling(er)

Vis enkel innførsel