Øyesporing med iOS, åpner nye muligheter

Forskere ved MITs informatikk- og kunstig intelligens-laboratorium har utviklet en enkel øyesporingsapplikasjon for enheter som bruker Apples iOS-operativsystem. Øyesporing ved bruk av mobile enheter har vært mye undersøkt, men har alltid vært et kostbart forslag. Denne nye forskningen fra Aditya Khosla og teamet forventes å endre det.

Øyesporing med iOS

"Feltet sitter litt fast i denne kylling-og-egg-løkken," sier Aditya Khosla, en MIT-student i elektroteknikk og informatikk og medforfatter på papiret. "Siden få mennesker har de eksterne enhetene, er det ikke noe stort insentiv til å utvikle applikasjoner for dem. Siden det ikke er noen applikasjoner, er det ingen insentiv for folk til å kjøpe enhetene. Vi tenkte at vi skulle bryte denne sirkelen og prøve å lage en eyetracker som fungerer på en enkelt mobilenhet, kun ved å bruke frontkameraet ditt.»

Ved å bruke kameraet på en iPhone, var teamet i stand til å gjennomføre de mange øyesporingseksperimentene og samle inn data. Teamet bygde øyesporingen sin ved hjelp av maskinlæring, en teknikk der datamaskiner lærer å utføre oppgaver ved å se etter mønstre i store sett med treningseksempler.

Med fremskritt innen maskinlæring og nevrale nettverk, vil Apple kunne fortsette innovasjon på iOS-plattformen sin. Se for deg mulighetene hvis enheten er i stand til å spore øyebevegelsen og posisjonene dine og tilby kontekstbasert informasjon.

I tillegg til å gjøre eksisterende applikasjoner av eye-tracking-teknologi mer tilgjengelig, er systemet kan aktivere nye datamaskingrensesnitt eller bidra til å oppdage tegn på begynnende nevrologisk sykdom eller psykisk sykdom.

Teamet forventes å presentere funnene sine 28. junith, konferanse om datasyn og mønstergjenkjenning.

Relaterte innlegg: