Forscher des MIT-Labors für Informatik und künstliche Intelligenz haben eine einfache Eye-Tracking-Anwendung für Geräte entwickelt, die das iOS-Betriebssystem von Apple verwenden. Eye-Tracking mit mobilen Geräten wurde zwar intensiv erforscht, war aber immer ein teures Unterfangen. Diese neue Studie von Aditya Khosla und seinem Team soll dies ändern.
„Das Feld steckt irgendwie in dieser Henne-Ei-Schleife fest“, sagt Aditya Khosla, ein MIT-Absolvent in Elektrotechnik und Informatik und Co-Erstautor der Studie. „Da nur wenige Leute über die externen Geräte verfügen, gibt es keinen großen Anreiz, Anwendungen dafür zu entwickeln. Da es keine Anwendungen gibt, gibt es keinen Anreiz für die Leute, die Geräte zu kaufen. Wir dachten, wir sollten diesen Kreis durchbrechen und versuchen, einen Eyetracker zu entwickeln, der auf einem einzigen Mobilgerät funktioniert und nur Ihre Frontkamera verwendet.“
Durch die Verwendung der Kamera auf einem iPhonekonnte das Team die zahlreichen Eyetracking-Experimente durchführen und Daten sammeln. Das Team baute seinen Eyetracker mit maschinellem Lernen, einer Technik, bei der Computer lernen, Aufgaben auszuführen, indem sie in großen Trainingsbeispielen nach Mustern suchen.
Mit den Fortschritten beim maschinellen Lernen und bei neuronalen Netzen wird Apple in der Lage sein, Innovationen auf seiner iOS-Plattform fortzusetzen. Stellen Sie sich die Möglichkeiten vor, wenn das Gerät in der Lage ist, Ihre Augenbewegungen und -positionen zu verfolgen und kontextbasierte Informationen bereitzustellen.
Neben der besseren Zugänglichkeit bestehender Anwendungen der Eye-Tracking-Technologie bietet das System könnten neue Computerschnittstellen ermöglichen oder dabei helfen, Anzeichen einer beginnenden neurologischen Erkrankung oder psychischen Erkrankung.
Das Team wird voraussichtlich seine Ergebnisse am 28. Juni präsentierenNS, Konferenz für Computer Vision und Mustererkennung.