Auf der Google I/O 2017 zeigte Google eine spannende Anwendung des maschinellen Lernens: Die Fähigkeit von Google Fotos, ein Objekt, das ein Motiv verdeckt, automatisch zu entfernen. Diese Funktion zum Entfernen von Objekten wurde noch nicht eingeführt, und jetzt wissen wir warum.
Diese Woche war vollgepackt mit spannenden Ankündigungen von Google bei der Firma jährliche I/O-Entwicklerkonferenz. Das jährliche Treffen von Entwicklern, Journalisten, Branchenvertretern und Google-Mitarbeitern ist ein großartiger Ort, um über die neuesten Produkte, Funktionen und Dienste von Google zu sprechen. Künstliche Intelligenz und maschinelles Lernen waren dieses Jahr ein großer Schwerpunkt und einer der aufregendsten Anwendungen des maschinellen Lernens kam aus dem Google Fotos Team. Der neue Google Fotos-Funktionen Zu den Funktionen, die demnächst eingeführt werden, gehören schnelle Aktionen zum Aufhellen eines Fotos und zum Färben eines Motivs beim Verlassen des Bildes Schwarzweißhintergrund, Teilen Sie ein Foto mit relevanten Kontakten, archivieren Sie Dokumente und speichern Sie Dokumente als PDF Dateien.
Funktionen wie diese sind meiner Meinung nach der Grund, warum Fotos der beste Google-Dienst der letzten Zeit ist. Google Fotos macht es Einsteigern leicht, Fotos zu archivieren, zu teilen und jetzt sogar zu bearbeiten. Daher sind wir gespannt auf die Einführung der Funktionen (z. B. Die Funktion „Color Pop“ sollte ab heute verfügbar sein.) Es wurde eine Funktion angedeutet letztes Jahr Google I/O Darauf haben viele von uns gewartet, die Live-Schaltung in der Fotos-App aber noch nicht erlebt. Die Funktion, die angeblich „sehr bald verfügbar“ sein soll, würde es Photos ermöglichen, automatisch Objekte zu entfernen, die das Hauptmotiv eines Fotos verdecken. Als Beispiel zeigte Sundar Pichai, CEO von Google, dass sein Objektentfernungsalgorithmus automatisch einen Maschendrahtzaun entfernte, der ein Baseball spielendes Kind verdeckte.
Da diese Funktion auf der Bühne angekündigt wurde, haben wir von Google keine Informationen darüber erhalten, wann und ob sie den Nutzern zur Verfügung gestellt wird. Während der diesjährigen Google I/O haben wir uns mit David Lieb, Produktleiter für Google Fotos, und Ben Greenwood, Produktmanager für Google Fotos, zusammengesetzt, um die neuesten Funktionen für Fotos zu besprechen. Während sich ein Großteil der Diskussion um das Neue drehte Google Fotos-Partnerprogramm und die Google Fotos-Bibliotheks-API (Dazu werden wir in naher Zukunft mehr zu sagen haben) hatten wir die Gelegenheit, das Team zu fragen, was mit der Funktion zum Entfernen von Objekten passiert ist.
Uns wurde gesagt, dass die während der Keynote 2017 angekündigte Funktion zum Entfernen von Objekten eine Demonstration der maschinellen Lernfähigkeiten von Google sei. Während die Technologie sicherlich verfügbar ist und eingesetzt werden kann, nähert sich das Team der Entwicklung seines Produkts Priorisieren, was für die Menschen am wichtigsten ist. Daher hat das Fotos-Team anderen Anwendungen des maschinellen Lernens Vorrang vor dieser Funktion eingeräumt.
Auch wenn diese Antwort die Benutzer, die sich auf die Funktion gefreut haben, möglicherweise nicht zufriedenstellt, haben wir jetzt ein klareres Bild davon, was damit passiert ist. Trotz der Aufregung seitens der technischen Medien ergab die Beurteilung des Fotos-Teams möglicherweise, dass es sich um das Objekt handelte Die Entfernungsfunktion wäre für Benutzer nicht so wichtig wie die neuen Funktionen für maschinelles Lernen, die dies eingeführt haben Woche. Es ist möglich, dass das Fotos-Team dieses Thema erneut aufgreift, um die Funktion schließlich einzuführen. Leider haben wir keinen genauen Zeitrahmen dafür, wann (oder ob) sie verfügbar sein wird.
Kostenlos.
4.5.
Der Titel des Artikels wurde aktualisiert, um besser zu beschreiben, was mit der Funktion passiert ist.