Google öppnar ett verktyg som används för att aktivera porträttlägesliknande funktioner från Pixel 2

Google har släppt källkoden för DeepLab-v3, en AI-teknik som kan användas för att aktivera porträtt Läge på Google Camera, vilket gör att utvecklare kan använda samma teknik i sina egna appar för andra syften.

Uppdatering 05:02 CST: Google har nått ut för att klargöra att själva porträttlägestekniken inte är öppen källa, utan snarare att tekniken som gör det möjligt – semantisk bildsegmentering – nu är öppen inköpt. Rubriken har ändrats för att återspegla denna korrigering.

De flesta är överens om att Pixel 2-familjen har de bästa kamerorna på alla smartphones just nu. Själva kamerans hårdvara är utmärkt, men det mesta av magin sker på mjukvarusidan. Till exempel gör HDR+-funktionen nästan vilken kamera som helst bättre När det är portad till andra telefoner. En ny mjukvarufunktion på Pixel 2 är "Porträttläge". Den identifierar dig och gör bakgrunden suddig för att skapa en cool effekt.

Kameran använder semantisk bildsegmentering för att uppnå detta. I grund och botten kategoriserar den varje pixel med en etikett som "person" eller "himmel". Detta hjälper kameran att skilja mellan en person i förgrunden och himlen i bakgrunden. Google har släppt denna teknik som öppen källkod, vilket innebär att utvecklare kan använda samma teknik i sina egna appar. Porträttläge är bara ett exempel på hur denna teknik kan användas. Utvecklare kan göra ännu mer coola saker.

Den här utgåvan inkluderar DeepLab-v3+-modeller byggda ovanpå en kraftfull ryggradsarkitektur för konvolutionellt neuralt nätverk (CNN) [2, 3] för de mest exakta resultaten, avsedda för driftsättning på serversidan. Som en del av den här utgåvan delar vi dessutom med oss ​​av vår Tensorflow-modellutbildning och utvärderingskod, som samt modeller som redan är förutbildade på Pascal VOC 2012 och Cityscapes benchmark semantisk segmentering uppgifter.


Källa: Google Research