Google sier at det tar ansvar med AI, men det er stort sett bare panikk

Google I/O viser at selskapet om noe følte seg truet av konkurrenter. Selv fortsatt kan det fortsatt komme ut på topp.

Google I/O er i gang, og selskapet brukte mye av hovedinnlegget på å snakke om kunstig intelligens, fremskritt selskapet gjør på feltet, og hva det vil si å være ansvarlig med AI. Den siste delen er spesielt interessant, mens andre selskaper som OpenAI og Microsoft sliter med å finne en balansen mellom å slippe AI løs og å regjere den om litt, fokuserer Google på «regjerende»-aspektet fra starten.

James Manyika, som leder Googles teknologi- og samfunnavdeling, talte under Googles keynote om hvordan selskapet tar sikte på å integrere AI på en ansvarlig måte, selv om det introduserte et stort antall nye tjenester.

"Det er også viktig å erkjenne at AI har potensial til å forverre eksisterende samfunnsutfordringer - som urettferdig skjevhet - og utgjør nye utfordringer etter hvert som det blir mer avansert og etter hvert som nye bruksområder dukker opp," skrev han i en Google blogginnlegg. Det er derfor vi mener det er viktig å ta en ansvarlig tilnærming til AI."

Selvfølgelig er det lett å bli trukket med av markedsføringen av «ansvar» som Google sier er så integrert i arbeidet. Imidlertid er det en annen, mer kynisk tolkning: Google fikk panikk, og den bruker den innrammingen for å posisjonere seg som den overlegne AI-plattformen.

Google fikk tydelig panikk takket være ChatGPT og Bing

Når du ser på Google I/O keynote, er det ganske tydelig at selskapet måtte finne på noe å konkurrere med ChatGPT og Bing, og Bard kuttet det tydeligvis ikke. Og den kunngjorde ikke bare en eller to funksjoner og noen forbedringer til Bard; den ga ut ny funksjon etter ny funksjon etter ny funksjon. Keynote var en konstant oversvømmelse av generative AI-funksjoner som kom til Search, Google Workspace og praktisk talt alle andre applikasjoner i Googles suite. Den lanserte til og med generative AI-funksjoner for Google Cloud, og holdt seg som de Software-as-a-Service-løsning i AI takket være Vertex.

Når man leser mellom linjene, ser det ut til at Google ikke bare følte seg truet; det faktisk fikk panikk. Som gjengjeldelse laget den hvert eneste produkt den kunne tenke seg, og kom med så mange utrolige nye funksjoner at det er vanskelig å holde oversikt. Disse inkluderer:

  • Universal Translate
  • Generativ AI i Google Søk
  • Google Bard-forbedringer
  • PALM 2
  • Google Duet
  • Generative bakgrunnsbilder

Det er ikke alt, skjønt, fordi Google vil at du skal tro at en viktig årsak til å ligge bak tiden var at det var "ansvarlig" og tok sin tid.

Google hevder at ansvar er viktig

Google brukte mye tid på å snakke om «ansvar» innen kunstig intelligens, noe selskaper som Microsoft og OpenAI ikke har gjort så mye av. Selskapet bygger aktivt verktøy som lar det bekjempe feilinformasjon som dets egen teknologi kan generere. Dette inkluderer metadata som kan vannmerke bilder som genereres, for eksempel.

"Ansvar" er også et godt forsvar å gjemme seg bak, fordi mens disse funksjonene rulles ut i et Labs-format som ligger bak en venteliste kan de si at funksjonene er tilgjengelige, bare ikke for alle, og med ansvarsfraskrivelsen er de ikke i sin endelige stater. Det er en fin måte å vente på til de er klare til å rulle ut til publikum.

Hele talen til Manyika var ikke bare for å forkynne viktigheten av å være forsiktig (som ikke er en kontroversiell holdning å ta). Det er en måte å signalisere til bedrifter at Google ønsker å bli sett på som den voksne i rommet. Mens både Microsoft og OpenAI går videre og prøver å overgå hverandre med AI-språkmodeller som de ikke engang forstår begrensningene for ennå, er Google prøver å bringe over en følelse av ro, at den ønsker å ta ting sakte og introdusere funksjoner som er klare til bruk før de distribuerer dem til allmennheten.

Googles generative AI vil også ha unøyaktigheter

Hvis du ser nederst til høyre på bildet ovenfor, som viser eksempler på generativ AI, vil du se at Google fortsatt har en advarsel som sier "generativ AI kan være unøyaktig eller støtende." Mens de fleste ikke ville trodd det var helt nøyaktig, viser det det Google er ikke sikker på å tro at den har løst problemet med unøyaktighet og feilinformasjon som både Microsoft og OpenAI sliter med med. Den vil bare at du skal tro at den har det.

Selvfølgelig, hvis Google var på nivå med OpenAI og Microsoft nå (noe som gjenstår å se), så er det allerede et stort sprang sammenlignet med hvordan Bard så ut for kort tid siden. Å være ansvarlig betyr imidlertid ikke mye hvis produktene fortsatt er i samme posisjon som konkurrentene. Er avsløringene knyttet til bilder gode å ha? Absolutt. Muligheten til å generere eller motta feilinformasjon i form av et søkeresultat er imidlertid ikke løst, og det faktum blir nedprioritert i disse kunngjøringene.

Ikke desto mindre vil vi være spente på å prøve ut hva Google har tilberedt innen generativ AI. Dette er store forbedringer som kan sette Google i ledelsen, med funksjoner rettet mot bedrifter i form for Vertex AI på toppen av genuint nyttige funksjoner integrert i Søk og en del av Google Suite... men det kan også bare være et markedsføringsspinn for å gjøre opp for manglene som Google har møtt så langt.