AI is nu een rage, maar welke gevolgen kan dat hebben voor de AI-gerichte Tensor-chipset van Google?
De laatste tijd vormt AI de kern van veel functies die een integraal onderdeel zijn van de gebruikerservaring, waarbij veel bedrijven de kracht van AI willen benutten in elke nieuwe functie die in ontwikkeling is. Van betere spraakherkenning tot onscherpe foto's corrigeren en alles daartussenin: veel van de functies die we tegenwoordig als vanzelfsprekend beschouwen, zijn gebouwd rond AI. Geen van deze bedrijven neigt echter aantoonbaar meer te leunen op de bekwaamheid van AI dan Google. Hoewel velen zullen wijzen op de interne Tensor SoC’s van Google als de eerste indicator van de toenemende afhankelijkheid van Google van AI, In werkelijkheid gaat het ver terug vóór het begin van de Tensor SoC's. En nu Google zijn voornemen aankondigt om zwaar op AI te leunen bij de Google I/O van dit jaar, zal die integratie alleen maar belangrijker worden.
Ambient Computing: het ultieme doel van Google
In 2019 bracht Google’s SVP voor apparaten en diensten, Rick Osterloh, voor het eerst de term ‘ambient computing’ aan het publiek voor op de Gemaakt door Google '19-evenement. Tot grote verbijstering van het publiek definieerde Osterloh ambient computing als het concept waarbij de eindgebruiker centraal staat in het systeem, en niet zijn telefoons of andere apparaten die hij bezit. “Hulp is overal waar je maar wilt, en het is vloeiend”, zei hij. “De technologie verdwijnt gewoon naar de achtergrond als je hem niet nodig hebt.”
In wezen is het doel van Google om een systeem te ontwikkelen dat de vragen van de gebruiker gemakkelijk en naadloos afhandelt, zo effectief mogelijk met minimale inbreuk. Zie het als Iron Man’s Jarvis, behalve dat het geschikt is voor normale gebruikers in plaats van voor een miljardair-superheld. Op dezelfde manier zal een stemassistent – in ons geval Google Assistant – centraal staan in deze ambitieuze visie. Op dit punt zouden velen vergeven zijn als ze de zogenaamde ambient computing van Google zouden interpreteren als een manier om Google Assistant op elk apparaat te plaatsen en er een einde aan te maken.
Zelfs voordat Google zijn Tensor SoC debuteerde, investeerde hij zwaar in AI om de gebruikerservaring te verbeteren.
Snel vooruitspoelen naar Google I/O 2022, en ambient computing was opnieuw het geval, waarbij Osterloh herhaalde: “In een wereld met meerdere apparaten willen mensen hun leven niet besteden aan gedoe met technologie.” Naarmate de keynote vorderde, benadrukte hij hoe de inspanningen van Google met zijn Pixel-apparaten zijn gebouwd met ambient computing in gedachten. Een hoeksteen van Google’s visie op ambient computing is uiteraard de Tensor SoC. Hoewel het misschien niet over het hoogste aantal pk's beschikt, is de grootste kracht de TPU, die van Google geïntegreerde machine-learning-engine die gebruik maakt van de expertise van Google op het gebied van AI verbeteringen.
In wezen is een TPU een stuk hardware dat speciaal is ontworpen om enorme matrixbewerkingen uit te voeren, die doorgaans worden gebruikt om neurale netwerkwerklasten met veel hogere snelheden uit te voeren. Deze neurale netwerkworkloads vertegenwoordigen in feite de kern van op AI gebaseerde applicaties. Normaal gesproken worden ze verwerkt door de CPU of de GPU op andere chipsets. Hoewel deze processen met geen van beide grote problemen zullen worden afgehandeld, kunnen geen van beide deze taken zo snel uitvoeren als een TPU.
Spraakgestuurd typen op de Pixel 7a in actie
De reden dat een TPU sneller is, is in de eerste plaats dat zowel de CPU als de GPU in variabele mate afhankelijk zijn van toegang tot het geheugen tijdens het verwerken van dergelijke taken. Vergeleken met de rekensnelheid is de geheugentoegang aanzienlijk langzamer (dit wordt de von Neumann-knelpunt), wat de doorvoer van de CPU en GPU kan belemmeren bij het uitvoeren van deze matrix activiteiten. Wel moet worden opgemerkt dat de GPU in dit opzicht aanzienlijk sneller is dan de CPU. Dankzij de manier waarop een TPU is ontworpen, is er geen geheugentoegang vereist tijdens de verwerking van deze matrixbewerkingen, wat resulteert in een veel hogere doorvoer dan beide. Het enige nadeel is dat de TPU alleen geschikt is voor dit doel, wat betekent dat hij noch de CPU, noch de GPU kan vervangen wat betreft hun respectievelijke taken.
Gezien het belang van de Tensor SoC was het niet zo’n grote verrassing om Google’s Pixel 6a te zien – Google’s middenklasse telefoon van dat jaar – dezelfde Tensor SoC behouden als zijn vlaggenschip, zelfs als dit ten koste ging van zoiets belangrijks als een hogere vernieuwingsfrequentie scherm. Dit laat in ieder geval zien hoe cruciaal de Tensor SoC is voor het uiteindelijke doel van Google. Hoewel het eerder misschien als een bijzaak of een overdreven ambitieus project klonk, klinkt het nu meer geloofwaardiger dan ooit, vooral nu generatieve AI en Natural Language Process (NLP)-motoren de wereld aan zich voorbij laten gaan storm.
Google Bard: AI aan het roer
Bron: Google
Ondanks dat het zelf bekend staat om zijn baanbrekende AI-onderzoek, was het niet Google dat de meest recente golf van AI-gestuurde toepassingen op gang bracht. Nu AI-gebaseerde chatbots zoals ChatGPT steeds populairder worden, moest Google een eigen versie uitbrengen. In de meest indrukwekkende modeheeft Google eindelijk Bard onthuld, zijn eigen kijk op generatieve AI.
Net als ChatGPT is Bard een andere AI-gestuurde chatbot die een taalmodel gebruikt om op een natuurlijke, gemoedelijke manier op de vragen van de eindgebruiker te reageren. Waar het verschilt van zijn concurrent is het model waarop het is getraind, Dat is ingrijpender dan de meeste mensen denken.
In plaats van OpenAI's GPT maakt Bard gebruik van het eigen taalmodel van Google, namelijk LaMDA, dat achter gesloten deuren is ontwikkeld. Vóór Bard kregen we slechts een glimp terug in Google I/O 2021. Van die aankondiging werden uiteraard grote dingen verwacht, en het is moeilijk te beargumenteren dat Google niet heeft geleverd wat het beloofde. Het probleem is dat Google dat wel is niet de enige in deze ruimte. Voor het eerst in vele jaren is Google niet de eerste architect van een bepaalde innovatie.
OpenAI heeft de bal inderdaad aan het rollen gebracht met ChatGPT. Behalve dat ChatGPT als eerste voor het publiek is vrijgegeven, heeft het in deze relatief korte tijd al een aantal belangrijke upgrades ondergaan, waaronder de introductie van OpenAI's nieuwste GPT-4-taalmodel. Nog zorgwekkender was hoe Microsoft Bing nieuw leven inblies door deze technologie te integreren. Als het in de schijnwerpers staan van AI-technologie Google niet genoeg zorgen baarde, dan zal het bedreigen van zijn dominante positie op het marktaandeel van zoekmachines hen zeker scherp houden. Dit bleek al vanaf het moment dat Google haastig de informatie van Bard verwijderde soms moeite met het beantwoorden van enkele fundamentele vragen zoals het benoemen van de maanden van het jaar of het gekscherend suggereren dat de dienst al is afgesloten.
Er moet echter worden opgemerkt dat Bard nog in de kinderschoenen staat en dat groeipijnen onvermijdelijk waren, vooral gezien de grote beloften van een dergelijke technologie. Ook opmerkelijk is dat als eerste de grens overschrijden niet noodzakelijkerwijs overeenkomt met gegarandeerd succes. Het is ook niet zo dat het voor OpenAI van een leien dakje ging, waarbij ChatGPT af en toe ontspoorde. In feite heeft Google nog steeds een gouden kans om niet alleen de chatbot van OpenAI in te halen, maar zichzelf zelfs opnieuw stevig op de kaart te zetten als de te verslaan. Op de Google I/O van dit jaar maakte het bedrijf heeft een heleboel nieuwe functies en verbeteringen aangekondigd terwijl waarin werd aangeprezen dat het ‘verantwoordelijk’ was.
Hoe kan Bard worden geïntegreerd in Google-apparaten?
Bard kan profiteren van vele aspecten van de Pixel en de bredere Google Android-ervaring. Ten eerste zou Bard ook gedijen op de unieke mogelijkheden van de Tensor SoC in zijn Pixel-apparaten.
Het is niet de eerste keer dat we zien dat Google zich inzet voor AI-afhankelijke functies. Zelfs voordat Google zijn Tensor SoC debuteerde, investeerde hij zwaar in AI om de gebruikerservaring te verbeteren. Een van de hoogtepunten van Pixel-apparaten, Now Playing, heeft zijn intrede gedaan debuut in 2018. Een andere hoeksteen van de Pixel-ervaring, de briljante HDR+-verwerking van Google, brak in de scene lang voordat Google het idee overwoog om zijn eigen SoC te ontwikkelen. Natuurlijk, Google integreerde later zijn eigen Pixel Visual Core-chip om te helpen met de geavanceerde HDR+-nabewerking. Het waren echter de nabewerkingsalgoritmen van Google die de hoofden van veel tech-enthousiastelingen deden draaien, zozeer zelfs sommige Android-ontwikkelaarsgemeenschappen hebben alleen interesse getoond in het porten van de Gcam-app van Google naar andere apparaten, waardoor de fotokwaliteit aanzienlijk wordt verbeterd. Zelfs Magic Eraser, een functie die veel later werd uitgebracht, was er snel bij beschikbaar voor alle Pixel-apparaten en Google One-leden.
Tensor was niet de basis van deze functies, maar het is moeilijk te beweren dat deze functies niet profiteren van de unieke mogelijkheden van de speciale TPU-eenheid van Tensor. Naast het verbeteren van de prestaties van bestaande functies, zou dit kansen kunnen bieden voor Google om nog meer AI-intensieve functies toe te voegen, en een van deze functies zou wel eens niemand minder dan Bard kunnen zijn AI. Dat is inderdaad gemeld Bard AI zou als exclusieve functie naar Pixel-apparaten kunnen komen voordat het mogelijk naar alle Android-telefoons wordt uitgerold.
Misschien test Google nog steeds de wateren via een zelfstandige implementatie van Bard op Android voordat het uiteindelijk wordt geïntegreerd in zoiets als Google Assistant. Op deze manier kan Google het beste van twee werelden bieden: de verfijnde ervaring van Google Assistant en de mogelijkheden van Bard als generatieve AI-engine.
Over het algemeen is Google Assistant een uitstekend gebied om Bard te integreren. Om te beginnen zal een dergelijke stap de adoptie van Bard snel vergroten, aangezien op de meeste Android-telefoons de Google Assistent al vooraf is geïnstalleerd. Google Assistant zal ook aanzienlijk slimmer en nuttiger worden, dankzij het vermogen van Bard om geavanceerdere antwoorden te geven. Nu Bard is gekoppeld aan Google Assistant, zou dit ook de integratie met elk ander slim apparaat dat Google Assistant ondersteunt, kunnen vergemakkelijken. Op deze manier worden niet alleen uw telefoons slimmer, maar al uw slimme apparaten. Vreemd genoeg noemde Google Assistant niet eens bij I/O.
Mocht Google Bard en Google Assistant echter samenvoegen, dan zou dit de prestaties van Bard alleen maar kunnen verbeteren door gebruik te maken van het potentieel van Tensor. Als Google zijn TPU zou kunnen trainen om LaMDA (of PALM 2), op zijn apparaten zou dit een grote gamechanger kunnen zijn. Dit zal niet alleen de balans doen doorslaan ten gunste van de Pixel-apparaten, maar het zou ook een grote focusverschuiving kunnen teweegbrengen bij het ontwerpen van de komende SoC's, die de steeds groeiende nadruk op ruwe CPU- en GPU-prestaties verder verdunnen en tegelijkertijd het belang benadrukken van het hebben van een capabele, speciale TPU.
Gezien hoe hevig de concurrentie is, is er vrijwel geen ruimte voor Google om te voorzichtig te zijn om het eens te proberen.
Natuurlijk zal het koppelen van Bard aan Google Assistant zijn eigen uitdagingen met zich meebrengen waar Google aan moet werken. Google zal er bijvoorbeeld zeker aan moeten werken om de kans op verkeerde informatie tot vrijwel nul terug te brengen. Als Google dit niet doet, loopt u het risico de betrouwbaarheid van Google Assistant te ondermijnen, misschien wel de grootste kracht op het gebied van virtuele assistenten. Het is eerlijk om te zeggen dat de inzet ongelooflijk hoog is. Gezien het feit dat Google in dit opzicht een voorsprong heeft op iedereen, zou het niet een te goede kans zijn om dit plan niet te volgen.
Je kunt zien dat Google al een grote basis heeft om aan te werken. Google Assistant wordt bij vrijwel elke Android-telefoon geleverd en wordt ondersteund door veel slimme apparaten op de markt. Google heeft nu zijn eigen Tensor-chipset, speciaal gebouwd om zich te concentreren op op AI gebaseerde applicaties. Dit zijn twee belangrijke gebieden waar Google Microsoft al heeft verslagen. Gezien hoe hevig de concurrentie is, is er vrijwel geen ruimte voor Google om te voorzichtig te zijn om het eens te proberen.
Microsoft heeft voorlopig het voordeel...
Dit is de eerste keer dat we zien dat Google schijnbaar achterop raakt. Voor een bedrijf dat altijd trots is geweest op baanbrekend AI-onderzoek, voelt het raar om te zien dat Google op dit specifieke aspect een inhaalslag maakt. En van al zijn kanshebbers is het Microsoft die de leiding heeft, dankzij de integratie van OpenAI's nieuwste GPT-4-taalmodel dat Bing nieuw leven heeft ingeblazen. Toch heerst er nog steeds het gevoel van onvermijdelijkheid dat Google binnenkort de leiding zal overnemen, ook al gaapt er momenteel een aanzienlijke kloof tussen beide bedrijven. In ieder geval moet Google zijn troef nog uit de mouw trekken, terwijl Microsoft al met zijn wapen heeft gesprongen.
Het zal echter geen rechte lijn naar de finish zijn. Google zal eerst enkele hoeken moeten opruimen als het besluit Bard in zijn Pixel-apparaten te integreren. Hoewel de Google Assistent-route misschien klinkt als een gemakkelijke overwinning, biedt deze nog steeds zijn eigen uitdagingen waar Google mee om moet gaan. Dat gezegd hebbende, nu Google de startlijn nog moet verlaten, is het echt de race om te verliezen van Microsoft. Het lijkt er nu misschien zo op, maar dat zal waarschijnlijk niet lang meer duren.
Kijkend naar Google I/O lijkt het erop dat Google, hoewel in paniek, nog niet klaar is om de handdoek in de ring te gooien.