Cosa può significare l'IA potenziata per il prossimo chip Tensor

L'intelligenza artificiale è di gran moda adesso, ma quali implicazioni può avere sul chipset Tensor di Google incentrato sull'intelligenza artificiale?

Ultimamente, l’intelligenza artificiale è stata al centro di molte funzionalità integranti dell’esperienza utente, con molte aziende che cercano di sfruttare la potenza dell’intelligenza artificiale in qualsiasi nuova funzionalità in fase di sviluppo. Dal migliore riconoscimento vocale a correggere le foto sfocate e qualsiasi cosa stia nel mezzo, molte delle funzionalità che diamo per scontate al giorno d'oggi sono state costruite attorno all'intelligenza artificiale. Tuttavia, nessuna di queste aziende tende probabilmente a fare affidamento sull’abilità dell’intelligenza artificiale più di Google. Mentre molti indicheranno i SoC Tensor interni di Google come il primo indicatore della crescente dipendenza di Google dall’intelligenza artificiale, in in realtà, risale a molto prima della nascita dei SoC Tensor. E con Google che annuncia le sue intenzioni di appoggiarsi fortemente all’intelligenza artificiale A

Google I/O di quest'anno, tale integrazione diventerà ancora più importante.

Ambient Computing: l’obiettivo finale di Google

Nel 2019, il vicepresidente senior per dispositivi e servizi di Google, Rick Osterloh, ha lanciato per la prima volta al pubblico il termine “informatica ambientale” durante l’evento. Evento Made by Google '19. Con grande stupore del pubblico, Osterloh ha definito l'ambient computing come il concetto di avere l'utente finale al centro del sistema, non i suoi telefoni o altri dispositivi di sua proprietà. "L'aiuto è ovunque tu voglia ed è fluido", ha detto. "La tecnologia passa in secondo piano quando non ne hai più bisogno."

Essenzialmente, l’obiettivo di Google è quello di sviluppare un sistema che gestisca prontamente e senza soluzione di continuità le query dell’utente nel modo più efficace possibile con la minima intrusione. Consideralo come il Jarvis di Iron Man, tranne per il fatto che si rivolge agli utenti normali invece che a un supereroe miliardario. Allo stesso modo, un assistente vocale – Google Assistant, nel nostro caso – sarà al centro di questa ambiziosa visione. A questo punto, molti sarebbero perdonati se interpretassero il cosiddetto ambient computing di Google come l’inserimento dell’Assistente Google in ogni dispositivo e la fine della giornata.

Anche prima del debutto del suo SoC Tensor, Google aveva investito molto nell'intelligenza artificiale per migliorare l'esperienza dell'utente.

Avanti veloce a Google I/O 2022, e l'ambient computing è stato ancora una volta, con Osterloh che ha ribadito che "In un mondo multi-dispositivo, le persone non vogliono passare la vita a preoccuparsi con la tecnologia”. Nel corso del keynote, ha sottolineato come gli sforzi di Google con i suoi dispositivi Pixel siano pensati pensando all'ambient computing. Una pietra angolare della visione di Google dell’ambient computing è, ovviamente, il SoC Tensor. Anche se potrebbe non vantare la potenza più elevata, il suo più grande punto di forza è il TPU, che è di Google motore di machine learning integrato che sfrutta l’esperienza di Google in materia di intelligenza artificiale miglioramenti.

Essenzialmente, una TPU è un componente hardware progettato specificamente per gestire massicce operazioni su matrici, che vengono generalmente utilizzate per carichi di lavoro di rete neurale da eseguire a velocità molto più elevate. Questi carichi di lavoro delle reti neurali rappresentano fondamentalmente il nucleo delle applicazioni basate sull’intelligenza artificiale. In genere, vengono elaborati dalla CPU o dalla GPU su altri chipset. Sebbene questi processi verranno gestiti senza grossi problemi su nessuno dei due, nessuno dei due è in grado di gestire queste attività con la stessa rapidità di un TPU.

Digitazione vocale di Pixel 7a in azione

Principalmente, il motivo per cui un TPU è più veloce è che sia la CPU che la GPU fanno affidamento, in misura variabile, sull'accesso alla memoria durante l'elaborazione di tali attività. Rispetto alla velocità di calcolo, l'accesso alla memoria è sostanzialmente più lento (si parla di von collo di bottiglia Neumann), che può ostacolare il throughput della CPU e della GPU durante l'esecuzione di queste matrici operazioni. Va notato, tuttavia, che la GPU è notevolmente più veloce della CPU in questo senso. Per via del modo in cui è progettata una TPU, l'accesso alla memoria non è richiesto durante l'elaborazione di queste operazioni sulla matrice, con conseguente throughput molto più elevato rispetto a entrambi. L'unico lato negativo è che il TPU è adatto solo a questo scopo, il che significa che non può sostituire né la CPU né la GPU per quanto riguarda i rispettivi compiti.

Data l'importanza del SoC Tensor, non è stata una sorpresa vedere il Pixel 6a di Google, il telefono di fascia media di Google di quell'anno – mantiene lo stesso SoC Tensor del suo fratello di punta, anche se a scapito di qualcosa di significativo come una frequenza di aggiornamento più elevata schermo. Se non altro, questo dimostra quanto sia cruciale il SoC Tensor per l’obiettivo finale di Google. Anche se prima poteva sembrare un semplice ripensamento o un progetto eccessivamente ambizioso, ora sembra di più credibile che mai, soprattutto con l’intelligenza artificiale generativa e i motori di processo del linguaggio naturale (NLP) che stanno conquistando il mondo tempesta.

Google Bard: l'intelligenza artificiale al timone

Fonte: Google

Nonostante sia riconosciuto rinomato per la sua ricerca all’avanguardia sull’intelligenza artificiale, non è stato Google ad avviare l’ondata più recente di applicazioni basate sull’intelligenza artificiale. Con la crescente popolarità dei chatbot basati sull'intelligenza artificiale come ChatGPT, Google era destinata a rilasciare la propria versione. Nel la moda più insignificante, Google ha finalmente presentato Bard, la sua versione dell'intelligenza artificiale generativa.

Come ChatGPT, Bard è un altro chatbot basato sull'intelligenza artificiale che utilizza un modello linguistico per rispondere alle domande dell'utente finale in modo naturale e colloquiale. Ciò che differisce dal suo concorrente è il modello su cui è addestrato, il che è più drastico di quanto la maggior parte delle persone possa pensare.

Invece del GPT di OpenAI, Bard utilizza il modello linguistico interno di Google, vale a dire LaMDA, che è stato sviluppato a porte chiuse. Prima di Bard, ne avevamo solo un assaggio di nuovo al Google I/O 2021. Naturalmente ci si aspettavano grandi cose da quell’annuncio, ed è difficile sostenere che Google non abbia mantenuto ciò che aveva promesso. Il problema è che Google lo è non solo in questo spazio. Per la prima volta in molti anni, Google non è il primo artefice di una particolare innovazione.

In effetti, OpenAI ha dato il via a ChatGPT. Oltre ad essere stato rilasciato prima al pubblico, ChatGPT ha già subito alcuni aggiornamenti significativi in ​​un tempo relativamente breve, inclusa l'introduzione di Il nuovo modello linguistico GPT-4 di OpenAI. Ancora più preoccupante è stato il modo in cui Microsoft ha dato nuova vita a Bing incorporando questa tecnologia. Se il fatto di essere sotto i riflettori della tecnologia AI non ha preoccupato abbastanza Google, allora minacciare la sua posizione dominante nella quota di mercato dei motori di ricerca li metterà sicuramente sulle spine. Ciò è stato evidente dal momento in cui Google ha frettolosamente tolto il velo a Bard, che a volte faticava a rispondere ad alcune domande fondamentali come nominare i mesi dell'anno o suggerire scherzosamente che il servizio sia già stato interrotto.

Va notato, tuttavia, che Bard è ancora agli inizi e le difficoltà di crescita erano destinate ad accadere, soprattutto viste le grandi promesse di una tale tecnologia. Da notare anche che tagliare per primi il traguardo non corrisponde necessariamente ad un successo garantito. Non è che tutto sia andato liscio nemmeno per OpenAI, con ChatGPT che occasionalmente è uscito dai binari. In effetti, Google ha ancora un’occasione d’oro non solo per raggiungere il chatbot di OpenAI, ma anche per reintegrarsi saldamente come quello da battere. Al Google I/O di quest'anno, l'azienda ha annunciato un sacco di nuove funzionalità e miglioramenti Mentre pubblicizzando come fosse "responsabile".

Come può Bard integrarsi nei dispositivi Google?

Bard può sfruttare molti aspetti di Pixel e della più ampia esperienza di Google Android. Per prima cosa, Bard trarrebbe vantaggio anche dalle capacità uniche del SoC Tensor all'interno dei suoi dispositivi Pixel.

Non è la prima volta che vediamo Google impegnarsi in funzionalità basate sull’intelligenza artificiale. Anche prima del debutto del suo SoC Tensor, Google aveva investito molto nell'intelligenza artificiale per migliorare l'esperienza dell'utente. Uno dei punti di forza dei dispositivi Pixel, Now Playing, ha fatto il suo debutto nel 2018. Un altro caposaldo dell’esperienza Pixel, la brillante elaborazione HDR+ di Google, ha fatto irruzione sulla scena molto prima che Google contemplasse l’idea di sviluppare il proprio SoC. Ovviamente, Google ha successivamente integrato il proprio chip Pixel Visual Core per assistere con la sua sofisticata post-elaborazione HDR+. Tuttavia, sono stati gli algoritmi di post-elaborazione di Google a far girare la testa a molti appassionati di tecnologia, al punto che alcune comunità di sviluppatori Android si sono interessate solo al porting dell'app Gcam di Google su altri dispositivi, migliorando sostanzialmente la qualità della foto. Anche Magic Eraser, una funzionalità rilasciata molto più tardi, lo fu presto offerto a tutti i dispositivi Pixel e agli abbonati a Google One.

Tensor non era il fondamento di queste funzionalità, ma è difficile sostenere che queste funzionalità non traggano vantaggio dalle capacità uniche dell'unità TPU dedicata di Tensor. Oltre a migliorare le prestazioni delle funzionalità esistenti, ciò potrebbe aprire un’opportunità per Google per aggiungere funzionalità ancora più ad alta intensità di intelligenza artificiale, e una di queste funzionalità potrebbe essere nientemeno che Bard AI. In effetti, è stato riferito che Bard AI potrebbe arrivare sui dispositivi Pixel come funzionalità esclusiva prima di essere potenzialmente implementato su tutti i telefoni Android.

Forse Google sta ancora testando il terreno tramite un'implementazione autonoma di Bard su Android prima di integrarlo definitivamente in qualcosa come Google Assistant. In questo modo, Google può offrire il meglio di entrambi i mondi: l’esperienza raffinata di Google Assistant e le capacità di Bard come motore di intelligenza artificiale generativa.

In generale, Google Assistant è un'ottima area per integrare Bard. Per cominciare, poiché la maggior parte dei telefoni Android è già dotata dell’Assistente Google preinstallato, una mossa del genere aumenterà rapidamente l’adozione di Bard. Inoltre, l’Assistente Google diventerà sostanzialmente più intelligente e più utile, grazie alla capacità di Bard di fornire risposte più sofisticate. Con Bard legato a Google Assistant, ciò potrebbe anche facilitare l'integrazione con qualsiasi altro dispositivo intelligente che supporti Google Assistant. In questo modo, non solo i tuoi telefoni diventeranno più intelligenti, ma tutti i tuoi dispositivi intelligenti. Curiosamente, Google non ha nemmeno menzionato l'Assistente durante l'I/O.

Tuttavia, se Google dovesse unire Bard e Google Assistant, ciò potrebbe solo aumentare le prestazioni di Bard sfruttando il potenziale di Tensor. Se Google potesse addestrare la sua TPU a utilizzare LaMDA (o PALM2), sui suoi dispositivi, questo potrebbe rappresentare un grande punto di svolta. Questo non solo farà pendere l’ago della bilancia a favore dei suoi dispositivi Pixel, ma potrebbe anche indurre un grande spostamento dell’attenzione durante la progettazione del prossimo SoC, diluendo ulteriormente l'enfasi sempre crescente sulle prestazioni grezze di CPU e GPU, evidenziando al contempo l'importanza di disporre di un processore capace, TPU dedicato.

Considerando quanto sia accesa la concorrenza, non c’è praticamente spazio perché Google sia troppo cauto per provarci.

Naturalmente, collegare Bard con l'Assistente Google presenterà le proprie sfide su cui Google dovrà lavorare. Ad esempio, Google dovrà sicuramente lavorare per ridurre praticamente a zero la possibilità di disinformazione. In caso contrario, Google potrebbe rischiare di minare l’affidabilità dell’Assistente Google, probabilmente il suo più grande punto di forza nel campo degli assistenti virtuali. È giusto dire che la posta in gioco è incredibilmente alta. Dato che Google è avanti a tutti in questo senso, tuttavia, non impegnarsi in questo piano sarebbe un’occasione troppo buona da sprecare.

Puoi vedere che Google ha già un'ampia base su cui lavorare. L'Assistente Google viene fornito con quasi tutti i telefoni Android ed è supportato da molti dispositivi intelligenti sul mercato. Google ora ha il proprio chipset Tensor progettato appositamente per concentrarsi su applicazioni basate sull'intelligenza artificiale. Queste sono due aree chiave in cui Google ha già battuto Microsoft. Considerando quanto sia accesa la concorrenza, non c’è praticamente spazio perché Google sia troppo cauto per provarci.

Microsoft è in vantaggio per ora...

Questa è stata la prima volta che abbiamo visto Google apparentemente in ritardo. Per un’azienda che è sempre stata orgogliosa della sua ricerca all’avanguardia sull’intelligenza artificiale, è strano vedere Google recuperare terreno in questo particolare aspetto. E tra tutti i suoi contendenti, è Microsoft ad essere in testa, grazie alla sua integrazione del nuovo modello linguistico GPT-4 di OpenAI che ha rilanciato Bing nel processo. Eppure c’è ancora quel senso di inevitabilità che Google riprenderà presto il comando, anche se attualmente esiste un considerevole divario tra le due società. Se non altro, Google deve ancora tirare fuori il suo asso dalla manica, mentre Microsoft ha già accelerato.

Tuttavia, non sarà una linea retta fino al traguardo. Google dovrà prima sgombrare alcuni angoli se deciderà di integrare Bard nei suoi dispositivi Pixel. Sebbene il percorso dell’Assistente Google possa sembrare una vittoria facile, presenta comunque le proprie sfide che Google deve affrontare. Detto questo, con Google che deve ancora lasciare la linea di partenza, è davvero la corsa da perdere di Microsoft. Potrebbe sembrare così adesso, ma probabilmente non lo sarà per molto.

Osservando Google I/O, sembra che Google, anche se in preda al panico, non sia ancora pronto a gettare la spugna.