O que a IA aprimorada pode significar para o próximo chip Tensor

A IA está na moda agora, mas que implicações isso pode ter no chipset Tensor focado em IA do Google?

Ultimamente, a IA tem estado no centro de muitos recursos essenciais à experiência do usuário, com muitas empresas buscando aproveitar o poder da IA ​​em qualquer novo recurso em desenvolvimento. Desde um melhor reconhecimento de fala até corrigindo fotos borradas e qualquer coisa intermediária, muitos dos recursos que consideramos garantidos hoje em dia foram construídos em torno da IA. No entanto, nenhuma dessas empresas tende a confiar mais nas proezas da IA ​​​​do que o Google. Embora muitos apontem os Tensor SoCs internos do Google como o primeiro indicador da crescente dependência do Google em IA, em na realidade, isso remonta muito antes do início dos Tensor SoCs. E com o Google anunciando suas intenções de se apoiar fortemente na IA no Google I/O deste ano, essa integração só se tornará mais importante.

Computação Ambiental: o objetivo final do Google

Em 2019, o vice-presidente sênior de dispositivos e serviços do Google, Rick Osterloh, divulgou pela primeira vez o termo “computação ambiental” ao público no

Evento Feito pelo Google ‘19. Para grande espanto do público, Osterloh definiu a computação ambiental como o conceito de ter o usuário final no centro do sistema, e não seus telefones ou quaisquer outros dispositivos que possua. “A ajuda está onde você quiser e é fluida”, disse ele. "A tecnologia simplesmente fica em segundo plano quando você não precisa dela."

Essencialmente, o objetivo do Google é desenvolver um sistema que lide de forma rápida e integrada com as consultas do usuário da maneira mais eficaz possível, com o mínimo de intrusão. Pense nele como o Jarvis do Homem de Ferro, exceto que atende usuários normais em vez de um super-herói bilionário. Da mesma forma, um assistente de voz – Google Assistant, no nosso caso – estará no centro desta visão ambiciosa. Neste ponto, muitos seriam perdoados por interpretar a chamada computação ambiental do Google como colocar o Google Assistant em todos os dispositivos e encerrar o dia.

Mesmo antes de lançar seu Tensor SoC, o Google investiu pesadamente em IA para aprimorar a experiência do usuário.

Avançar para E/S do Google 2022, e a computação ambiente foi mais uma vez, com Osterloh reiterando que “Em um mundo com vários dispositivos, as pessoas não querem passar a vida agitadas com tecnologia.” À medida que a palestra prosseguia, ele enfatizou como os esforços do Google com seus dispositivos Pixel são construídos tendo em mente a computação ambiente. Uma pedra angular da visão do Google sobre computação ambiente é, obviamente, o Tensor SoC. Embora possa não ostentar a maior potência, seu maior ponto forte é o TPU, que é do Google mecanismo integrado de aprendizado de máquina que aproveita a experiência do Google quando se trata de IA melhorias.

Essencialmente, uma TPU é uma peça de hardware projetada especificamente para lidar com operações de matriz massivas, que normalmente são usadas para que cargas de trabalho de rede neural sejam realizadas em velocidades muito mais rápidas. Essas cargas de trabalho de redes neurais representam basicamente o núcleo dos aplicativos baseados em IA. Normalmente, eles são processados ​​pela CPU ou GPU em outros chipsets. Embora esses processos sejam tratados sem grandes problemas em nenhum deles, nenhum deles pode lidar com essas tarefas tão rapidamente quanto uma TPU.

Digitação por voz do Pixel 7a em ação

Principalmente, o motivo pelo qual uma TPU é mais rápida é que tanto a CPU quanto a GPU dependem, em certa medida, do acesso à memória durante o processamento de tais tarefas. Comparado com a velocidade de cálculo, o acesso à memória é substancialmente mais lento (isso é conhecido como von Gargalo de Neumann), que pode prejudicar o rendimento da CPU e GPU ao executar essas matrizes operações. Deve-se notar, entretanto, que a GPU é consideravelmente mais rápida que a CPU nesse aspecto. Cortesia da forma como uma TPU é projetada, o acesso à memória não é necessário durante o processamento dessas operações de matriz, resultando em um rendimento muito maior do que qualquer uma delas. A única desvantagem é que a TPU só é adequada para esta finalidade, ou seja, não pode substituir nem a CPU nem a GPU nas respectivas tarefas.

Dada a importância do Tensor SoC, não foi uma grande surpresa ver o Pixel 6a do Google – o telefone de médio porte do Google daquele ano – manter o mesmo Tensor SoC de seu irmão principal, mesmo que isso seja às custas de algo tão significativo quanto uma taxa de atualização mais alta tela. Na verdade, isso mostra o quão crucial o Tensor SoC é para o objetivo final do Google. Embora possa ter parecido anteriormente uma mera reflexão tardia ou um projeto excessivamente ambicioso, agora parece mais credível do que nunca, especialmente com a IA generativa e os motores de processo de linguagem natural (PNL) que dominam o mundo tempestade.

Google Bard: IA no comando

Fonte: Google

Apesar de ser reconhecido por suas pesquisas de ponta em IA, não foi o Google quem iniciou a onda mais recente de aplicativos baseados em IA. Com chatbots baseados em IA, como o ChatGPT, crescendo em popularidade, o Google estava fadado a lançar sua própria versão. No moda mais inexpressiva, o Google finalmente revelou o Bard, sua própria versão da IA ​​generativa.

Assim como o ChatGPT, o Bard é outro chatbot baseado em IA que utiliza um modelo de linguagem para responder às dúvidas do usuário final de uma forma natural e coloquial. Onde ele difere de seu concorrente é o modelo no qual foi treinado, o que é mais drástico do que a maioria das pessoas imagina.

Em vez do GPT da OpenAI, Bard utiliza o modelo de linguagem desenvolvido internamente pelo Google, nomeadamente LaMDA, que foi desenvolvido a portas fechadas. Antes de Bard, só tivemos um vislumbre de volta ao Google I/O 2021. É claro que grandes coisas eram esperadas desse anúncio, e é difícil argumentar que o Google não cumpriu o que prometeu. O problema é que o Google está não sozinho neste espaço. Pela primeira vez em muitos anos, o Google não é o primeiro arquiteto de uma inovação específica.

Na verdade, a OpenAI deu o pontapé inicial com o ChatGPT. Além de ser lançado ao público primeiro, o ChatGPT já passou por algumas atualizações significativas neste período relativamente curto, incluindo a introdução do O mais novo modelo de linguagem GPT-4 da OpenAI. Ainda mais preocupante foi como a Microsoft deu nova vida ao Bing ao incorporar esta tecnologia. Se absorver os holofotes da tecnologia de IA não preocupasse o suficiente o Google, então ameaçar a sua posição dominante na quota de mercado dos motores de busca certamente os deixará em alerta. Isso ficou evidente a partir do momento em que o Google rapidamente retirou Bard, o que às vezes tinha dificuldade em responder a algumas perguntas básicas como nomear os meses do ano ou sugerir, brincando, que o serviço já foi encerrado.

Deve-se notar, entretanto, que Bard ainda está em sua infância, e as dores do crescimento estavam fadadas a acontecer, especialmente dadas as grandes promessas de tal tecnologia. Também digno de nota é que cruzar a linha primeiro não corresponde necessariamente a um sucesso garantido. Também não foi fácil para o OpenAI, com o ChatGPT ocasionalmente saindo dos trilhos. Na verdade, o Google ainda tem uma oportunidade de ouro não apenas para alcançar o chatbot da OpenAI, mas também para se restabelecer firmemente como aquele a ser batido. No Google I/O deste ano, a empresa anunciou uma série de novos recursos e melhorias enquanto divulgando como era ser "responsável".

Como o Bard pode se integrar aos dispositivos Google?

Bard pode aproveitar muitos aspectos do Pixel e uma experiência mais ampla do Google Android. Por um lado, Bard também prosperaria com os recursos exclusivos do Tensor SoC dentro de seus dispositivos Pixel.

Não é a primeira vez que vemos o Google se comprometer com recursos dependentes de IA. Mesmo antes de lançar seu Tensor SoC, o Google investiu pesadamente em IA para aprimorar a experiência do usuário. Um dos destaques dos dispositivos Pixel, Now Playing, fez seu estreia em 2018. Outra pedra angular da experiência Pixel, o brilhante processamento HDR+ do Google, entrou em cena muito antes de o Google considerar a ideia de desenvolver seu próprio SoC. Claro, Posteriormente, o Google integrou seu próprio chip Pixel Visual Core para auxiliar com seu sofisticado pós-processamento HDR +. No entanto, foram os algoritmos de pós-processamento do Google que chamaram a atenção de muitos entusiastas de tecnologia, tanto que algumas comunidades de desenvolvedores Android só tiveram interesse em portar o aplicativo Gcam do Google para outros dispositivos, melhorando substancialmente a qualidade da foto. Até o Magic Eraser, um recurso lançado muito mais tarde, logo foi trazido para todos os dispositivos Pixel e membros do Google One.

O Tensor não era a base desses recursos, mas é difícil argumentar que esses recursos não se beneficiam das habilidades exclusivas da unidade TPU dedicada do Tensor. Além de aumentar o desempenho dos recursos existentes, isso poderia abrir a oportunidade para o Google para adicionar ainda mais recursos com uso intensivo de IA, e um desses recursos poderia muito bem ser ninguém menos que Bard IA. Na verdade, foi relatado que Bard AI pode chegar aos dispositivos Pixel como um recurso exclusivo antes de ser potencialmente implementado em todos os telefones Android.

Talvez o Google ainda esteja testando o terreno por meio de uma implementação autônoma do Bard no Android antes de finalmente integrá-lo a algo como o Google Assistant. Dessa forma, o Google pode trazer o melhor dos dois mundos – a experiência refinada do Google Assistant e as capacidades do Bard como mecanismo de IA generativo.

Em geral, o Google Assistant é uma excelente área para integrar o Bard. Para começar, como a maioria dos telefones Android já vem com o Google Assistant pré-instalado, tal medida aumentará rapidamente a adoção do Bard. O Google Assistant também ficará substancialmente mais inteligente e útil, graças à capacidade de Bard de produzir respostas mais sofisticadas. Com o Bard vinculado ao Google Assistant, isso também poderia facilitar a integração com qualquer outro dispositivo inteligente que suporte o Google Assistant. Dessa forma, não apenas seus telefones ficarão mais inteligentes, mas todos os seus dispositivos inteligentes. Curiosamente, porém, o Google nem sequer mencionou o Assistant no I/O uma vez.

No entanto, se o Google unir o Bard e o Google Assistant, isso só poderá aumentar o desempenho do Bard, explorando o potencial do Tensor. Se o Google pudesse treinar sua TPU para utilizar LaMDA (ou PaLM 2), em seus dispositivos, isso pode ser uma grande virada de jogo. Isso não apenas inclinará a balança a favor de seus dispositivos Pixel, mas também poderá induzir uma grande mudança de foco ao projetar o próximo SoCs, diluindo ainda mais a ênfase cada vez maior no desempenho bruto da CPU e da GPU, ao mesmo tempo em que destaca a importância de ter um processador capaz, TPU dedicado.

Dado o quão acirrada é a concorrência, praticamente não há espaço para o Google ser muito cauteloso para tentar.

É claro que associar Bard ao Google Assistant apresentará seus próprios desafios nos quais o Google terá que trabalhar. Por exemplo, o Google certamente terá que trabalhar para reduzir a possibilidade de desinformação a praticamente zero. Se não o fizer, o Google corre o risco de minar a fiabilidade do Google Assistant, sem dúvida a sua maior força no espaço do assistente virtual. É justo dizer que os riscos são incrivelmente elevados. Dado que o Google está à frente de todos neste aspecto, no entanto, não se comprometer com esse plano seria uma oportunidade boa demais para ser desperdiçada.

Você pode ver que o Google já tem uma grande base para trabalhar. O Google Assistant acompanha quase todos os telefones Android e é compatível com vários dispositivos inteligentes do mercado. O Google agora tem seu próprio chipset Tensor desenvolvido especialmente para focar em aplicativos baseados em IA. Estas são duas áreas principais onde o Google já derrotou a Microsoft. Dado o quão acirrada é a concorrência, praticamente não há espaço para o Google ser muito cauteloso para tentar.

A Microsoft tem a vantagem por enquanto…

Esta foi a primeira vez que vimos o Google aparentemente ficando para trás. Para uma empresa que sempre se orgulhou de pesquisas de ponta em IA, é estranho ver o Google tentando se atualizar nesse aspecto específico. E de todos os seus concorrentes, é a Microsoft que lidera, graças à integração do mais novo modelo de linguagem GPT-4 da OpenAI que reviveu o Bing no processo. No entanto, ainda existe a sensação de inevitabilidade de que o Google retomará em breve a liderança, mesmo que exista atualmente uma lacuna considerável entre as duas empresas. Na verdade, o Google ainda não tirou seu ás da manga, enquanto a Microsoft já se precipitou.

Não será uma linha reta até o fim, no entanto. O Google terá que limpar alguns cantos primeiro, caso decida integrar o Bard em seus dispositivos Pixel. Embora o caminho do Google Assistant possa parecer uma vitória fácil, ele ainda apresenta seus próprios desafios que o Google deve enfrentar. Dito isto, com o Google ainda sem sair da linha de partida, a Microsoft realmente corre para perder. Pode parecer que sim agora, mas provavelmente não será por muito tempo.

Olhando para o Google I/O, parece que o Google, embora em pânico, ainda não está pronto para jogar a toalha.