Ce que l'IA améliorée peut signifier pour la prochaine puce Tensor

click fraud protection

L'IA fait fureur actuellement, mais quelles implications cela peut-il avoir sur le chipset Tensor de Google axé sur l'IA ?

Dernièrement, l’IA a été au cœur de nombreuses fonctionnalités faisant partie intégrante de l’expérience utilisateur, de nombreuses entreprises cherchant à exploiter la puissance de l’IA dans toute nouvelle fonctionnalité en cours de développement. D'une meilleure reconnaissance vocale à réparer des photos floues et quoi qu’il en soit entre les deux, bon nombre des fonctionnalités que nous tenons pour acquises de nos jours ont été construites autour de l’IA. Cependant, aucune de ces entreprises n’a sans doute davantage tendance à s’appuyer sur les prouesses de l’IA que Google. Alors que beaucoup désigneront les SoC Tensor internes de Google comme le premier indicateur de la dépendance croissante de Google à l’égard de l’IA, en En réalité, cela remonte bien avant la création des SoC Tensor. Et avec Google annonçant son intention de s'appuyer fortement sur l'IA à Google I/O de cette année, cette intégration n’en deviendra que plus importante.

Ambient Computing: l’objectif ultime de Google

En 2019, Rick Osterloh, vice-président directeur des appareils et services de Google, a pour la première fois lancé le terme « informatique ambiante » au public lors de l'événement. Événement Made by Google 2019. À la grande stupéfaction du public, Osterloh a défini l'informatique ambiante comme le concept consistant à placer l'utilisateur final au centre du système, et non son téléphone ou tout autre appareil qu'il possède. "L'aide est disponible partout où vous la souhaitez, et elle est fluide", a-t-il déclaré. "La technologie passe au second plan lorsque vous n'en avez pas besoin."

Essentiellement, l’objectif de Google est de développer un système qui traite facilement et de manière transparente les requêtes des utilisateurs aussi efficacement que possible avec un minimum d’intrusion. Considérez-le comme Jarvis d'Iron Man, sauf qu'il s'adresse aux utilisateurs normaux plutôt qu'à un super-héros milliardaire. De même, un assistant vocal – Google Assistant, dans notre cas – sera au centre de cette vision ambitieuse. À ce stade, beaucoup seraient pardonnés d’interpréter ce que l’on appelle l’informatique ambiante de Google comme installant Google Assistant dans chaque appareil et l’arrêtant.

Même avant de lancer son SoC Tensor, Google a fortement investi dans l’IA pour améliorer l’expérience utilisateur.

Avance rapide vers Google I/O 2022, et l’informatique ambiante l’était encore une fois, Osterloh réitérant que « dans un monde multi-appareils, les gens ne veulent pas passer leur vie à s’inquiéter ». avec la technologie. » Au fil du discours, il a souligné comment les efforts de Google avec ses appareils Pixel sont conçus en tenant compte de l’informatique ambiante. La pierre angulaire de la vision de Google en matière d’informatique ambiante est bien entendu le SoC Tensor. Même s’il n’a peut-être pas la puissance la plus élevée, sa plus grande force réside dans son TPU, qui est celui de Google. moteur d'apprentissage automatique intégré qui exploite l'expertise de Google en matière d'IA améliorations.

Essentiellement, un TPU est un élément matériel spécialement conçu pour gérer des opérations matricielles massives, qui sont généralement utilisées pour que les charges de travail des réseaux neuronaux soient effectuées à des vitesses beaucoup plus rapides. Ces charges de travail de réseaux neuronaux représentent essentiellement le cœur des applications basées sur l’IA. En règle générale, ils sont traités soit par le CPU, soit par le GPU sur d'autres chipsets. Bien que ces processus soient traités sans problèmes majeurs, aucun d’eux ne peut gérer ces tâches aussi rapidement qu’un TPU.

La saisie vocale du Pixel 7a en action

Principalement, la raison pour laquelle un TPU est plus rapide est que le CPU et le GPU dépendent, dans une mesure variable, de l'accès à la mémoire lors du traitement de ces tâches. Par rapport à la vitesse de calcul, l'accès à la mémoire est nettement plus lent (c'est ce qu'on appelle le von Goulot d'étranglement de Neumann), qui peut entraver le débit du CPU et du GPU lors de l'exécution de ces matrices opérations. Il faut cependant noter que le GPU est considérablement plus rapide que le CPU à cet égard. Grâce à la manière dont un TPU est conçu, l'accès à la mémoire n'est pas requis pendant le traitement de ces opérations matricielles, ce qui entraîne un débit beaucoup plus élevé que l'une ou l'autre. Le seul inconvénient est que le TPU n'est adapté qu'à cet effet, ce qui signifie qu'il ne peut remplacer ni le CPU ni le GPU dans leurs tâches respectives.

Compte tenu de l’importance du SoC Tensor, ce n’était pas vraiment une surprise de voir le Pixel 6a de Google – le téléphone de milieu de gamme de Google de cette année-là. – conserver le même SoC Tensor que son frère phare, même si c'était au détriment de quelque chose d'aussi important qu'un taux de rafraîchissement plus élevé écran. Au contraire, cela montre à quel point le SoC Tensor est crucial pour l’objectif ultime de Google. Même si cela aurait pu paraître auparavant comme une simple réflexion après coup ou comme un projet trop ambitieux, cela semble désormais plus crédible que jamais, en particulier avec les moteurs d'IA générative et de traitement du langage naturel (NLP) qui prennent le monde en tempête.

Google Bard: l'IA aux commandes

Source: Google

Bien qu’il soit reconnu pour ses recherches de pointe en matière d’IA, ce n’est pas Google qui a lancé la dernière vague d’applications basées sur l’IA. Avec la popularité croissante des chatbots basés sur l’IA comme ChatGPT, Google était obligé de publier sa propre version. Dans le la mode la plus peu impressionnante, Google a finalement dévoilé Bard, sa propre version de l'IA générative.

Comme ChatGPT, Bard est un autre chatbot basé sur l'IA qui utilise un modèle de langage pour répondre aux requêtes de l'utilisateur final de manière naturelle et conversationnelle. Là où il diffère de son concurrent, c'est le modèle sur lequel il est formé, ce qui est plus radical que ce que la plupart des gens pourraient penser.

Au lieu du GPT d'OpenAI, Bard utilise le modèle de langage développé par Google, à savoir LaMDA, qui a été développé à huis clos. Avant Bard, nous n'avions qu'un aperçu de retour dans Google I/O 2021. De grandes choses étaient bien sûr attendues de cette annonce, et il est difficile de prétendre que Google n’a pas tenu ses promesses. Le problème est que Google est pas seul dans cet espace. Pour la première fois depuis de nombreuses années, Google n’est pas le premier architecte d’une innovation particulière.

En effet, OpenAI a lancé le bal avec ChatGPT. En plus d'avoir été rendu public pour la première fois, ChatGPT a déjà subi des mises à niveau importantes au cours de cette période relativement courte, notamment l'introduction de Le dernier modèle de langage GPT-4 d'OpenAI. Encore plus inquiétant était la manière dont Microsoft a insufflé une nouvelle vie à Bing en intégrant cette technologie. Si le fait d’être sous les projecteurs de la technologie de l’IA n’inquiétait pas suffisamment Google, alors menacer sa position dominante sur le marché des moteurs de recherche le mettra sûrement sur ses gardes. Cela était évident à partir du moment où Google a dévoilé à la hâte Bard, qui j'ai parfois eu du mal à répondre à certaines questions fondamentales comme nommer les mois de l’année ou suggérer en plaisantant que le service a déjà été fermé.

Il convient toutefois de noter que Bard en est encore à ses balbutiements et que des difficultés de croissance étaient inévitables, compte tenu notamment des grandes promesses d’une telle technologie. Il convient également de noter que franchir la ligne en premier ne correspond pas nécessairement à un succès garanti. Ce n’est pas non plus comme si tout s’était bien passé pour OpenAI, ChatGPT déraillant parfois. En fait, Google a encore une occasion en or non seulement de rattraper le chatbot d’OpenAI, mais même de se réinstaller fermement comme celui à battre. Lors du Google I/O de cette année, la société a annoncé une tonne de nouvelles fonctionnalités et améliorations alors que vantant à quel point il était « responsable ».

Comment Bard peut-il s'intégrer aux appareils Google?

Bard peut profiter de nombreux aspects du Pixel et de l’expérience Google Android plus large. D’une part, Bard prospérerait également grâce aux capacités uniques du SoC Tensor à l’intérieur de ses appareils Pixel.

Ce n’est pas la première fois que Google s’engage en faveur de fonctionnalités basées sur l’IA. Même avant de lancer son SoC Tensor, Google a fortement investi dans l’IA pour améliorer l’expérience utilisateur. L'un des points forts des appareils Pixel, Now Playing, a fait son débuts en 2018. Une autre pierre angulaire de l’expérience Pixel, le brillant traitement HDR+ de Google, est entré en scène bien avant que Google n’envisage l’idée de développer son propre SoC. Bien sûr, Google a ensuite intégré sa propre puce Pixel Visual Core pour aider avec son post-traitement HDR+ sophistiqué. Cependant, ce sont les algorithmes de post-traitement de Google qui ont fait tourner la tête de nombreux passionnés de technologie, à tel point que certaines communautés de développeurs Android se sont uniquement intéressées au portage de l'application Gcam de Google sur d'autres appareils, améliorant considérablement la qualité des photos. Même Magic Eraser, une fonctionnalité sortie beaucoup plus tard, fut bientôt apporté à tous les appareils Pixel et aux membres Google One.

Tensor n'était pas le fondement de ces fonctionnalités, mais il est difficile d'affirmer que ces fonctionnalités ne bénéficient pas des capacités uniques de l'unité TPU dédiée de Tensor. En plus d'améliorer les performances des fonctionnalités existantes, cela pourrait ouvrir l'opportunité à Google pour ajouter encore plus de fonctionnalités gourmandes en IA, et l'une de ces fonctionnalités pourrait bien n'être autre que Bard IA. En fait, il a été rapporté que Bard AI pourrait arriver sur les appareils Pixel en tant que fonctionnalité exclusive avant d'être potentiellement déployé sur tous les téléphones Android.

Peut-être que Google est encore en train de tester le terrain via une implémentation autonome de Bard sur Android avant de finalement l'intégrer dans quelque chose comme Google Assistant. De cette façon, Google peut apporter le meilleur des deux mondes: l’expérience raffinée de Google Assistant et les capacités de Bard en tant que moteur d’IA générative.

En général, Google Assistant est un excellent domaine pour intégrer Bard. Pour commencer, étant donné que la plupart des téléphones Android sont déjà équipés de Google Assistant préinstallé, une telle décision augmentera rapidement l’adoption de Bard. Google Assistant deviendra également beaucoup plus intelligent et utile, grâce à la capacité de Bard à produire des réponses plus sophistiquées. Avec Bard lié à Google Assistant, cela pourrait également faciliter son intégration avec tout autre appareil intelligent prenant en charge Google Assistant. De cette façon, non seulement vos téléphones deviendront plus intelligents, mais tous vos appareils intelligents. Curieusement, Google n’a même pas mentionné l’Assistant lors des E/S.

Cependant, si Google associait Bard et Google Assistant, cela ne pourrait qu'améliorer les performances de Bard en exploitant le potentiel de Tensor. Si Google pouvait former son TPU à utiliser LaMDA (ou PaLM2), sur ses appareils, cela pourrait changer la donne. Non seulement cela fera pencher la balance en faveur de ses appareils Pixel, mais cela pourrait également induire un grand changement d'orientation lors de la conception du prochain SoC, diluant encore davantage l'accent toujours croissant mis sur les performances brutes du CPU et du GPU tout en soulignant l'importance d'avoir un processeur capable, TPU dédié.

Compte tenu de l’intensité de la concurrence, Google n’a pratiquement aucune place pour être trop prudent et tenter son chance.

Bien entendu, associer Bard à Google Assistant présentera ses propres défis sur lesquels Google devra travailler. Par exemple, Google devra sûrement s’efforcer de réduire à pratiquement zéro le risque de désinformation. À défaut de le faire, Google pourrait risquer de compromettre la fiabilité de Google Assistant, sans doute sa plus grande force dans le domaine des assistants virtuels. Il est juste de dire que les enjeux sont incroyablement élevés. Étant donné que Google est en avance sur tout le monde à cet égard, ne pas s'engager dans ce plan serait une trop belle opportunité à gâcher.

Vous pouvez voir que Google dispose déjà d’une base importante sur laquelle travailler. Google Assistant est livré avec presque tous les téléphones Android et est pris en charge par de nombreux appareils intelligents du marché. Google dispose désormais de son propre chipset Tensor, conçu spécialement pour se concentrer sur les applications basées sur l'IA. Ce sont deux domaines clés dans lesquels Google a déjà battu Microsoft. Compte tenu de l’intensité de la concurrence, Google n’a pratiquement aucune place pour être trop prudent et tenter son chance.

Microsoft a l’avantage pour l’instant…

C’est la première fois que nous voyons Google apparemment à la traîne. Pour une entreprise qui s’est toujours enorgueillie de ses recherches de pointe en matière d’IA, il semble étrange de voir Google rattraper son retard sur cet aspect particulier. Et parmi tous ses concurrents, c'est Microsoft qui est en tête, grâce à son intégration du dernier modèle de langage GPT-4 d'OpenAI qui a relancé Bing dans le processus. Pourtant, il existe toujours ce sentiment d’inévitabilité que Google reprenne bientôt la tête, même s’il existe actuellement un écart important entre les deux sociétés. Au contraire, Google n’a pas encore sorti son atout de sa manche, alors que Microsoft a déjà sauté le pas.

Mais ce ne sera pas une ligne droite jusqu’à l’arrivée. Google devra d'abord dégager certains coins s'il décide d'intégrer Bard dans ses appareils Pixel. Bien que la voie de l'Assistant Google puisse sembler une victoire facile, elle présente néanmoins ses propres défis que Google doit relever. Cela dit, comme Google n’a pas encore quitté la ligne de départ, c’est vraiment la course à perdre de Microsoft. C’est peut-être le cas maintenant, mais ce ne sera probablement pas pour longtemps.

En regardant Google I/O, il semble que Google, bien que paniqué, ne soit pas encore prêt à jeter l'éponge.