Lo que puede significar la IA mejorada para el próximo chip Tensor

click fraud protection

La IA está de moda ahora, pero ¿qué implicaciones puede tener eso en el chipset Tensor centrado en la IA de Google?

Últimamente, la IA ha estado en el centro de muchas características integrales de la experiencia del usuario, y muchas empresas buscan aprovechar el poder de la IA en cualquier característica nueva en desarrollo. Desde un mejor reconocimiento de voz hasta arreglando fotos borrosas Y cualquier cosa intermedia, muchas de las características que damos por sentado hoy en día se crearon en torno a la IA. Sin embargo, se puede decir que ninguna de estas empresas tiende a confiar más en las habilidades de la IA que Google. Si bien muchos señalarán los Tensor SoC internos de Google como el primer indicador de la creciente dependencia de Google de la IA, en En realidad, se remonta a mucho antes de la aparición de los Tensor SoC. Y con Google anunciando sus intenciones de apoyarse en gran medida en la IA en Google I/O de este año, esa integración será cada vez más importante.

Computación ambiental: el objetivo final de Google

En 2019, el vicepresidente senior de dispositivos y servicios de Google, Rick Osterloh, presentó por primera vez al público el término "computación ambiental" en la Hecho por el evento Google '19. Para desconcierto de la audiencia, Osterloh definió la computación ambiental como el concepto de tener al usuario final en el centro del sistema, no a sus teléfonos ni a ningún otro dispositivo que posea. "La ayuda está dondequiera que la necesites y es fluida", dijo. "La tecnología simplemente pasa a un segundo plano cuando no la necesitas".

Esencialmente, el objetivo de Google es desarrollar un sistema que maneje fácilmente y sin problemas las consultas del usuario de la manera más efectiva posible con una mínima intrusión. Piense en ello como el Jarvis de Iron Man, excepto que está dirigido a usuarios normales en lugar de a un superhéroe multimillonario. Asimismo, un asistente de voz (Google Assistant, en nuestro caso) estará en el centro de esta ambiciosa visión. En este punto, muchos serían perdonados por interpretar la llamada computación ambiental de Google como poner el Asistente de Google en cada dispositivo y dar por terminado el día.

Incluso antes de presentar su Tensor SoC, Google invirtió mucho en inteligencia artificial para mejorar la experiencia del usuario.

avance rápido a Google I/O 2022, y la informática ambiental lo fue una vez más, y Osterloh reiteró que “en un mundo con múltiples dispositivos, la gente no quiere pasarse la vida preocupándose con la tecnología”. A medida que avanzaba la conferencia, enfatizó cómo los esfuerzos de Google con sus dispositivos Pixel se construyen teniendo en cuenta la informática ambiental. Una piedra angular de la visión de Google sobre la informática ambiental es, por supuesto, el Tensor SoC. Si bien puede que no tenga la mayor potencia, su mayor fortaleza es su TPU, que es el de Google. Motor integrado de aprendizaje automático que aprovecha la experiencia de Google en lo que respecta a IA. mejoras.

Básicamente, una TPU es una pieza de hardware diseñada específicamente para manejar operaciones matriciales masivas, que normalmente se utilizan para cargas de trabajo de redes neuronales que se realizan a velocidades mucho más rápidas. Estas cargas de trabajo de redes neuronales representan básicamente el núcleo de las aplicaciones basadas en IA. Normalmente, son procesados ​​por la CPU o la GPU en otros conjuntos de chips. Si bien estos procesos se manejarán sin problemas importantes en ninguno de ellos, ninguno puede manejar estas tareas tan rápido como lo puede hacer una TPU.

Escritura por voz del Pixel 7a en acción

Principalmente, la razón por la que una TPU es más rápida es que tanto la CPU como la GPU dependen, en cierta medida, del acceso a la memoria mientras procesan dichas tareas. En comparación con la velocidad de cálculo, el acceso a la memoria es sustancialmente más lento (esto se conoce como von Cuello de botella de Neumann), que puede dificultar el rendimiento de la CPU y GPU al realizar estas matrices. operaciones. Sin embargo, cabe señalar que la GPU es considerablemente más rápida que la CPU en este sentido. Gracias a la forma en que está diseñada una TPU, no se requiere acceso a la memoria durante el procesamiento de estas operaciones matriciales, lo que resulta en un rendimiento mucho mayor que cualquiera de ellas. El único inconveniente es que el TPU sólo es apto para este propósito, lo que significa que no puede reemplazar ni a la CPU ni a la GPU en sus respectivas tareas.

Dada la importancia del Tensor SoC, no fue una gran sorpresa ver el Pixel 6a de Google, el teléfono de gama media de Google de ese año. – conservar el mismo SoC Tensor de su hermano insignia, incluso si fuera a expensas de algo tan importante como una frecuencia de actualización más alta pantalla. En todo caso, esto muestra cuán crucial es el Tensor SoC para el objetivo final de Google. Si bien antes podría haber sonado como una mera idea de último momento o un proyecto demasiado ambicioso, ahora suena más creíble que nunca, especialmente con la IA generativa y los motores de procesos de lenguaje natural (PLN) que están tomando al mundo por delante. tormenta.

Google Bard: IA al mando

Fuente: Google

A pesar de ser reconocido por su investigación de vanguardia en IA, no fue Google quien inició la ola más reciente de aplicaciones impulsadas por IA. Con los chatbots basados ​​en inteligencia artificial como ChatGPT ganando popularidad, Google estaba obligado a lanzar su propia versión. En el la moda más impresionante, Google finalmente presentó Bard, su propia versión de la IA generativa.

Al igual que ChatGPT, Bard es otro chatbot impulsado por IA que utiliza un modelo de lenguaje para responder a las consultas del usuario final de forma conversacional y natural. En lo que se diferencia de su competidor es en el modelo en el que se entrena, Lo cual es más drástico de lo que la mayoría de la gente podría pensar..

En lugar del GPT de OpenAI, Bard utiliza el modelo de lenguaje propio de Google, concretamente LaMDA, que se ha desarrollado a puerta cerrada. Antes de Bard, sólo pudimos vislumbrar de vuelta en Google I/O 2021. Por supuesto, se esperaban grandes cosas de ese anuncio, y es difícil argumentar que Google no cumplió lo prometido. El problema es que Google no solo en este espacio. Por primera vez en muchos años, Google no es el primer arquitecto de una innovación en particular.

De hecho, OpenAI puso en marcha la iniciativa con ChatGPT. Además de ser lanzado al público primero, ChatGPT ya ha experimentado algunas actualizaciones significativas en este tiempo relativamente corto, incluida la introducción de El modelo de lenguaje GPT-4 más nuevo de OpenAI. Aún más preocupante fue cómo Microsoft dio nueva vida a Bing al incorporar esta tecnología. Si sumergirse en el centro de atención de la tecnología de inteligencia artificial no preocupaba lo suficiente a Google, entonces amenazar su posición dominante en la cuota de mercado de los motores de búsqueda seguramente los tendrá alerta. Esto fue evidente desde el momento en que Google se apresuró a revelar a Bard, que A veces tenía dificultades para responder algunas preguntas básicas. como nombrar los meses del año o sugerir en broma que el servicio ya se ha cerrado.

Sin embargo, hay que señalar que Bard todavía está en su infancia y que es probable que se produzcan problemas de crecimiento, especialmente dadas las grandes promesas de dicha tecnología. También es digno de mención que cruzar la línea primero no necesariamente corresponde a un éxito garantizado. Tampoco es que OpenAI haya ido viento en popa, ya que ChatGPT ocasionalmente se descarrila. De hecho, Google todavía tiene una oportunidad de oro no sólo para ponerse al día con el chatbot de OpenAI, sino incluso para restablecerse firmemente como el rival a batir. En el Google I/O de este año, la empresa anunció un montón de nuevas características y mejoras. mientras promocionando cómo estaba siendo "responsable".

¿Cómo puede integrarse Bard en los dispositivos de Google?

Bard puede aprovechar muchos aspectos de Pixel y una experiencia más amplia de Google Android. Por un lado, Bard también aprovecharía las capacidades únicas del Tensor SoC dentro de sus dispositivos Pixel.

No es la primera vez que vemos a Google comprometerse con funciones basadas en IA. Incluso antes de presentar su Tensor SoC, Google invirtió mucho en inteligencia artificial para mejorar la experiencia del usuario. Uno de los aspectos más destacados de los dispositivos Pixel, Now Playing, hizo su aparición. debutó en 2018. Otra piedra angular de la experiencia Pixel, el brillante procesamiento HDR+ de Google, irrumpió en escena mucho antes de que Google contemplara la idea de desarrollar su propio SoC. Por supuesto, Posteriormente, Google integró su propio chip Pixel Visual Core para ayudar con su sofisticado posprocesamiento HDR+. Sin embargo, fueron los algoritmos de posprocesamiento de Google los que llamaron la atención de muchos entusiastas de la tecnología, hasta el punto de que Algunas de las comunidades de desarrolladores de Android solo se han interesado en trasladar la aplicación Gcam de Google a otros dispositivos. mejorando sustancialmente la calidad de la foto. Incluso Magic Eraser, una función que se lanzó mucho más tarde, pronto fue Llegado a todos los dispositivos Pixel y miembros de Google One..

Tensor no fue la base de esas características, pero es difícil argumentar que estas características no se benefician de las capacidades únicas de la unidad TPU dedicada de Tensor. Además de mejorar el rendimiento de las funciones existentes, esto podría abrir la oportunidad para que Google para agregar aún más funciones intensivas en IA, y una de estas funciones bien podría ser nada menos que Bard AI. De hecho, se ha informado que Bard AI podría llegar a los dispositivos Pixel como una característica exclusiva antes de implementarse potencialmente en todos los teléfonos Android.

Quizás Google todavía esté probando el terreno a través de una implementación independiente de Bard en Android antes de integrarlo finalmente en algo como el Asistente de Google. De esta manera, Google puede ofrecer lo mejor de ambos mundos: la experiencia refinada del Asistente de Google y las capacidades de Bard como motor de IA generativa.

En general, el Asistente de Google es un área excelente para integrar Bard. Para empezar, dado que la mayoría de los teléfonos Android ya vienen con el Asistente de Google preinstalado, esta medida aumentará rápidamente la adopción de Bard. El Asistente de Google también será sustancialmente más inteligente y útil gracias a la capacidad de Bard para generar respuestas más sofisticadas. Con Bard vinculado al Asistente de Google, esto también podría facilitar su integración con cualquier otro dispositivo inteligente que admita el Asistente de Google. De esta manera, no sólo tus teléfonos se volverán más inteligentes, sino todos tus dispositivos inteligentes. Curiosamente, Google ni siquiera mencionó al Asistente en I/O ni una sola vez.

Sin embargo, si Google uniera a Bard y al Asistente de Google, esto solo podría mejorar el rendimiento de Bard al aprovechar el potencial de Tensor. Si Google pudiera entrenar su TPU para utilizar LaMDA (o Palma 2), en sus dispositivos, esto podría suponer un gran cambio. Esto no solo inclinará la balanza a favor de sus dispositivos Pixel, sino que también podría inducir un gran cambio de enfoque al diseñar el próximo. SoC, diluyendo aún más el énfasis cada vez mayor en el rendimiento bruto de CPU y GPU, al tiempo que resalta la importancia de tener un procesador capaz, TPU dedicado.

Dado lo intensa que es la competencia, prácticamente no hay lugar para que Google sea demasiado cauteloso como para intentarlo.

Por supuesto, vincular a Bard con el Asistente de Google presentará sus propios desafíos en los que Google tendrá que trabajar. Por ejemplo, Google seguramente tendrá que trabajar para reducir la posibilidad de desinformación a prácticamente cero. De no hacerlo, Google podría correr el riesgo de socavar la confiabilidad del Asistente de Google, posiblemente su mayor fortaleza en el espacio de los asistentes virtuales. Es justo decir que hay mucho en juego. Sin embargo, dado que Google está por delante de todos en este sentido, no comprometerse con ese plan sería una oportunidad demasiado buena para desperdiciarla.

Puedes ver que Google ya tiene una gran base sobre la que trabajar. El Asistente de Google viene con casi todos los teléfonos Android y es compatible con muchos dispositivos inteligentes del mercado. Google ahora tiene su propio conjunto de chips Tensor diseñado para centrarse en aplicaciones basadas en inteligencia artificial. Éstas son dos áreas clave en las que Google ya ha superado a Microsoft. Dado lo intensa que es la competencia, prácticamente no hay lugar para que Google sea demasiado cauteloso como para intentarlo.

Microsoft tiene la ventaja por ahora...

Esta ha sido la primera vez que hemos visto a Google aparentemente rezagado. Para una empresa que siempre se ha enorgullecido de su investigación de vanguardia en IA, resulta extraño ver a Google ponerse al día en este aspecto en particular. Y de todos sus contendientes, es Microsoft quien lleva la delantera, gracias a la integración del modelo de lenguaje GPT-4 más nuevo de OpenAI que revivió a Bing en el proceso. Sin embargo, todavía existe la sensación de que Google pronto retomará el liderazgo, incluso si actualmente existe una brecha considerable entre ambas compañías. En todo caso, Google aún no ha sacado su as de la manga, mientras que Microsoft ya se apresuró.

Sin embargo, no será una línea recta hasta el final. Google primero tendrá que despejar algunos rincones si decide integrar Bard en sus dispositivos Pixel. Si bien la ruta del Asistente de Google puede parecer una victoria fácil, todavía presenta sus propios desafíos que Google debe superar. Dicho esto, dado que Google aún no ha abandonado la línea de salida, Microsoft realmente tiene la carrera que perder. Puede que ahora lo parezca, pero probablemente no lo será por mucho tiempo.

Mirando Google I/O, parece que Google, aunque entró en pánico, aún no está listo para tirar la toalla.