KI ist derzeit in aller Munde, aber welche Auswirkungen kann das auf den KI-fokussierten Tensor-Chipsatz von Google haben?
In letzter Zeit war KI das Herzstück vieler Funktionen, die für das Benutzererlebnis von wesentlicher Bedeutung sind, und viele Unternehmen versuchen, die Leistungsfähigkeit der KI in jeder neuen Funktion, die sich in der Entwicklung befindet, zu nutzen. Von einer besseren Spracherkennung bis hin zu Unscharfe Fotos reparieren Und alles dazwischen: Viele der Funktionen, die wir heutzutage für selbstverständlich halten, basieren auf KI. Allerdings setzt wohl keines dieser Unternehmen stärker auf die Leistungsfähigkeit der KI als Google. Während viele darauf hinweisen, dass Googles interne Tensor-SoCs der erste Indikator für Googles zunehmende Abhängigkeit von KI sind, in In Wirklichkeit reicht es weit vor die Einführung der Tensor-SoCs zurück. Und da Google seine Absicht ankündigt, stark auf KI zu setzen bei diesjährige Google I/O, dass Integration nur noch wichtiger werden wird.
Ambient Computing: Googles ultimatives Ziel
Bereits im Jahr 2019 brachte Rick Osterloh, SVP für Geräte und Dienste bei Google, den Begriff „Ambient Computing“ erstmals der Öffentlichkeit bekannt Veranstaltung „Erstellt von Google“ 2019. Sehr zur Verwirrung des Publikums definierte Osterloh Ambient Computing als das Konzept, bei dem der Endbenutzer im Mittelpunkt des Systems steht und nicht seine Telefone oder andere Geräte, die er besitzt. „Hilfe ist überall, wo Sie sie brauchen, und sie ist fließend“, sagte er. „Die Technologie tritt einfach in den Hintergrund, wenn man sie nicht braucht.“
Das Ziel von Google besteht im Wesentlichen darin, ein System zu entwickeln, das die Anfragen des Nutzers so effektiv wie möglich und mit minimalem Eingriff problemlos und nahtlos bearbeitet. Betrachten Sie es als Jarvis von Iron Man, nur dass es sich an normale Benutzer richtet und nicht an einen milliardenschweren Superhelden. Ebenso wird ein Sprachassistent – in unserem Fall Google Assistant – im Mittelpunkt dieser ehrgeizigen Vision stehen. An dieser Stelle wäre es vielen verzeihlich, wenn sie das sogenannte Ambient Computing von Google so interpretieren würden, als würde sie den Google Assistant in jedes Gerät integrieren und damit Schluss machen.
Schon vor der Einführung seines Tensor-SoCs hat Google stark in KI investiert, um das Benutzererlebnis zu verbessern.
Schneller Vorlauf zu Google I/O 2022, und Ambient Computing war wieder einmal dabei, wobei Osterloh bekräftigte: „In einer Welt mit mehreren Geräten wollen die Menschen ihr Leben nicht mit Aufregung verbringen.“ mit Technologie.“ Im weiteren Verlauf der Keynote betonte er, wie die Bemühungen von Google mit seinen Pixel-Geräten auf Ambient Computing ausgerichtet sind. Ein Eckpfeiler von Googles Vision des Ambient Computing ist natürlich der Tensor SoC. Auch wenn es vielleicht nicht die höchste PS-Zahl hat, ist seine größte Stärke sein TPU, das von Google stammt integrierte Engine für maschinelles Lernen, die die Expertise von Google im Bereich KI nutzt Verbesserungen.
Im Wesentlichen handelt es sich bei einer TPU um eine Hardware, die speziell für die Verarbeitung umfangreicher Matrixoperationen entwickelt wurde, die normalerweise für neuronale Netzwerk-Workloads verwendet werden, die mit viel schnelleren Geschwindigkeiten ausgeführt werden sollen. Diese neuronalen Netzwerk-Workloads stellen im Grunde den Kern KI-basierter Anwendungen dar. Normalerweise werden sie entweder von der CPU oder der GPU anderer Chipsätze verarbeitet. Während diese Prozesse bei keinem von ihnen ohne größere Probleme abgewickelt werden, kann keiner von beiden diese Aufgaben so schnell erledigen wie ein TPU.
Pixel 7a-Spracheingabe in Aktion
Der Grund, warum eine TPU schneller ist, liegt in erster Linie darin, dass sowohl die CPU als auch die GPU in unterschiedlichem Maße darauf angewiesen sind, bei der Verarbeitung solcher Aufgaben auf den Speicher zuzugreifen. Im Vergleich zur Berechnungsgeschwindigkeit ist der Speicherzugriff wesentlich langsamer (dies wird als von bezeichnet). Neumann-Engpass), der den Durchsatz der CPU und GPU bei der Ausführung dieser Matrix beeinträchtigen kann Operationen. Allerdings ist zu beachten, dass die GPU in dieser Hinsicht deutlich schneller ist als die CPU. Aufgrund der Art und Weise, wie eine TPU konzipiert ist, ist während der Verarbeitung dieser Matrixoperationen kein Speicherzugriff erforderlich, was zu einem viel höheren Durchsatz als bei beiden führt. Der einzige Nachteil ist, dass die TPU nur für diesen Zweck geeignet ist, also weder die CPU noch die GPU hinsichtlich ihrer jeweiligen Aufgaben ersetzen kann.
Angesichts der Bedeutung des Tensor-SoC war es keine große Überraschung, Googles Pixel 6a zu sehen – Googles Mittelklasse-Telefon des Jahres – Behalten Sie den gleichen Tensor-SoC wie sein Flaggschiff-Geschwister bei, auch wenn dies auf Kosten einer so bedeutenden Sache wie einer höheren Bildwiederholfrequenz ging Bildschirm. Wenn überhaupt, zeigt dies, wie wichtig der Tensor-SoC für das ultimative Ziel von Google ist. Während es früher wie ein bloßer nachträglicher Einfall oder ein übermäßig ehrgeiziges Projekt klang, klingt es jetzt mehr glaubwürdiger als je zuvor, insbesondere mit generativer KI und NLP-Engines (Natural Language Process), die die Welt erobern Sturm.
Google Bard: KI am Ruder
Quelle: Google
Obwohl das Unternehmen zugegebenermaßen für seine hochmoderne KI-Forschung bekannt ist, war es nicht Google, das die jüngste Welle KI-gesteuerter Anwendungen ins Leben gerufen hat. Da KI-basierte Chatbots wie ChatGPT immer beliebter werden, war es für Google unumgänglich, eine eigene Version zu veröffentlichen. Im unscheinbarste ModeGoogle stellte schließlich Bard vor, seine eigene Version der generativen KI.
Wie ChatGPT ist Bard ein weiterer KI-gesteuerter Chatbot, der ein Sprachmodell verwendet, um auf natürliche, konversationelle Weise auf die Anfragen des Endbenutzers zu antworten. Es unterscheidet sich von seinem Konkurrenten durch das Modell, auf dem es trainiert wird. Das ist drastischer, als die meisten Menschen denken.
Anstelle von OpenAIs GPT nutzt Bard Googles selbst entwickeltes Sprachmodell, nämlich LaMDA, das hinter verschlossenen Türen entwickelt wurde. Vor Bard bekamen wir nur einen flüchtigen Blick zurück in Google I/O 2021. Von dieser Ankündigung wurden natürlich große Dinge erwartet, und es ist schwer zu behaupten, dass Google nicht gehalten hat, was es versprochen hat. Das Problem ist, dass Google es ist nicht allein in diesem Raum. Zum ersten Mal seit vielen Jahren ist Google nicht der erste Architekt einer bestimmten Innovation.
Tatsächlich hat OpenAI mit ChatGPT den Stein ins Rollen gebracht. Neben der ersten Veröffentlichung für die Öffentlichkeit hat ChatGPT in dieser relativ kurzen Zeit bereits einige bedeutende Verbesserungen erfahren, darunter die Einführung von Das neueste GPT-4-Sprachmodell von OpenAI. Noch besorgniserregender war, wie Microsoft Bing durch die Integration dieser Technologie neues Leben einhauchte. Wenn das Auftauchen ins Rampenlicht der KI-Technologie Google noch nicht genug beunruhigt hat, wird die Bedrohung seiner dominanten Position auf dem Suchmaschinenmarkt das Unternehmen sicherlich auf Trab halten. Dies wurde von dem Moment an deutlich, als Google Bard hastig entlarvte Manchmal hatte ich Schwierigkeiten, einige grundlegende Fragen zu beantworten B. die Monate des Jahres benennen oder scherzhaft andeuten, dass der Dienst bereits eingestellt wurde.
Es muss jedoch beachtet werden, dass Bard noch in den Kinderschuhen steckt und Wachstumsschwierigkeiten vorprogrammiert sind, insbesondere angesichts der großen Versprechen einer solchen Technologie. Bemerkenswert ist auch, dass das Überschreiten der Ziellinie nicht unbedingt mit einer Erfolgsgarantie einhergeht. Es ist auch nicht so, dass es für OpenAI reibungslos lief, da ChatGPT gelegentlich aus dem Ruder läuft. Tatsächlich hat Google immer noch die einmalige Gelegenheit, nicht nur mit dem Chatbot von OpenAI gleichzuziehen, sondern sich sogar wieder als derjenige zu behaupten, den es zu schlagen gilt. Auf der diesjährigen Google I/O präsentierte das Unternehmen kündigte eine Menge neuer Funktionen und Verbesserungen an während wirbt damit, dass es „verantwortungsvoll“ sei.
Wie kann Bard in Google-Geräte integriert werden?
Bard kann viele Aspekte des Pixels und des weiteren Google Android-Erlebnisses nutzen. Einerseits würde Bard auch von den einzigartigen Fähigkeiten des Tensor-SoC in seinen Pixel-Geräten profitieren.
Es ist nicht das erste Mal, dass Google sich für KI-basierte Funktionen engagiert. Schon vor der Einführung seines Tensor-SoCs hat Google stark in KI investiert, um das Benutzererlebnis zu verbessern. Eines der Highlights der Pixel-Geräte, Now Playing, hat es geschafft Debüt im Jahr 2018. Ein weiterer Eckpfeiler des Pixel-Erlebnisses, die brillante HDR+-Verarbeitung von Google, kam auf den Markt, lange bevor Google über die Idee nachdachte, einen eigenen SoC zu entwickeln. Natürlich, Später integrierte Google seinen eigenen Pixel Visual Core-Chip um Sie bei der anspruchsvollen HDR+-Nachbearbeitung zu unterstützen. Es waren jedoch die Nachbearbeitungsalgorithmen von Google, die vielen Technikbegeisterten den Kopf verdrehten Einige der Android-Entwicklergemeinschaften haben lediglich Interesse daran gezeigt, die Gcam-App von Google auf andere Geräte zu portieren. verbessert die Fotoqualität erheblich. Sogar Magic Eraser, eine Funktion, die viel später veröffentlicht wurde, war bald verfügbar für alle Pixel-Geräte und Google One-Mitglieder verfügbar.
Tensor war nicht die Grundlage dieser Funktionen, aber es lässt sich kaum argumentieren, dass diese Funktionen nicht von den einzigartigen Fähigkeiten der dedizierten TPU-Einheit von Tensor profitieren. Dies könnte nicht nur die Leistung vorhandener Funktionen steigern, sondern auch eine Chance für Google eröffnen um noch mehr KI-intensive Funktionen hinzuzufügen, und eine dieser Funktionen könnte durchaus kein anderer als Bard sein KI. Tatsächlich wurde darüber berichtet Bard AI könnte als exklusive Funktion auf Pixel-Geräten verfügbar sein bevor es möglicherweise auf allen Android-Telefonen eingeführt wird.
Vielleicht testet Google immer noch das Wasser mit einer eigenständigen Implementierung von Bard auf Android, bevor es es schließlich in etwas wie Google Assistant integriert. Auf diese Weise kann Google das Beste aus beiden Welten vereinen – das verfeinerte Erlebnis von Google Assistant und die Fähigkeiten von Bard als generative KI-Engine.
Im Allgemeinen ist Google Assistant ein hervorragender Ort, um Bard zu integrieren. Da auf den meisten Android-Telefonen Google Assistant bereits vorinstalliert ist, wird ein solcher Schritt die Akzeptanz von Bard schnell steigern. Dank Bards Fähigkeit, anspruchsvollere Antworten zu liefern, wird Google Assistant auch wesentlich intelligenter und nützlicher. Da Bard an Google Assistant gebunden ist, könnte dies auch die Integration in jedes andere Smart-Gerät erleichtern, das Google Assistant unterstützt. Auf diese Weise werden nicht nur Ihre Telefone, sondern alle Ihre Smart-Geräte intelligenter. Seltsamerweise erwähnte Google Assistant bei I/O jedoch kein einziges Mal.
Sollte Google jedoch Bard und Google Assistant zusammenfügen, könnte dies die Leistung von Bard nur steigern, indem das Potenzial von Tensor genutzt wird. Wenn Google seine TPU für die Verwendung von LaMDA trainieren könnte (oder Palme 2), auf seinen Geräten könnte dies ein großer Game-Changer sein. Dies wird nicht nur den Ausschlag zugunsten der Pixel-Geräte geben, sondern könnte auch zu einer deutlichen Schwerpunktverlagerung bei der Gestaltung der kommenden Geräte führen SoCs verwässern die immer stärker werdende Betonung der rohen CPU- und GPU-Leistung weiter und unterstreichen gleichzeitig die Bedeutung einer leistungsfähigen, dediziertes TPU.
Angesichts der Hitze der Konkurrenz gibt es für Google praktisch keinen Grund, zu vorsichtig zu sein und es auszuprobieren.
Natürlich bringt die Verknüpfung von Bard mit Google Assistant eigene Herausforderungen mit sich, an denen Google arbeiten muss. Beispielsweise wird Google sicherlich daran arbeiten müssen, die Möglichkeit von Fehlinformationen praktisch auf Null zu reduzieren. Geschieht dies nicht, riskiert Google, die Zuverlässigkeit von Google Assistant zu gefährden, seine wohl größte Stärke im Bereich der virtuellen Assistenten. Man kann mit Recht sagen, dass unglaublich viel auf dem Spiel steht. Angesichts der Tatsache, dass Google in dieser Hinsicht allen voraus ist, wäre es jedoch eine zu gute Gelegenheit, sich nicht auf diesen Plan einzulassen.
Sie sehen, dass Google bereits über eine große Grundlage verfügt, an der es arbeiten kann. Google Assistant ist in fast jedem Android-Telefon enthalten und wird von vielen Smart-Geräten auf dem Markt unterstützt. Google verfügt jetzt über einen eigenen Tensor-Chipsatz, der speziell für KI-basierte Anwendungen entwickelt wurde. Dies sind zwei Schlüsselbereiche, in denen Google Microsoft bereits geschlagen hat. Angesichts der Hitze der Konkurrenz gibt es für Google praktisch keinen Grund, zu vorsichtig zu sein und es auszuprobieren.
Microsoft ist vorerst im Vorteil …
Dies war das erste Mal, dass Google scheinbar hinterherhinkt. Für ein Unternehmen, das schon immer stolz auf seine Spitzenforschung im Bereich KI war, fühlt es sich seltsam an, dass Google in diesem speziellen Aspekt aufholt. Und von all seinen Konkurrenten hat Microsoft dank der Integration des neuesten GPT-4-Sprachmodells von OpenAI, das Bing wiederbelebt hat, die Nase vorn. Dennoch besteht immer noch das Gefühl der Unausweichlichkeit, dass Google bald die Führung zurückerobern wird, auch wenn zwischen beiden Unternehmen derzeit ein beträchtlicher Abstand besteht. Wenn überhaupt, hat Google sein Ass noch nicht aus dem Ärmel gezogen, während Microsoft bereits vorgesprungen ist.
Es wird jedoch keine gerade Linie bis zum Ziel sein. Sollte sich Google für die Integration von Bard in seine Pixel-Geräte entscheiden, muss Google zunächst einige Abstriche machen. Auch wenn die Google Assistant-Route wie ein einfacher Sieg klingt, stellt sie dennoch ihre eigenen Herausforderungen dar, die Google meistern muss. Da Google jedoch noch nicht an den Start gegangen ist, ist Microsoft in Wirklichkeit der Verlierer. Es könnte jetzt so aussehen, aber es wird wahrscheinlich nicht mehr lange so bleiben.
Wenn man sich Google I/O ansieht, sieht es so aus, als wäre Google zwar in Panik geraten, aber noch nicht bereit, das Handtuch zu werfen.