Co ulepszona sztuczna inteligencja może oznaczać dla następnego chipa Tensor

click fraud protection

Sztuczna inteligencja jest teraz w modzie, ale jakie może to mieć konsekwencje dla chipsetu Google Tensor skoncentrowanego na sztucznej inteligencji?

Ostatnio sztuczna inteligencja znalazła się w sercu wielu funkcji stanowiących integralną część doświadczenia użytkownika, a wiele firm stara się wykorzystać moc sztucznej inteligencji w każdej nowej opracowywanej funkcji. Od lepszego rozpoznawania mowy do poprawianie niewyraźnych zdjęć i cokolwiek pomiędzy, wiele funkcji, które obecnie uważamy za oczywiste, zostało zbudowanych w oparciu o sztuczną inteligencję. Jednak żadna z tych firm prawdopodobnie nie opiera się na umiejętnościach sztucznej inteligencji bardziej niż Google. Chociaż wielu będzie wskazywało wewnętrzne układy SoC Tensor firmy Google jako pierwszy wskaźnik rosnącej zależności Google od sztucznej inteligencji, w rzeczywistości sięga daleko wstecz, zanim pojawiły się układy SoC Tensor. A Google ogłosiło, że zamierza w dużym stopniu oprzeć się na sztucznej inteligencji Na tegoroczne Google I/O, że integracja będzie jeszcze ważniejsza.

Ambient Computing: ostateczny cel Google

W 2019 roku Rick Osterloh, wiceprezes Google ds. urządzeń i usług, po raz pierwszy publicznie rozpowszechnił termin „przetwarzanie w otoczeniu” podczas konferencji Wydarzenie przygotowane przez Google w roku 19. Ku wielkiemu zdziwieniu publiczności, Osterloh zdefiniował przetwarzanie otoczenia jako koncepcję, w której w centrum systemu znajduje się użytkownik końcowy, a nie jego telefon czy inne posiadane przez niego urządzenia. „Pomoc jest wszędzie tam, gdzie jej potrzebujesz i jest płynna” – powiedział. „Technologia po prostu schodzi na dalszy plan, gdy jej nie potrzebujesz”.

Zasadniczo celem Google jest opracowanie systemu, który łatwo i bezproblemowo obsługuje zapytania użytkownika tak skutecznie, jak to możliwe, przy minimalnej ingerencji. Pomyśl o tym jak o Jarvisie Iron Mana, z tą różnicą, że jest przeznaczony dla zwykłych użytkowników, a nie superbohatera-miliardera. Podobnie asystent głosowy – w naszym przypadku Asystent Google – będzie w centrum tej ambitnej wizji. W tym momencie wielu wybaczyłoby interpretację tak zwanego przetwarzania otoczenia Google jako umieszczania Asystenta Google na każdym urządzeniu i zamykania go.

Jeszcze przed debiutem SoC Tensor firma Google mocno inwestowała w sztuczną inteligencję, aby poprawić wygodę użytkownika.

Przejdź do przodu We/Wy Google 2022, a także ambient computing, a Osterloh powtórzył, że „W świecie wielu urządzeń ludzie nie chcą spędzać życia na zamartwianiu się z technologią.” W dalszej części przemówienia podkreślił, że wysiłki Google w zakresie urządzeń Pixel są budowane z myślą o przetwarzaniu otoczenia. Kamieniem węgielnym wizji Google dotyczącej przetwarzania otoczenia jest oczywiście Tensor SoC. Choć może nie może pochwalić się najwyższą mocą, jego największą zaletą jest TPU, czyli TPU zintegrowany silnik uczenia maszynowego, który wykorzystuje wiedzę Google w zakresie sztucznej inteligencji ulepszenia.

Zasadniczo TPU to element sprzętowy zaprojektowany specjalnie do obsługi ogromnych operacji macierzowych, które są zwykle używane w przypadku obciążeń sieci neuronowych, które muszą być wykonywane ze znacznie większymi prędkościami. Te obciążenia sieci neuronowych zasadniczo reprezentują rdzeń aplikacji opartych na sztucznej inteligencji. Zazwyczaj są one przetwarzane przez procesor lub procesor graficzny innych chipsetów. Chociaż te procesy nie będą obsługiwane bez większych problemów w żadnym z nich, żaden z nich nie jest w stanie obsłużyć tych zadań tak szybko, jak może to zrobić TPU.

Pisanie głosowe na Pixelu 7a w akcji

Przede wszystkim powodem, dla którego TPU jest szybszy, jest to, że zarówno procesor, jak i procesor graficzny w różnym stopniu korzystają z dostępu do pamięci podczas przetwarzania takich zadań. W porównaniu z szybkością obliczeniową, dostęp do pamięci jest znacznie wolniejszy (jest to określane jako zjawisko von wąskie gardło Neumanna), które mogą utrudniać przepustowość procesora i karty graficznej podczas wykonywania tych matryc operacje. Należy jednak zauważyć, że procesor graficzny jest pod tym względem znacznie szybszy niż procesor. Dzięki sposobowi, w jaki zaprojektowano TPU, dostęp do pamięci nie jest wymagany podczas przetwarzania tych operacji na matrycy, co skutkuje znacznie wyższą przepustowością niż w przypadku któregokolwiek z nich. Jedyną wadą jest to, że TPU nadaje się tylko do tego celu, co oznacza, że ​​nie może zastąpić procesora ani procesora graficznego w zakresie ich odpowiednich zadań.

Biorąc pod uwagę znaczenie układu Tensor SoC, pojawienie się Pixela 6a firmy Google – średniotonowego telefonu Google tego roku nie było wielkim zaskoczeniem – zachować ten sam SoC Tensor, co w swoim flagowym rodzeństwie, nawet jeśli odbyło się to kosztem czegoś tak istotnego, jak wyższa częstotliwość odświeżania ekran. To pokazuje, jak ważny jest Tensor SoC dla ostatecznego celu Google. Chociaż wcześniej mogło to brzmieć jak zwykła refleksja lub zbyt ambitny projekt, teraz brzmi bardziej wiarygodne niż kiedykolwiek, zwłaszcza dzięki generatywnej sztucznej inteligencji i silnikom procesów języka naturalnego (NLP), które podbijają świat burza.

Google Bard: sztuczna inteligencja na czele

Źródło: Google

Choć firma sama w sobie słynie z najnowocześniejszych badań nad sztuczną inteligencją, to nie Google zapoczątkowało najnowszą falę aplikacji opartych na sztucznej inteligencji. Wraz ze wzrostem popularności chatbotów opartych na sztucznej inteligencji, takich jak ChatGPT, Google był zmuszony wypuścić własną wersję. w najbardziej imponująca modaGoogle w końcu zaprezentował Bard, własne podejście do generatywnej sztucznej inteligencji.

Podobnie jak ChatGPT, Bard to kolejny chatbot oparty na sztucznej inteligencji, który wykorzystuje model językowy, aby odpowiadać na zapytania użytkownika końcowego w naturalny, konwersacyjny sposób. Tym, czym różni się od swojego konkurenta, jest model, na którym jest szkolony, co jest bardziej drastyczne, niż większość ludzi sądzi.

Zamiast GPT OpenAI, Bard wykorzystuje rodzimy model językowy Google, a mianowicie LaMDA, który został opracowany za zamkniętymi drzwiami. Przed Bardem mieliśmy tylko rzut oka ponownie w Google I/O 2021. Po tym ogłoszeniu spodziewano się oczywiście wielkich rzeczy i trudno zaprzeczyć, że Google nie dostarczył tego, co obiecał. Problem w tym, że Google nie sam w tej przestrzeni. Po raz pierwszy od wielu lat Google nie jest pierwszym architektem konkretnej innowacji.

Rzeczywiście, OpenAI rozkręciło sprawę dzięki ChatGPT. Oprócz tego, że ChatGPT został udostępniony publicznie po raz pierwszy, w tym stosunkowo krótkim czasie przeszedł już kilka znaczących ulepszeń, w tym wprowadzenie Najnowszy model języka GPT-4 OpenAI. Jeszcze bardziej niepokojące było to, jak Microsoft tchnął nowe życie w Bing, włączając tę ​​technologię. Jeśli skupienie się na technologii AI nie zmartwiło Google wystarczająco mocno, to zagrożenie dla jego dominującej pozycji w udziale w rynku wyszukiwarek z pewnością postawi je na nogi. Było to oczywiste od chwili, gdy Google pośpiesznie ujawnił Barda, co było faktem czasami miał trudności z odpowiedzią na kilka podstawowych pytań jak wymienianie miesięcy w roku lub żartobliwe sugerowanie, że usługa została już wyłączona.

Należy jednak zauważyć, że Bard jest wciąż w powijakach i nieuchronnie musiały nastąpić problemy związane z rozwojem, zwłaszcza biorąc pod uwagę wielkie nadzieje związane z taką technologią. Warto również zauważyć, że przekroczenie linii jako pierwszy niekoniecznie gwarantuje sukces. To nie jest tak, że w przypadku OpenAI wszystko poszło gładko, a ChatGPT czasami wypada z toru. Tak naprawdę Google wciąż ma doskonałą okazję, aby nie tylko dogonić chatbota OpenAI, ale nawet zdecydowanie odzyskać pozycję tego, który jest do pokonania. Na tegorocznej konferencji Google I/O firma ogłosił mnóstwo nowych funkcji i ulepszeń chwila przechwalając się, jak to jest być „odpowiedzialnym”.

W jaki sposób Bard może zintegrować się z urządzeniami Google?

Bard może wykorzystać wiele aspektów Pixela i szerszego doświadczenia Google Android. Po pierwsze, Bard będzie również prosperował dzięki unikalnym możliwościom SoC Tensor w swoich urządzeniach Pixel.

To nie pierwszy raz, kiedy Google angażuje się w funkcje oparte na sztucznej inteligencji. Jeszcze przed debiutem SoC Tensor firma Google mocno inwestowała w sztuczną inteligencję, aby poprawić wygodę użytkownika. Jedna z najważniejszych atrakcji urządzeń Pixel, Now Playing, pojawiła się debiut już w 2018 roku. Kolejny kamień węgielny doświadczenia Pixela, genialne przetwarzanie Google HDR+, wdarł się na scenę na długo przed tym, jak Google rozważał pomysł opracowania własnego SoC. Oczywiście, Google później zintegrował własny układ Pixel Visual Core aby pomóc w zaawansowanym przetwarzaniu końcowym HDR+. Jednak to algorytmy przetwarzania końcowego Google zawróciły w głowie wielu entuzjastom technologii do tego stopnia, że niektóre społeczności programistów Androida zainteresowały się jedynie przeniesieniem aplikacji Google Gcam na inne urządzenia, znacznie poprawiając jakość zdjęć. Wkrótce pojawiła się nawet funkcja Magic Eraser, która została wypuszczona znacznie później dostępna dla wszystkich urządzeń Pixel i członków Google One.

Tensor nie był podstawą tych funkcji, ale trudno argumentować, że funkcje te nie korzystają z unikalnych możliwości dedykowanej jednostki TPU Tensora. Oprócz zwiększenia wydajności istniejących funkcji może to otworzyć szansę dla Google dodać jeszcze więcej funkcji intensywnie wykorzystujących sztuczną inteligencję, a jedną z tych funkcji mógłby być nikt inny jak Bard sztuczna inteligencja Faktycznie, donoszono o tym Sztuczna inteligencja Bard może pojawić się na urządzeniach Pixel jako ekskluzywna funkcja zanim zostanie potencjalnie wdrożony na wszystkich telefonach z Androidem.

Być może Google wciąż testuje możliwości za pomocą samodzielnej implementacji Barda na Androida, zanim ostatecznie zintegruje ją z czymś takim jak Asystent Google. W ten sposób Google może połączyć to, co najlepsze z obu światów – wyrafinowane doświadczenie Asystenta Google i możliwości Barda jako generatywnego silnika sztucznej inteligencji.

Generalnie Asystent Google to doskonały obszar do integracji Barda. Na początek, ponieważ większość telefonów z Androidem ma już preinstalowanego Asystenta Google, takie posunięcie szybko zwiększy popularność Barda. Asystent Google stanie się również znacznie mądrzejszy i bardziej użyteczny dzięki zdolności Barda do tworzenia bardziej wyrafinowanych odpowiedzi. Dzięki powiązaniu Barda z Asystentem Google może to również ułatwić integrację z dowolnym innym inteligentnym urządzeniem obsługującym Asystenta Google. W ten sposób nie tylko Twoje telefony staną się inteligentniejsze, ale wszystkie inteligentne urządzenia. Co ciekawe, Google ani razu nie wspomniał o Asystencie przy we/wy.

Jeśli jednak Google połączy Barda i Asystenta Google, może to jedynie zwiększyć wydajność Barda poprzez wykorzystanie potencjału Tensora. Gdyby Google mógł przeszkolić swój TPU do korzystania z LaMDA (lub PaLM 2) na jej urządzeniach może to znacząco zmienić zasady gry. To nie tylko przechyli szalę na korzyść urządzeń Pixel, ale może również spowodować dużą zmianę punktu ciężkości podczas projektowania nadchodzącego SoC, jeszcze bardziej osłabiając stale rosnący nacisk na surową wydajność procesora i karty graficznej, podkreślając jednocześnie znaczenie posiadania wydajnego, dedykowana TPU.

Biorąc pod uwagę, jak zacięta jest konkurencja, Google praktycznie nie może wykazać się ostrożnością i spróbować.

Oczywiście połączenie Barda z Asystentem Google będzie wiązało się z wyzwaniami, nad którymi Google musi popracować. Na przykład Google z pewnością będzie musiał popracować nad ograniczeniem możliwości dezinformacji praktycznie do zera. W przeciwnym razie Google może ryzykować podważeniem niezawodności Asystenta Google, prawdopodobnie jego największej siły w przestrzeni wirtualnych asystentów. Można śmiało powiedzieć, że stawka jest niesamowicie wysoka. Biorąc jednak pod uwagę, że Google wyprzedza wszystkich pod tym względem, niezaangażowanie się w ten plan byłoby zbyt dobrą okazją do zmarnowania.

Widać, że Google ma już spore podstawy do pracy. Asystent Google jest dostarczany z prawie każdym telefonem z Androidem i jest obsługiwany przez wiele inteligentnych urządzeń dostępnych na rynku. Google ma teraz własny chipset Tensor, który został zaprojektowany z myślą o aplikacjach opartych na sztucznej inteligencji. To dwa kluczowe obszary, w których Google już pokonał Microsoft. Biorąc pod uwagę, jak zacięta jest konkurencja, Google praktycznie nie może wykazać się ostrożnością i spróbować.

Microsoft ma na razie przewagę…

Po raz pierwszy zaobserwowaliśmy, że Google pozornie pozostaje w tyle. Dla firmy, która zawsze szczyciła się najnowocześniejszymi badaniami nad sztuczną inteligencją, dziwnie jest widzieć, jak Google nadrabia zaległości w tym konkretnym aspekcie. Ze wszystkich konkurentów liderem jest Microsoft, dzięki integracji najnowszego modelu języka GPT-4 OpenAI, który przy okazji ożywił Bing. Jednak nadal istnieje poczucie nieuchronności tego, że Google wkrótce przejmie prowadzenie, nawet jeśli obecnie między obydwoma firmami istnieje znaczna przepaść. W każdym razie Google nie wyciągnął jeszcze asa z rękawa, podczas gdy Microsoft już rzucił wyzwanie.

Nie będzie to jednak prosta linia do mety. Google będzie musiał najpierw uporać się z pewnymi problemami, jeśli zdecyduje się na integrację Barda ze swoimi urządzeniami Pixel. Chociaż trasa Asystenta Google może wydawać się łatwa do wygrania, nadal wiąże się z wyzwaniami, z którymi Google musi sobie poradzić. Powiedziawszy to, skoro Google nie opuścił jeszcze linii startu, wyścig Microsoftu jest naprawdę do stracenia. Może teraz tak to wygląda, ale prawdopodobnie nie będzie to trwało długo.

Patrząc na Google I/O, wydaje się, że spanikowany Google nie jest jeszcze gotowy, aby rzucić ręcznik.