Google I/O показывает, что компания чувствовала угрозу со стороны конкурентов. Тем не менее, он все еще может выйти на первое место.
Google I/O находится в стадии реализации, и компания провела большую часть своего основного выступления, рассказывая об искусственных интеллект, успехи, которые компания делает в этой области, и что значит быть ответственным с ИИ. Эта последняя часть особенно интересна, так как в то время как другие компании, такие как OpenAI и Microsoft, пытаются найти Чтобы найти баланс между тем, чтобы дать ИИ свободу и немного управлять им, Google с самого начала фокусируется на аспекте «управления».
Джеймс Маньика, возглавляющий отдел технологий и общества Google, выступил во время основного доклада Google. о том, как компания стремится ответственно интегрировать ИИ, несмотря на то, что представила огромное количество новых услуги.
«Также важно признать, что ИИ может усугубить существующие социальные проблемы. таких как несправедливая предвзятость — и создают новые проблемы по мере того, как они становятся более продвинутыми и появляются новые способы их использования», — написал он. в
сообщение в блоге Google. Вот почему мы считаем необходимым ответственно подходить к ИИ».Конечно, легко увлечься маркетингом «ответственности», который, по словам Google, является неотъемлемой частью его работы. Однако есть и другая, более циничная интерпретация: Google запаниковал и использует эту формулировку, чтобы позиционировать себя как превосходную платформу искусственного интеллекта.
Google явно запаниковал благодаря ChatGPT и Bing
Глядя на основной доклад Google I/O, становится ясно, что компании нужно было придумать что-то, с чем можно было бы конкурировать. ЧатGPT и Bing, и Бард явно не хотел этого. И это не просто объявило об одной или двух функциях и некоторых улучшениях Bard; он выпускал новую функцию за новой функцией за новой функцией. Ключевым моментом было постоянное наводнение генеративными функциями искусственного интеллекта, которые появлялись в Поиске, Google Workspace и практически во всех других приложениях в наборе Google. Он даже запустил функции генеративного искусственного интеллекта для Google Cloud, позиционируя себя как в Решение «программное обеспечение как услуга» в области искусственного интеллекта благодаря Vertex.
Если читать между строк, кажется, что Google не просто почувствовал угрозу; это на самом деле запаниковал. В отместку он сделал каждый продукт, о котором только мог подумать, придумав так много невероятных новых функций, что их трудно уследить. К ним относятся:
- Универсальный переводчик
- Генеративный ИИ в поиске Google
- Улучшения Google Bard
- Палм 2
- Гугл Дуэт
- Генеративные обои
Это еще не все, потому что Google хочет, чтобы вы верили, что ключевой причиной отставания от времени было то, что он был «ответственным» и не торопился.
Google утверждает, что ответственность важна
Google потратил много времени на разговоры об «ответственности» в области искусственного интеллекта, чего не сделали такие компании, как Microsoft и OpenAI. Компания активно создает инструменты, которые позволят ей бороться с дезинформацией, которую могут генерировать ее собственные технологии. Сюда входят метаданные, которые могут, например, помечать изображения водяными знаками как сгенерированные.
«Ответственность» также является отличной защитой, за которой можно спрятаться, потому что, хотя эти функции реализованы в формате Labs, список ожидания, они могут сказать, что функции доступны, просто не для всех, и с отказом от ответственности они не в своем окончательном состояния. Это отличный способ выждать время, пока они не будут готовы к публикации.
Вся речь Маньики была не просто проповедью важности осторожности (что не является спорной позицией). Это способ показать компаниям, что Google хочет, чтобы их воспринимали как взрослых. В то время как Microsoft и OpenAI продвигаются вперед и пытаются превзойти друг друга с помощью языковых моделей ИИ, ограничения которых они пока не понимают, Google пытается вызвать чувство спокойствия, что он хочет не торопиться и внедрять функции, которые готовы к работе, прежде чем развертывать их для широкой публики.
Генеративный ИИ Google тоже будет иметь неточности
Если вы посмотрите в правый нижний угол изображения выше, на котором показаны примеры генеративного ИИ, вы увидите, что у Google все еще есть предупреждение. в котором говорится, что «генеративный ИИ может быть неточным или оскорбительным». В то время как большинство людей не подумали бы, что это было абсолютно точно, это показывает, что Google не уверен, что решил проблему неточностей и дезинформации, с которой борются как Microsoft, так и OpenAI. с. Он просто хочет, чтобы вы думали, что это так.
Конечно, если бы сейчас Google был на одном уровне с OpenAI и Microsoft (что еще предстоит выяснить), то это уже большой скачок по сравнению с тем, как выглядел Bard совсем недавно. Однако ответственность не имеет большого значения, если ее продукция по-прежнему находится в том же положении, что и ее конкуренты. Хорошо ли раскрывать информацию об изображениях? Абсолютно. Тем не менее, возможность генерировать или получать дезинформацию в виде результатов поиска не решена, и в этих объявлениях этот факт теряет приоритет.
Тем не менее, мы будем рады попробовать то, что готовит Google в области генеративного ИИ. Это отличные улучшения, которые могут вывести Google в лидеры, с функциями, предназначенными для предприятий в форма Vertex AI в дополнение к действительно полезным функциям, интегрированным в Поиск и часть Google. Люкс... но это также может быть просто маркетинговым ходом, чтобы компенсировать недостатки, с которыми Google сталкивался до сих пор.