Google Bard є цікавим прогресом штучного інтелекту, але в своєму поточному стані він, ймовірно, сприятиме дезінформації.
Генеративний штучний інтелект останнім часом у моді, започаткований ChatGPT і потім Microsoft Bing. Відтоді, Google, здається, прискорив розробку власної моделі чату зі штучним інтелектом і випустив Bard в обмеженій кількості, і поки що здається, що це продукт нижчої якості від інших конкурентів. Він бореться з елементарними питаннями, використовує сумнівні джерела, і в цілому виглядає дещо напівфабрикатом.
Щоб бути цілком справедливим щодо Google, Bing також стикався з цими проблемами зростання, а Бард – лише з цим просто звільнений. Крім того, Google не вважав Bard пошуковою системою, як Microsoft вважала Bing. Тим не менш, якщо Бард був достатньо хороша, щоб бути пошуковою системою, я думаю, що Google, ймовірно, рекламуватиме її як таку. Google не хоче відставати, і якби він мав конкурента пошукової системи проти Bing, він майже напевно був би.
З огляду на все це, Бард — це проблиск у жахливо дезінформоване майбутнє. Уже кілька разів він псувався, і оскільки Google намагається зробити свій штучний інтелект менш нестабільним, стає важко налаштувати його, щоб він також став корисним. Щоб ШІ був корисним, він має бути динамічним, але цей динамізм супроводжується небезпекою широкого Інтернету, на який він покладається.
Google Bard намагається стати пошуковою системою, але не може
Google постійно заявляє, що Bard не є пошуковою системою, а натомість є «доповненням до Пошуку». Схоже, що Google хоче, щоб ви використовували Bard як засіб для створення електронних листів, запису нотаток і роботи інший творчий речі... і ні отримати інформацію.
Якщо Google не хоче, щоб Bard розглядався як пошукова система, то чому він підключений до Інтернету?
Як зазначили (з гумором) багато користувачів, ви можете поставити Bard запитання, для яких йому точно потрібен Інтернет, і він також шукатиме та намагатиметься дати вам відповідь. Якби він був розроблений, щоб просто допомогти з творчістю, компанія легко могла б зробити його набагато більше схожим ChatGPT і просто зробити так, щоб він міг відповідати лише на запитання про те, що було тренувався на. Однак це не так, і якщо ви поставите йому запитання, на які він не знає відповіді, він зробить деякі амбітні спроби знайти джерело.
Наприклад, користувач запитав Bard, скільки часу знадобиться, щоб Bard вимкнувся. Відповідь стала джерелом жартівливого коментаря Hacker News про те, що сервіс уже закрито.
Бард також дозволив собі вільність, коли мова йде про місяці року, з чим, здається, йому важко, коли ви вказуєте перші два місяці року.
Я можу тільки припустити, що вищезгадане сталося, так це те, що Бард розпізнав закінчення "уарі" перших двох місяців (поряд з орфографічною помилкою лютого) і використовував власне розпізнавання шаблонів замість місяців року насправді є.
Незважаючи ні на що, але зрозуміло, що Бард не зовсім такий готовий бути пошуковою системою, і я припускаю, що саме тому її не рекламували Google як таку. Ви не повинні використовувати його як пошукову систему з тієї простої причини, що на даний момент часу вона, здається, не може нею бути. Він може знаходити речі, але не має можливості перевірити їх автентичність, і якщо він може джерело випадкових новин хакерів зауваження щодо припинення роботи всієї служби, зрозуміло, що над цим потрібно виконати досить багато роботи область.
Bard, ChatGPT і Bing проти майбутнього дезінформації
Дезінформація та дезінформація вже є неймовірно поширеними темами в сучасному суспільстві, і штучний інтелект, який жодна система відліку для речей, які вони вивергають кінцевому користувачеві, може більше, ніж будь-коли, сприяти поширенню дезінформація. Звичайне населення розглядає ШІ як всезнаючу істоту, здатну осягнути весь Інтернет таким чином, щоб спростити його для простих користувачів, як ми. Це не може бути далі від істини, і далі буде тільки гірше.
Барда вже звинуватили в плагіаті Обладнання Тома, який під час конфронтації звинуватив користувача у брехні. Якщо ви думаєте, що щось із цього звучить подібно до фіаско «Я був хорошим Bing 😊», ви маєте рацію. Це ті самі підводні камені, з якими ми вже стикалися з Microsoft, і цю проблему важко обійти, не обмежуючи свій ШІ теж багато. Коли штучний інтелект каже, що щось є брехнею, але не є брехнею, це безпосередньо сприяє дезінформації, навіть якщо вона буденна.
Бард — не єдиний генеративний штучний інтелект, якого звинувачують у поширенні дезінформації, але це, безперечно, частина поточної проблеми. Майже неможливо переконатися, що штучний інтелект надає лише факти кінцевому користувачеві, особливо коли мова йде про пошук останній інформації. На що ви довіряєте ШІ, щоб ефективно відповісти? Для мене це практично все, на що здатний Google Assistant... насамперед доступ до вже зібраних даних. Він не збирається і не збирається штучним інтелектом для споживання кінцевим користувачем; воно просто зчитується з бази даних.
Зараз ми на роздоріжжі. З одного боку, штучний інтелект з плином часу стає все потужнішим. Популярність мовних моделей, подібних до цих, зростає, і більшість людей тільки побачать їхню ефективність і відразу почнуть ними користуватися; чорт забирай, ChatGPT — це найшвидше зростаюча споживча програма будь-коли з точки зору часу, необхідного для охоплення ста мільйонів користувачів. Зважаючи на це, такі програми мають неймовірний вплив, коли їхній вміст буквально не контролюється та не перевіряється.
Це не означає, що ці інструменти ШІ можуть ніколи це добре, але дуже ймовірно, що вони будуть сприяти дезінформації та дезінформації в майбутньому, і з цим буде важко боротися. Facebook вже вдається переконати людей у всіляких теоріях змови, а ШІ з Google (або Ім'я Microsoft або OpenAI на ньому майже напевно сприятиме цим теоріям змови в деяких точка. Наразі найкраща порада, яку ми можемо дати за допомогою будь-якого з цих інструментів, – це повторно перевірити всю інформацію, яку вони дають вам, і дуже ймовірно, що це буде переважаючою порадою в майбутньому протягом тривалого часу прийти.