Google Bard は恐ろしい誤った未来を垣間見る

Google Bard は AI の興味深い進歩ですが、現状では誤った情報を助長する可能性があります。

生成 AI は最近大流行しており、ChatGPT によって開始され、 Microsoft Bing が続きます. それ以来、 Googleは独自のAIチャットモデルの開発を加速し、限定的な形でBardをリリースしたようだ、そして今のところ、他の競合製品よりも劣っているようです。 基本的な質問に苦戦し、疑わしい情報源を使用しており、全体的に少し中途半端な製品のように見えます。

Google に対して完全に公平に言うと、これらの成長痛は Bing も直面したものであり、Bard はただ ただ 解放されました。 その上、Google は、Microsoft が Bing を想定していたような検索エンジンとして Bard を用意していません。 それでも、バードなら だった 検索エンジンとして十分優れているので、おそらく Google も検索エンジンとして宣伝するでしょう。 Google は取り残されることを望んでいません。Bing に対抗できる検索エンジンの競合他社がいるとしたら、ほぼ間違いなくそうするでしょう。

そうは言っても、バードは恐ろしい誤った情報を与えられた未来を垣間見ることになります。 すでに何度か失敗しており、Googleが自社のAIを不安定にならないように調整しているため、便利になるように調整することも難しくなっている。 AI が役立つためには、AI が動的である必要がありますが、そのダイナミズムには、AI が依存する広範なインターネットの危険も伴います。

Google Bard は検索エンジンになろうとしたが失敗した

Googleは一貫して、Bardは検索エンジンではなく、「検索を補完するもの」であると述べている。 Google は、電子メールの作成、メモの作成、その他の作業を支援する方法として Bard を使用してほしいと考えているようです。 他の クリエイティブ もの... と いいえ 情報を入手する。

Google が Bard を検索エンジンとして認識されることを望まないのであれば、なぜ Bard がインターネットに接続されているのでしょうか?

多くのユーザーが (ユーモアたっぷりに) 指摘しているように、Bard にインターネットが必要な質問をすると、Bard も検索して答えを与えようとします。 単に創造性を支援することを目的として設計されたものであれば、同社はそれをより簡単に実現できるでしょう。 ChatGPT を使用して、これまでに行われたことについての質問のみに答えることができるようにします。 で訓練されました。 しかし、そうではなく、答えがよくわからない質問をすると、調達に関して野心的な試みをするでしょう。

たとえば、ユーザーが Bard に、Bard がシャットダウンするまでどのくらい時間がかかるかを尋ねました。 その答えは、サービスがすでにシャットダウンされているというジョークの Hacker News コメントをソースとしました。

吟遊詩人は、一年の月に関しても自由を選択していますが、一年の最初の 2 か月を考えると、それが難しいようです。

上記のことが起こったとしか考えられないのは、バードが最初の 2 か月の「uary」の終わりを認識したということです( 2月のスペルミスあり)、年の月の代わりに独自のパターン認識に従いました 実際 それは.

しかし、何はともあれ、バードが必ずしもそうではないことは明らかです 準備 まさにそれが、Google によって検索エンジンとして宣伝されていない理由だと思います。 現時点では検索エンジンとして使用することができないという単純な理由から、これを検索エンジンとして使用するべきではありません。 物を見つけることはできますが、その真正性を検証する方法はなく、ランダムなハッカー ニュースを入手できるかどうかを確認することもできません。 サービス全体がシャットダウンされることに対するコメントですが、この部分でかなりの作業を行う必要があることは明らかです。 エリア。

Bard、ChatGPT、Bing と誤った情報の未来

誤った情報と偽情報はすでに現代社会に信じられないほど蔓延しているトピックであり、人工知能は 彼らがエンドユーザーに吐き戻すものについての基準となる枠組みはなくなり、これまで以上に感染症の蔓延に貢献する可能性があります。 誤報。 一般の人々は、AI を全知の存在であり、インターネット全体を私たちのような単なるユーザーに単純化できる方法で理解できると考えています。 それは真実からかけ離れたものではなく、事態はさらに悪化するばかりです。

吟遊詩人はすでに盗作の疑いで告発されている トムのハードウェア、これに直面すると、ユーザーが嘘をついていると非難しました。 この一部が「私は Bing でした 😊」という大失敗に似ていると思うなら、それは正しいでしょう。 これらは、Microsoft がすでに対処しているのと同じ落とし穴であり、AI を制限せずに回避するのは難しい問題です。 それも 多くの。 AI が嘘ではないものを嘘だと言う場合、たとえそれがありふれたものであっても、それは誤った情報に直接寄与することになります。

誤った情報を拡散したとして告発されている生成型 AI は Bard だけではありませんが、現在進行中の問題の一部であることは確かです。 AI が事実のみをエンドユーザーに提供することを保証することは、特に検索に関してはほぼ不可能です。 最近 情報。 AI が効果的に回答してくれると信頼できるものは何ですか? 私にとって、それは基本的に Google アシスタントができることすべてです... 主に、すでに照合済みのデータへのアクセスです。 エンドユーザーが利用するために AI によってまとめられたり収集されたりするものではありません。 データベースから読み取られているだけです。

私たちは現在岐路に立たされています。 一方で、AI は日が経つにつれてますます強力になり続けています。 このような言語モデルの人気は高まっており、ほとんどの人はその有効性を認識してすぐに使い始めるでしょう。 ChatGPT は最も急速に成長しているコンシューマ アプリケーションです これまで 1億人のユーザーに到達するまでにかかった時間の観点から。 そうは言っても、このような番組は、その内容が文字通り規制も検証もされていない場合、信じられないほどの影響力を持っています。

これらの AI ツールができるというわけではありません。 一度もない それは良いことですが、将来的には彼らが誤った情報や偽情報の加担者となる可能性が非常に高く、それに対抗するのは難しいでしょう。 Facebook はすでにあらゆる種類の陰謀論を人々に説得することに成功しており、AI は Google (または そこに Microsoft または OpenAI) の名前が掲載されると、ほぼ確実にそれらの陰謀論に寄与することになるでしょう。 点。 現時点では、これらのツールのいずれかを使用して私たちが提供できる最善のアドバイスは、すべての情報を再確認することです。 彼らはあなたに与えます、そしておそらくそれが今後長い間一般的なアドバイスになるでしょう。 来て。