Google Bard est une progression intéressante de l'IA, mais dans son état actuel, il contribuera probablement à la désinformation.
Les IA génératives font fureur ces derniers temps, lancées par ChatGPT et suivi par Microsoft Bing. Depuis, Google a apparemment accéléré le développement de son propre modèle de chat IA et a publié Bard de manière limitée, et jusqu'à présent, il semble être un produit inférieur au reste de la concurrence. Il se débat avec des questions de base, utilise des sources douteuses et, en général, semble être un peu un produit à moitié cuit.
Pour être tout à fait juste envers Google, Bing a également dû faire face à ces difficultés de croissance, et Bard n'a fait que juste libéré. En plus de cela, Google n'a pas fait de Bard un moteur de recherche comme Microsoft l'a annoncé. Néanmoins, si Bard était assez bon pour être un moteur de recherche, je pense que Google en ferait probablement la publicité. Google ne veut pas être laissé pour compte, et s'il avait un moteur de recherche concurrent à opposer à Bing, il le ferait presque certainement.
Avec tout cela étant dit, Bard est un aperçu d'un avenir terriblement mal informé. Il a déjà foiré à plusieurs reprises, et comme Google se dispute sa propre IA pour qu'elle soit moins erratique, il devient difficile de l'ajuster pour qu'elle devienne également utile. Pour que l'IA soit utile, elle doit être dynamique, mais ce dynamisme s'accompagne également du péril de l'Internet plus large sur lequel elle s'appuie.
Google Bard essaie et échoue d'être un moteur de recherche
Google dit constamment que Bard n'est pas un moteur de recherche mais plutôt "un complément à la recherche". Il semble que Google souhaite que vous utilisiez Bard pour vous aider à générer des e-mails, rédiger des notes et faire autre créatif choses... et pas obtenir des informations.
S'il est vrai que Google ne veut pas que Bard soit considéré comme un moteur de recherche, pourquoi est-il connecté à Internet ?
Comme de nombreux utilisateurs l'ont (avec humour) souligné, vous pouvez poser des questions à Bard pour lesquelles il a absolument besoin d'Internet, et il cherchera et essaiera également de vous donner une réponse. S'il était conçu pour simplement aider à la créativité, l'entreprise pourrait facilement le rendre beaucoup plus ChatGPT et faites simplement en sorte qu'il ne puisse répondre qu'aux questions sur les choses qu'il a été formé sur. Cependant, ce n'est pas le cas, et si vous lui posez des questions auxquelles il ne connaît pas tout à fait la réponse, il fera des tentatives ambitieuses de sourçage.
Par exemple, un utilisateur a demandé à Bard combien de temps cela prendrait pour que Bard s'arrête. La réponse a été tirée d'un commentaire humoristique de Hacker News pour dire que le service était déjà fermé.
Bard a également pris des libertés en ce qui concerne les mois de l'année, ce avec quoi il semble avoir du mal quand on lui donne les deux premiers mois de l'année.
Comment je ne peux que supposer que ce qui précède s'est produit, c'est que Bard a reconnu la fin "uary" des deux premiers mois (le long avec la faute d'orthographe de février) et a suivi sa propre reconnaissance de modèle au lieu de ce que les mois de l'année en fait sont.
Quoi qu'il en soit, il est clair que Bard n'est pas exactement prêt être un moteur de recherche, et je suppose que c'est exactement la raison pour laquelle il n'a pas été annoncé comme tel par Google. Vous n'êtes pas censé l'utiliser comme moteur de recherche pour la simple raison qu'à l'heure actuelle, il ne semble pas capable d'en être un. Il peut trouver des choses, mais il n'a aucun moyen de vérifier leur authenticité, et s'il peut sourcer un Hacker News aléatoire commentaire pour l'ensemble du service étant fermé, il est clair qu'un peu de travail doit être fait dans ce domaine zone.
Bard, ChatGPT et Bing contre l'avenir de la désinformation
La mésinformation et la désinformation sont déjà des sujets incroyablement répandus dans la société moderne, et les intelligences artificielles qui ont aucun cadre de référence pour les choses qu'ils régurgitent à un utilisateur final peut contribuer plus que jamais à la propagation de désinformation. La population générale considère une IA comme un être omniscient, capable de comprendre l'ensemble d'Internet d'une manière qui peut le simplifier pour de simples utilisateurs comme nous. Cela ne pourrait pas être plus éloigné de la vérité, et cela ne fera qu'empirer.
Bard a déjà été accusé de plagiat Le matériel de Tom, qui, confronté, a ensuite accusé l'utilisateur de mentir. Si vous pensez que cela ressemble en partie à la débâcle "J'ai été un bon Bing 😊", vous avez raison. Ce sont les mêmes pièges auxquels Microsoft a déjà été confronté, et c'est un problème difficile à contourner sans limiter votre IA aussi beaucoup. Lorsqu'une IA dit que quelque chose est un mensonge qui n'en est pas un, cela contribue directement à la désinformation, même si c'est banal.
Bard n'est pas la seule IA générative accusée de diffuser de la désinformation, mais cela fait certainement partie du problème actuel. Il est presque impossible de s'assurer qu'une IA ne donne que des faits à un utilisateur final, surtout lorsqu'il s'agit de rechercher récent information. À quoi faites-vous confiance à une IA pour répondre efficacement? Pour moi, c'est essentiellement tout ce dont l'assistant Google est capable... principalement l'accès à des données déjà rassemblées. Il n'est pas assemblé ou collecté par une IA pour la consommation de l'utilisateur final; il est juste lu à partir d'une base de données.
Nous sommes actuellement à la croisée des chemins. D'une part, l'IA devient de plus en plus puissante au fil des jours. Les modèles de langage comme ceux-ci gagnent en popularité, et la plupart des gens ne verront que leur efficacité et commenceront à les utiliser immédiatement; diable, ChatGPT est l'application grand public qui connaît la croissance la plus rapide jamais en termes de temps qu'il a fallu pour atteindre cent millions d'utilisateurs. Cela dit, des programmes comme ceux-ci ont une influence incroyable lorsque leur contenu est littéralement non contrôlé et non vérifié.
Cela ne veut pas dire que ces outils d'IA peuvent jamais être bon, mais il est très probable qu'ils contribueront à la désinformation et à la désinformation à l'avenir, et cela va être difficile à combattre. Facebook parvient déjà à convaincre les gens de toutes sortes de théories du complot, et une IA avec celle de Google (ou Le nom de Microsoft ou OpenAI) contribuera presque certainement à ces théories du complot à un certain moment. indiquer. Pour l'instant, le meilleur conseil que nous puissions donner avec l'un de ces outils est de revérifier toutes les informations qui qu'ils vous donnent, et il est très probable que ce sera le conseil qui prévaudra pendant longtemps pour venir.