Google Bard ist ein Blick in eine erschreckend falsch informierte Zukunft

Google Bard ist eine interessante Weiterentwicklung der KI, wird aber in seinem aktuellen Zustand wahrscheinlich zu Fehlinformationen beitragen.

Generative KIs liegen in letzter Zeit voll im Trend, ausgelöst durch ChatGPT und gefolgt von Microsoft Bing. Seit damals, Google hat offenbar die Entwicklung seines eigenen KI-Chat-Modells beschleunigt und Bard in begrenztem Umfang veröffentlicht, und bisher scheint es dem Rest der Konkurrenz ein minderwertiges Produkt zu sein. Es kämpft mit grundlegenden Fragen, nutzt fragwürdige Quellen und wirkt im Allgemeinen eher wie ein unausgegorenes Produkt.

Um Google gegenüber völlig fair zu sein, sind diese Wachstumsschmerzen auch bei Bing aufgetreten, bei Bard jedoch nur Nur freigegeben. Darüber hinaus hat Google Bard nicht als Suchmaschine ins Auge gefasst, wie Microsoft es Bing angepriesen hat. Dennoch, wenn Bard War Obwohl sie gut genug ist, um eine Suchmaschine zu sein, würde Google sie meiner Meinung nach wahrscheinlich als solche bewerben. Google möchte nicht zurückbleiben, und wenn es einen Suchmaschinenkonkurrenten hätte, den es gegen Bing antreten könnte, wäre das mit ziemlicher Sicherheit der Fall.

Abgesehen davon ist Bard ein Blick in eine erschreckend falsch informierte Zukunft. Es hat bereits mehrfach Fehler gemacht, und da Google darum kämpft, seine eigene KI weniger unberechenbar zu machen, wird es schwierig, sie auch so zu optimieren, dass sie nützlich ist. Damit KI nützlich ist, muss sie dynamisch sein, aber diese Dynamik birgt auch die Gefahr des breiteren Internets, auf das sie angewiesen ist.

Google Bard versucht und scheitert, eine Suchmaschine zu sein

Google sagt immer wieder, dass Bard keine Suchmaschine, sondern „eine Ergänzung zur Suche“ sei. Es scheint, dass Google möchte, dass Sie Bard nutzen, um E-Mails zu generieren, Notizen zu schreiben und vieles mehr andere kreativ Dinge... Und nicht Informationen bekommen.

Wenn Google nicht möchte, dass Bard als Suchmaschine gesehen wird, warum ist es dann mit dem Internet verbunden?

Wie viele Benutzer (scherzhaft) darauf hingewiesen haben, können Sie Bard Fragen stellen, für die es unbedingt das Internet benötigt, und es wird auch danach suchen und versuchen, Ihnen eine Antwort zu geben. Wenn es nur dazu gedacht wäre, die Kreativität zu fördern, könnte das Unternehmen es leicht viel ähnlicher gestalten ChatGPT und stellen Sie einfach sicher, dass es nur Fragen zu Dingen beantworten kann, die es bereits gegeben hat trainiert auf. Dies ist jedoch nicht der Fall, und wenn Sie ihm Fragen stellen, auf die er die Antwort nicht genau kennt, wird er einige ehrgeizige Beschaffungsversuche unternehmen.

Beispielsweise fragte ein Benutzer Bard, wie lange es dauern würde, bis Bard heruntergefahren würde. Die Antwort stammte aus einem scherzhaften Kommentar von Hacker News, in dem es hieß, der Dienst sei bereits eingestellt worden.

Bard hat sich auch Freiheiten genommen, was die Monate des Jahres angeht, womit es anscheinend zu kämpfen hat, wenn man ihm die ersten beiden Monate des Jahres gibt.

Ich kann nur annehmen, dass das oben Genannte passiert ist, weil Bard das „uary“-Ende der ersten zwei Monate (zusammen) erkannt hat mit der falschen Schreibweise von Februar) und folgte einer eigenen Mustererkennung anstelle der Monate des Jahres Genau genommen Sind.

Wie dem auch sei, es ist klar, dass Bard das nicht unbedingt ist bereit eine Suchmaschine zu sein, und ich gehe davon aus, dass sie genau aus diesem Grund von Google nicht als solche beworben wurde. Sie sollten es nicht als Suchmaschine verwenden, und zwar aus dem einfachen Grund, dass es zum jetzigen Zeitpunkt nicht in der Lage zu sein scheint, eine solche zu sein. Es kann Dinge finden, hat aber keine Möglichkeit, deren Echtheit zu überprüfen und ob es zufällige Hacker-News beschaffen kann Als Kommentar zur Schließung des gesamten Dienstes ist klar, dass hier noch einiges an Arbeit nötig ist Bereich.

Bard, ChatGPT und Bing gegen die Zukunft der Fehlinformation

Fehlinformationen und Desinformation sind in der modernen Gesellschaft bereits unglaublich allgegenwärtige Themen, und künstliche Intelligenzen haben dies bereits getan Kein Bezugsrahmen für die Dinge, die sie einem Endverbraucher wiedergeben, kann mehr denn je zur Verbreitung beitragen Fehlinformationen. Die allgemeine Bevölkerung betrachtet eine KI als ein allwissendes Wesen, das in der Lage ist, das gesamte Internet so zu verstehen, dass es es einfachen Benutzern wie uns vereinfachen kann. Das könnte nicht weiter von der Wahrheit entfernt sein und es wird nur noch schlimmer werden.

Bard wurde bereits Plagiat vorgeworfen Toms Hardware, der den Benutzer, als er damit konfrontiert wurde, der Lüge beschuldigte. Wenn Sie denken, dass einiges davon dem „Ich war ein guter Bing 😊“-Debakel ähnelt, dann haben Sie Recht. Dies sind die gleichen Fallstricke, mit denen wir bereits Microsoft konfrontiert haben, und es ist schwer, dieses Problem zu umgehen, ohne Ihre KI einzuschränken zu viel. Wenn eine KI sagt, dass etwas eine Lüge ist, die keine Lüge ist, trägt sie direkt zu Fehlinformationen bei, auch wenn diese banal sind.

Bard ist nicht die einzige generative KI, der die Verbreitung von Fehlinformationen vorgeworfen wird, aber sie ist sicherlich Teil des derzeit anhaltenden Problems. Es ist nahezu unmöglich sicherzustellen, dass eine KI einem Endbenutzer nur Fakten liefert, insbesondere wenn es um die Suche geht jüngste Information. Was trauen Sie einer KI zu, um effektiv zu antworten? Für mich ist es im Grunde alles, wozu der Google Assistant fähig ist... in erster Linie der Zugriff auf bereits erfasste Daten. Es wird nicht von einer KI für den Endverbraucher zusammengestellt oder gesammelt; Es wird lediglich aus einer Datenbank gelesen.

Wir stehen derzeit an einem Scheideweg. Einerseits wird die KI im Laufe der Zeit immer leistungsfähiger. Sprachmodelle wie diese erfreuen sich immer größerer Beliebtheit, und die meisten Menschen erkennen erst ihre Wirksamkeit und beginnen sofort mit der Verwendung; Verdammt, ChatGPT ist die am schnellsten wachsende Verbraucheranwendung immer gemessen an der Zeit, die benötigt wurde, um hundert Millionen Nutzer zu erreichen. Allerdings haben Programme wie diese einen unglaublich großen Einfluss, wenn ihr Inhalt buchstäblich keiner Kontrolle unterliegt und nicht überprüft wird.

Das heißt nicht, dass diese KI-Tools das können niemals gut sein, aber es ist sehr wahrscheinlich, dass sie in Zukunft zu Fehlinformationen und Desinformationen beitragen werden, und das wird schwer zu bekämpfen sein. Facebook schafft es bereits, Menschen von Verschwörungstheorien aller Art zu überzeugen, und eine KI mit Googles (bzw Der Name von Microsoft oder OpenAI darauf wird mit ziemlicher Sicherheit zu diesen Verschwörungstheorien beitragen Punkt. Im Moment ist der beste Rat, den wir mit diesen Tools geben können, die erneute Überprüfung aller Informationen Sie geben Ihnen Ratschläge, und es ist sehr wahrscheinlich, dass dies auch in Zukunft der vorherrschende Rat sein wird kommen.