Google Bard è uno scorcio di un futuro terribilmente disinformato

click fraud protection

Google Bard è un'interessante progressione dell'intelligenza artificiale, ma allo stato attuale probabilmente contribuirà alla disinformazione.

Le IA generative sono di gran moda di recente, avviate da ChatGPT e seguito da Microsoft Bing. Da allora, Google ha apparentemente accelerato lo sviluppo del proprio modello di chat AI e ha rilasciato Bard in modo limitato, e finora sembra essere un prodotto inferiore al resto della concorrenza. Lotta con domande di base, utilizza fonti discutibili e, in generale, sembra essere un prodotto un po' cotto a metà.

Per essere completamente onesti nei confronti di Google, questi dolori crescenti sono alcuni che anche Bing ha dovuto affrontare, e solo Bard Appena rilasciato. Inoltre, Google non ha messo in piedi Bard come un motore di ricerca come Microsoft ha convinto di essere Bing. Tuttavia, se Bard era abbastanza buono per essere un motore di ricerca, penso che Google probabilmente lo pubblicizzerebbe come tale. Google non vuole essere lasciato indietro, e se avesse un motore di ricerca concorrente da opporre a Bing, quasi certamente lo farebbe.

Detto questo, Bard è uno scorcio di un futuro terribilmente disinformato. Ha già fatto un casino in diverse occasioni e poiché Google cerca di rendere meno irregolare la propria intelligenza artificiale, diventa difficile anche sintonizzarla per renderla utile. Affinché l'intelligenza artificiale sia utile, deve essere dinamica, ma quel dinamismo comporta anche il pericolo dell'Internet più ampia su cui fa affidamento.

Google Bard cerca e fallisce di essere un motore di ricerca

Google afferma costantemente che Bard non è un motore di ricerca ed è invece "un complemento alla ricerca". Sembra che Google voglia che tu usi Bard come un modo per aiutare a generare e-mail, scrivere note e fare altro creativo cose... E non ottenere informazioni.

Se è vero che Google non vuole che Bard sia visto come un motore di ricerca, allora perché è connesso a Internet?

Come molti utenti hanno (scherzosamente) sottolineato, puoi porre a Bard domande per le quali ha sicuramente bisogno di Internet, e cercherà e proverà anche a darti una risposta. Se fosse progettato semplicemente per aiutare con la creatività, l'azienda potrebbe facilmente renderlo molto più simile ChatGPT e fai semplicemente in modo che possa rispondere solo a domande su cose che è stato addestrato. Tuttavia, non è così, e se gli fai domande a cui non conosce bene la risposta, farà alcuni ambiziosi tentativi di approvvigionamento.

Ad esempio, un utente ha chiesto a Bard quanto tempo ci sarebbe voluto prima che Bard si spegnesse. La risposta ha fornito un commento scherzoso di Hacker News per dire che il servizio era già stato chiuso.

Bard si è anche preso delle libertà quando si tratta dei mesi dell'anno, qualcosa con cui sembra lottare quando gli dai i primi due mesi dell'anno.

Il modo in cui posso solo presumere che quanto sopra sia accaduto è che Bard abbia riconosciuto la fine "uary" dei primi due mesi (lungo con l'errore ortografico di febbraio) e ha seguito il proprio modello di riconoscimento anziché quello dei mesi dell'anno In realtà Sono.

Non importa cosa, però, è chiaro che Bard non lo è esattamente pronto essere un motore di ricerca, e presumo che sia esattamente per questo che non è stato pubblicizzato come tale da Google. Non dovresti usarlo come motore di ricerca per il semplice motivo che, in questo momento, non sembra in grado di esserlo. Può trovare cose, ma non ha modo di verificarne l'autenticità e se può procurarsi una Hacker News casuale commento per la chiusura dell'intero servizio, è chiaro che è necessario fare un bel po' di lavoro in questo la zona.

Bard, ChatGPT e Bing contro il futuro della disinformazione

La disinformazione e la disinformazione sono già argomenti incredibilmente pervasivi nella società moderna e nelle intelligenze artificiali che lo sono nessun quadro di riferimento per le cose che rigurgitano a un utente finale può contribuire più che mai alla diffusione delle stesse disinformazione. La popolazione generale vede un'intelligenza artificiale come un essere onnisciente, capace di comprendere l'intera Internet in un modo da poterla semplificare a semplici utenti come noi. Non potrebbe essere più lontano dalla verità, e non farà che peggiorare.

Bard è già stato accusato di plagio Hardware di Tom, che, confrontato, ha poi accusato l'utente di mentire. Se pensi che parte di questo suoni simile alla debacle "Sono stato un bravo Bing 😊", avresti ragione. Queste sono le stesse insidie ​​che abbiamo già visto affrontare Microsoft, ed è un problema difficile da aggirare senza limitare la tua intelligenza artificiale pure tanto. Quando un'intelligenza artificiale dice che qualcosa è una bugia che non è una bugia, sta contribuendo direttamente alla disinformazione, anche se è banale.

Bard non è l'unica IA generativa accusata di diffondere disinformazione, ma è certamente parte del problema attualmente in corso. È quasi impossibile garantire che un'intelligenza artificiale fornisca fatti solo a un utente finale, soprattutto quando si tratta di cercare recente informazione. Di cosa ti fidi che un'intelligenza artificiale risponda in modo efficace? Per me, è praticamente tutto ciò di cui è capace l'Assistente Google... principalmente l'accesso a dati già raccolti. Non viene messo insieme o raccolto da un'intelligenza artificiale per il consumo dell'utente finale; viene solo letto da un database.

Al momento siamo a un bivio. Da un lato, l'intelligenza artificiale sta diventando sempre più potente con il passare dei giorni. I modelli linguistici come questi stanno diventando sempre più popolari e la maggior parte delle persone vedrà solo la loro efficacia e inizierà a usarli subito; diavolo, ChatGPT è l'applicazione consumer in più rapida crescita mai in termini di tempo impiegato per raggiungere cento milioni di utenti. Detto questo, programmi come questi hanno un'incredibile quantità di influenza quando il loro contenuto è letteralmente non sorvegliato e non verificato.

Questo non vuol dire che questi strumenti di intelligenza artificiale possano farlo Mai essere buoni, ma è molto probabile che contribuiranno alla disinformazione e alla disinformazione in futuro, e sarà difficile combattere. Facebook riesce già a convincere le persone di tutti i tipi di teorie del complotto e un'intelligenza artificiale con Google (o Il nome di Microsoft, o OpenAI) su di esso contribuirà quasi certamente a quelle teorie del complotto in alcuni punto. Per ora, il miglior consiglio che possiamo dare con uno qualsiasi di questi strumenti è di verificare nuovamente tutte le informazioni che ti danno, ed è molto probabile che sarà il consiglio prevalente per molto tempo Venire.