Google, Microsoft e altri lanciano un nuovo forum per promuovere lo sviluppo responsabile dell'intelligenza artificiale

Google, Microsoft, OpenAI e Anthropic si sono uniti per affrontare i potenziali rischi e le sfide dei "modelli di intelligenza artificiale di frontiera".

Punti chiave

  • Google, Microsoft, OpenAI e Anthropic si sono uniti per affrontare le sfide e i potenziali rischi posti dai "modelli di intelligenza artificiale di frontiera" attraverso la creazione del Frontier Model Forum.
  • I modelli di frontiera sono più avanzati dei modelli di intelligenza artificiale esistenti e possono svolgere un’ampia gamma di compiti, sollevando preoccupazioni circa il loro allineamento con i valori umani e l’interesse pubblico.
  • Gli obiettivi principali del Forum includono lo sviluppo di migliori pratiche, la condivisione di informazioni, il progresso della ricerca sulla sicurezza dell'IA e la collaborazione con le parti interessate per creare consenso sulle questioni relative allo sviluppo dell'IA. Gli abbonamenti sono disponibili per le organizzazioni impegnate nello sviluppo responsabile dell’IA.

La storia ci dice che quando le aziende, anche quando sono concorrenti, hanno un interesse comune nell'affrontare le sfide, lavorano insieme per affrontarle. E per Google, Microsoft, OpenAI e Anthropic, le questioni comuni che li uniscono sono le sfide e i potenziali rischi di ciò che queste aziende chiamano “modelli di intelligenza artificiale di frontiera”. In una dichiarazione congiunta, Google, Microsoft, OpenAI e Anthropic hanno annunciato "Frontier Model Forum", un nuovo organismo industriale per promuovere modelli di intelligenza artificiale di frontiera sicuri e responsabili.

Chatbot e servizi di intelligenza artificiale come ChatGPT, BingChat, E Bardo specializzati nell'esecuzione di compiti specifici e non hanno acquisito un'intelligenza di livello umano. Ma c’è il timore crescente che possa presto diventare sensibile e diventare pienamente potente per agire contro l’interesse pubblico più ampio. Come spiegato nel giunto dichiarazione, i modelli di frontiera sono modelli di apprendimento automatico su larga scala che sono molto più avanzati rispetto alle capacità dei modelli esistenti e, pertanto, possono svolgere un’ampia varietà di compiti. E considerati i rischi connessi, il Forum vuole introdurre meccanismi robusti per garantire che questi modelli siano più allineati con i valori umani e lavorino per servire gli interessi delle persone.

Gli obiettivi principali del Forum saranno identificare le migliori pratiche per lo sviluppo e la diffusione dell’intelligenza artificiale modelli, facilitare la condivisione di informazioni tra aziende e governi e promuovere la sicurezza dell’IA ricerca. Parte della ricerca sulla sicurezza dell’intelligenza artificiale includerà il test e il confronto di diversi modelli di intelligenza artificiale e la pubblicazione dei parametri di riferimento in una biblioteca pubblica affinché tutti i principali attori del settore comprendano i rischi potenziali e agiscano per eliminarli loro.

Il Frontier Model Forum istituirà un comitato consultivo composto da attori provenienti da diversi background e prospettive per definire strategie e priorità. Oltre a ciò, le società fondatrici formeranno anche accordi istituzionali affinché tutte le parti interessate possano collaborare per creare un consenso su questioni riguardanti lo sviluppo dell’IA. Il Forum sfrutterà inoltre le conoscenze e le risorse esistenti già proposte da gruppi della società civile, ricercatori e altri. Imparerà e sosterrà le iniziative esistenti sull'intelligenza artificiale, come Partnership on AI e MLCommons, per l'implementazione pratica delle linee guida stabilite.

Il Frontier Model Forum offre inoltre l’adesione a organizzazioni fermamente impegnate ad aderire alle regole per lo sviluppo e l’implementazione di modelli di intelligenza artificiale di frontiera responsabili.