Google, Microsoft și alții lansează un nou forum pentru a promova dezvoltarea responsabilă a inteligenței artificiale

click fraud protection

Google, Microsoft, OpenAI și Anthropic s-au unit pentru a aborda riscurile și provocările potențiale ale „modelelor AI de frontieră”.

Recomandări cheie

  • Google, Microsoft, OpenAI și Anthropic s-au reunit pentru a aborda provocările și potențialele riscuri prezentate de „modelele AI de frontieră” prin crearea Forumului modelului de frontieră.
  • Modelele de frontieră sunt mai avansate decât modelele AI existente și pot îndeplini o gamă largă de sarcini, ridicând îngrijorări cu privire la alinierea lor cu valorile umane și interesul public.
  • Obiectivele principale ale forumului includ dezvoltarea celor mai bune practici, schimbul de informații, promovarea cercetării privind siguranța AI și colaborarea cu părțile interesate pentru a construi un consens asupra problemelor de dezvoltare a AI. Abonamentele sunt disponibile pentru organizațiile angajate în dezvoltarea responsabilă a IA.

Istoria ne spune că atunci când companiile, chiar și atunci când sunt concurenți, au un interes comun în abordarea provocărilor, lucrează împreună pentru a le rezolva. Iar pentru Google, Microsoft, OpenAI și Anthropic, problemele comune care le unesc sunt provocările și riscurile potențiale ale a ceea ce aceste companii numesc „modele AI de frontieră”. Într-o declarație comună, Google, Microsoft, OpenAI și Anthropic au anunțat „Frontier Model Forum”, un nou organism industrial care să promoveze modele sigure și responsabile de AI de frontieră.

Chatbot și servicii AI cum ar fi ChatGPT, Bing Chat, și Bard se specializează în îndeplinirea unor sarcini specifice și nu au dobândit inteligență la nivel uman. Dar există o teamă din ce în ce mai mare că ar putea câștiga în curând sensibilitate și că va fi pe deplin puternic să acționeze împotriva interesului public mai larg. După cum se explică în comun afirmație, modelele de frontieră sunt modele de învățare automată la scară largă, care sunt mult mai avansate decât capacitățile modelelor existente și, prin urmare, pot îndeplini o mare varietate de sarcini. Și având în vedere riscurile implicate, Forumul dorește să introducă mecanisme robuste pentru a se asigura că aceste modele sunt mai aliniate la valorile umane și lucrează pentru a servi interesele celor mai bune.

Obiectivele principale ale forumului vor fi identificarea celor mai bune practici pentru dezvoltarea și implementarea AI modele, facilitează schimbul de informații între companii și guverne și promovează siguranța AI cercetare. O parte a cercetării privind siguranța AI va include testarea și compararea diferitelor modele AI și publicarea reperelor într-o bibliotecă publică pentru ca fiecare jucător cheie din industrie să înțeleagă potențialele riscuri și să acționeze în vederea eliminării lor.

Forumul Frontier Model va înființa un consiliu consultativ format din jucători din medii și perspective diferite pentru a stabili strategii și priorități. Pe lângă aceasta, companiile fondatoare vor forma, de asemenea, aranjamente instituționale pentru ca toate părțile interesate să colaboreze pentru a construi un consens cu privire la problemele legate de dezvoltarea IA. Forumul va valorifica, de asemenea, cunoștințele și resursele existente deja prezentate de grupurile societății civile, cercetători și alții. Acesta va învăța și va sprijini inițiativele AI existente, cum ar fi Parteneriatul pentru AI și MLCommons, pentru punerea în aplicare practică a orientărilor stabilite.

Frontier Model Forum oferă, de asemenea, membri organizațiilor ferm angajate să respecte regulile pentru dezvoltarea și implementarea modelelor responsabile de AI de frontieră.