Google, Microsoft un citi atklāj jaunu forumu, lai veicinātu atbildīgu AI attīstību

click fraud protection

Google, Microsoft, OpenAI un Anthropic ir apvienojušies, lai risinātu iespējamos riskus un izaicinājumus, kas saistīti ar "progresīvajiem AI modeļiem".

Key Takeaways

  • Google, Microsoft, OpenAI un Anthropic ir sadarbojušies, lai risinātu problēmas un iespējamos riskus, ko rada "pierobežas AI modeļi", izveidojot Frontier modeļu forumu.
  • Pierobežas modeļi ir progresīvāki nekā esošie AI modeļi un var veikt plašu uzdevumu klāstu, radot bažas par to atbilstību cilvēka vērtībām un sabiedrības interesēm.
  • Foruma galvenie mērķi ietver labākās prakses izstrādi, informācijas apmaiņu, AI drošības pētījumu virzību un sadarbību ar ieinteresētajām personām, lai panāktu vienprātību par AI attīstības jautājumiem. Dalība ir pieejama organizācijām, kas ir apņēmušās atbildīgai AI attīstībai.

Vēsture mums stāsta, kad uzņēmumi, pat ja tie ir konkurenti, ir kopīgi ieinteresēti risināt problēmas, viņi strādā kopā, lai tās risinātu. Un Google, Microsoft, OpenAI un Anthropic kopējās problēmas, kas tos apvieno, ir izaicinājumi un iespējamie riski, ko šie uzņēmumi sauc par "pierobežas AI modeļiem". Kopīgā paziņojumā Google, Microsoft, OpenAI un Anthropic paziņoja par "Frontier Model Forum" — jaunu nozares iestādi, lai veicinātu drošus un atbildīgus AI modeļus.

Tērzēšanas roboti un AI pakalpojumi, piemēram ChatGPT, Bing tērzēšana, un Bards specializējas konkrētu uzdevumu veikšanā un nav ieguvuši cilvēka līmeņa inteliģenci. Taču pieaug bažas, ka tas drīz varētu kļūt jūtīgs un būs pilnībā spēcīgs, lai vērstos pret plašākām sabiedrības interesēm. Kā paskaidrots locītavā paziņojums, apgalvojums, frontier modeļi ir liela mēroga mašīnmācības modeļi, kas ir daudz progresīvāki par esošo modeļu iespējām un tādējādi var veikt ļoti dažādus uzdevumus. Un, ņemot vērā saistītos riskus, forums vēlas ieviest spēcīgus mehānismus, lai nodrošinātu, ka šie modeļi ir vairāk saskaņoti ar cilvēciskām vērtībām un darbojas, lai kalpotu cilvēku interesēm.

Foruma galvenie mērķi būs apzināt AI izstrādes un ieviešanas labāko praksi modeļus, atvieglo informācijas apmaiņu starp uzņēmumiem un valdībām un uzlabo AI drošību pētījumiem. Daļa no AI drošības pētījumiem ietvers dažādu AI modeļu testēšanu un salīdzināšanu un etalonu publicēšanu publiskajā bibliotēkā, lai katrs galvenais nozares spēlētājs izprastu iespējamos riskus un rīkoties, lai tos novērstu viņiem.

Frontier modeļu forums izveidos padomdevēju padomi, kurā būs spēlētāji ar dažādu pieredzi un perspektīvām, lai noteiktu stratēģijas un prioritātes. Papildus tam dibinātājuzņēmumi arī izveidos institucionālus pasākumus, lai visas ieinteresētās personas sadarbotos, lai panāktu vienprātību jautājumos, kas saistīti ar AI attīstību. Forums arī izmantos esošās zināšanas un resursus, ko jau ir izvirzījušas pilsoniskās sabiedrības grupas, pētnieki un citi. Tā apgūs un atbalstīs esošās AI iniciatīvas, piemēram, Partnership on AI un MLCommons, lai praktiski īstenotu tās noteiktās vadlīnijas.

Frontier modeļu forums piedāvā arī dalību organizācijām, kas ir stingri apņēmušās ievērot noteikumus par atbildīgu AI modeļu izstrādi un ieviešanu.