Google, Microsoft in drugi ustanovijo nov forum za spodbujanje odgovornega razvoja umetne inteligence

Google, Microsoft, OpenAI in Anthropic so se združili, da bi obravnavali potencialna tveganja in izzive "mejnih modelov umetne inteligence".

Ključni zaključki

  • Google, Microsoft, OpenAI in Anthropic so se združili, da bi obravnavali izzive in morebitna tveganja, ki jih predstavljajo "mejni modeli umetne inteligence", z ustanovitvijo foruma Frontier Model.
  • Mejni modeli so naprednejši od obstoječih modelov umetne inteligence in lahko opravljajo širok nabor nalog, kar vzbuja pomisleke glede njihove usklajenosti s človeškimi vrednotami in javnim interesom.
  • Osrednji cilji foruma vključujejo razvoj najboljših praks, izmenjavo informacij, pospeševanje varnostnih raziskav umetne inteligence in sodelovanje z deležniki za doseganje soglasja o vprašanjih razvoja umetne inteligence. Članstva so na voljo za organizacije, ki so zavezane odgovornemu razvoju umetne inteligence.

Zgodovina nam pove, da ko imajo podjetja, tudi če so konkurenti, skupen interes pri reševanju izzivov, sodelujejo pri njihovem reševanju. In za Google, Microsoft, OpenAI in Anthropic so skupne težave, ki jih združujejo, izzivi in ​​potencialna tveganja tega, kar ta podjetja imenujejo "mejni modeli AI". V skupni izjavi so Google, Microsoft, OpenAI in Anthropic napovedali "Frontier Model Forum", novo industrijsko telo za spodbujanje varnih in odgovornih mejnih modelov AI.

Klepetalni roboti in storitve umetne inteligence, kot so ChatGPT, Klepet Bing, in Bard so specializirani za opravljanje posebnih nalog in niso pridobili inteligence na človeški ravni. Vse večja pa je bojazen, da bi lahko kmalu pridobila razumnost in bo povsem močna za delovanje proti širšemu javnemu interesu. Kot je razloženo v skupnem izjava, so mejni modeli obsežni modeli strojnega učenja, ki so veliko naprednejši od zmogljivosti obstoječih modelov in zato lahko izvajajo široko paleto nalog. In glede na vpletena tveganja želi forum uvesti robustne mehanizme za zagotovitev, da so ti modeli bolj usklajeni s človeškimi vrednotami in delujejo v najboljšem interesu ljudi.

Glavni cilji foruma bodo opredeliti najboljše prakse za razvoj in uvajanje umetne inteligence modeli, olajšajo izmenjavo informacij med podjetji in vladami ter izboljšajo varnost umetne inteligence raziskovanje. Del varnostnih raziskav AI bo vključeval testiranje in primerjavo različnih modelov AI ter objavo meril uspešnosti v javni knjižnici za vsakega ključnega akterja v panogi, da razume morebitna tveganja in deluje v smeri njihove odprave njim.

Forum Frontier Model bo ustanovil svetovalni odbor, sestavljen iz akterjev iz različnih okolij in perspektiv, ki bo oblikoval strategije in prednostne naloge. Poleg tega bodo ustanoviteljice oblikovale tudi institucionalne dogovore za sodelovanje vseh deležnikov pri oblikovanju soglasja o vprašanjih v zvezi z razvojem umetne inteligence. Forum bo tudi izkoristil obstoječe znanje in vire, ki so jih že predložile skupine civilne družbe, raziskovalci in drugi. Naučil se bo in podpiral obstoječe pobude za umetno inteligenco, kot sta Partnerstvo za umetno inteligenco in MLCommons, za praktično izvajanje smernic, ki jih določajo.

Frontier Model Forum ponuja tudi članstvo v organizacijah, ki so trdno zavezane spoštovanju pravil za razvoj in uvajanje odgovornih mejnih modelov umetne inteligence.