Google, Microsoft, OpenAI og Anthropic har kommet sammen for å møte potensielle risikoer og utfordringer ved "frontier AI-modeller".
Viktige takeaways
- Google, Microsoft, OpenAI og Anthropic har kommet sammen for å møte utfordringene og potensielle risikoene som "frontier AI-modeller" utgjør gjennom opprettelsen av Frontier Model Forum.
- Frontier-modeller er mer avanserte enn eksisterende AI-modeller og kan utføre et bredt spekter av oppgaver, noe som vekker bekymring for deres samsvar med menneskelige verdier og offentlig interesse.
- Forumets kjernemål inkluderer å utvikle beste praksis, dele informasjon, fremme AI-sikkerhetsforskning og samarbeide med interessenter for å bygge konsensus om AI-utviklingsspørsmål. Medlemskap er tilgjengelig for organisasjoner som er forpliktet til ansvarlig AI-utvikling.
Historien forteller oss at når selskaper, selv når de er konkurrenter, har en felles interesse for å møte utfordringer, jobber de sammen for å møte dem. Og for Google, Microsoft, OpenAI og Anthropic er de vanlige problemene som bringer dem sammen utfordringene og potensielle risikoene ved det disse selskapene kaller "frontier AI-modeller". I en felles uttalelse kunngjorde Google, Microsoft, OpenAI og Anthropic "Frontier Model Forum", et nytt industriorgan for å fremme trygge og ansvarlige frontier AI-modeller.
Chatbots og AI-tjenester som ChatGPT, Bing Chat, og Bard spesialiserer seg på å utføre spesifikke oppgaver og har ikke oppnådd intelligens på menneskelig nivå. Men det er en økende frykt for at den snart kan få sansen og vil være fullt potent til å handle mot den større offentlige interessen. Som forklart i leddet uttalelse, grensemodeller er store maskinlæringsmodeller som er langt mer avanserte enn mulighetene til eksisterende modeller, og som derfor kan utføre en lang rekke oppgaver. Og gitt risikoen involvert, ønsker forumet å bringe inn robuste mekanismer for å sikre at disse modellene er mer på linje med menneskelige verdier og jobber for å tjene folks beste.
Hovedmålene til forumet vil være å identifisere beste praksis for utvikling og distribusjon av AI modeller, forenkle deling av informasjon mellom selskaper og myndigheter, og fremme AI-sikkerhet forskning. En del av AI-sikkerhetsforskningen vil inkludere testing og sammenligning av forskjellige AI-modeller og publisering av benchmarks i et offentlig bibliotek for alle viktige bransjeaktører for å forstå potensielle risikoer og handle for å eliminere dem.
Frontier Model Forum vil etablere et Advisory Board bestående av aktører fra ulike bakgrunner og perspektiver for å finne ut strategier og prioriteringer. På toppen av det, vil grunnleggende selskaper også danne institusjonelle ordninger for alle interessenter for å samarbeide for å bygge en konsensus om spørsmål som angår AI-utvikling. Forumet vil også utnytte den eksisterende kunnskapen og ressursene som allerede er lagt frem av sivilsamfunnsgrupper, forskere og andre. Den vil lære og støtte eksisterende AI-initiativer, som Partnership on AI og MLCommons, for den praktiske implementeringen av retningslinjer som er satt dem.
Frontier Model Forum tilbyr også medlemskap til organisasjoner som er fast forpliktet til å følge regler for utvikling og distribusjon av ansvarlige frontier AI-modeller.