Google, Microsoft, OpenAI og Anthropic er gået sammen for at løse potentielle risici og udfordringer ved "frontier AI-modeller".
Nøgle takeaways
- Google, Microsoft, OpenAI og Anthropic er gået sammen for at løse de udfordringer og potentielle risici, som "frontier AI-modeller" udgør gennem oprettelsen af Frontier Model Forum.
- Frontier-modeller er mere avancerede end eksisterende AI-modeller og kan udføre en lang række opgaver, hvilket giver anledning til bekymringer om deres overensstemmelse med menneskelige værdier og offentlig interesse.
- Forummets kernemål omfatter udvikling af bedste praksis, deling af information, fremme af AI-sikkerhedsforskning og samarbejde med interessenter for at skabe konsensus om AI-udviklingsspørgsmål. Medlemskaber er tilgængelige for organisationer, der er engageret i ansvarlig AI-udvikling.
Historien fortæller os, at når virksomheder, selv når de er konkurrenter, har en fælles interesse i at tackle udfordringer, arbejder de sammen for at løse dem. Og for Google, Microsoft, OpenAI og Anthropic er de fælles problemer, der bringer dem sammen, udfordringerne og potentielle risici ved, hvad disse virksomheder kalder "frontier AI-modeller". I en fælles erklæring annoncerede Google, Microsoft, OpenAI og Anthropic "Frontier Model Forum", et nyt industriorgan, der skal fremme sikre og ansvarlige frontier AI-modeller.
Chatbots og AI-tjenester som ChatGPT, Bing Chat, og Bard specialiseret sig i at udføre specifikke opgaver og har ikke opnået intelligens på menneskeligt niveau. Men der er en voksende frygt for, at det snart kan få sansning og vil være fuldt potent til at handle imod den større offentlige interesse. Som forklaret i samlingen udmelding, grænsemodeller er store maskinlæringsmodeller, der er langt mere avancerede end eksisterende modellers muligheder og derfor kan udføre en lang række opgaver. Og givet de involverede risici, ønsker forummet at indføre robuste mekanismer for at sikre, at disse modeller er mere tilpasset menneskelige værdier og arbejder hen imod at tjene folks interesser bedst.
Forummets kernemål vil være at identificere bedste praksis for udvikling og implementering af kunstig intelligens modeller, lette deling af information mellem virksomheder og regeringer og fremme AI-sikkerhed forskning. En del af AI-sikkerhedsforskningen vil omfatte test og sammenligning af forskellige AI-modeller og offentliggørelse af benchmarks i et offentligt bibliotek for alle nøgleaktører i industrien for at forstå de potentielle risici og handle i retning af at eliminere dem.
Frontier Model Forum vil etablere et Advisory Board bestående af aktører fra forskellige baggrunde og perspektiver for at udstikke strategier og prioriteter. Oven i det vil stiftende virksomheder også danne institutionelle arrangementer, hvor alle interessenter kan samarbejde for at skabe en konsensus om spørgsmål vedrørende AI-udvikling. Forummet vil også udnytte den eksisterende viden og ressourcer, der allerede er fremlagt af civilsamfundsgrupper, forskere og andre. Det vil lære og understøtte eksisterende AI-initiativer, såsom Partnership on AI og MLCommons, for den praktiske implementering af retningslinjer, der er fastsat til dem.
Frontier Model Forum tilbyder også medlemskaber til organisationer, der er fast forpligtet til at overholde reglerne for udvikling og implementering af ansvarlige frontier AI-modeller.