Google, Microsoft, OpenAI ja Anthropic ovat kokoontuneet käsitelläkseen "rajojen AI-mallien" mahdollisia riskejä ja haasteita.
Avaimet takeawayt
- Google, Microsoft, OpenAI ja Anthropic ovat kokoontuneet yhteen vastatakseen "rajojen tekoälymallien" aiheuttamiin haasteisiin ja mahdollisiin riskeihin perustamalla Frontier Model Forumin.
- Frontier-mallit ovat edistyneempiä kuin nykyiset tekoälymallit, ja ne voivat suorittaa monenlaisia tehtäviä, mikä herättää huolta niiden yhdenmukaisuudesta inhimillisten arvojen ja yleisen edun kanssa.
- Foorumin ydintavoitteita ovat parhaiden käytäntöjen kehittäminen, tiedon jakaminen, tekoälyn turvallisuustutkimuksen edistäminen ja yhteistyö sidosryhmien kanssa konsensuksen rakentamiseksi tekoälykehityskysymyksistä. Jäsenyyttä voivat saada organisaatiot, jotka ovat sitoutuneet vastuulliseen tekoälykehitykseen.
Historia kertoo meille, kun yrityksillä, vaikka ne ovat kilpailijoita, on yhteinen intressi vastata haasteisiin, ne työskentelevät yhdessä niiden ratkaisemiseksi. Ja Googlelle, Microsoftille, OpenAI: lle ja Anthropicille yhteiset ongelmat, jotka yhdistävät ne, ovat haasteet ja mahdolliset riskit, joita nämä yritykset kutsuvat "rajojen tekoälymalleiksi". Google, Microsoft, OpenAI ja Anthropic ilmoittivat yhteisessä julkilausumassa "Frontier Model Forumin", joka on uusi toimialaelin, joka edistää turvallisia ja vastuullisia tekoälymalleja.
Chatbotit ja tekoälypalvelut, kuten ChatGPT, Bing Chat, ja Bard erikoistuneet suorittamaan tiettyjä tehtäviä eivätkä ole saaneet ihmistason älykkyyttä. Mutta on kasvava pelko, että se voi pian saada järkeä ja on täysin tehokas toimimaan laajempaa yleistä etua vastaan. Kuten liitoksessa on selitetty lausunto, rajamallit ovat laajamittaisia koneoppimismalleja, jotka ovat paljon edistyneempiä kuin olemassa olevien mallien ominaisuudet ja voivat siksi suorittaa monenlaisia tehtäviä. Ja kun otetaan huomioon asiaan liittyvät riskit, foorumi haluaa tuoda käyttöön vankat mekanismit varmistaakseen, että nämä mallit ovat paremmin sopusoinnussa inhimillisten arvojen kanssa ja pyrkivät palvelemaan ihmisten parasta.
Foorumin päätavoitteena on tunnistaa parhaat käytännöt tekoälyn kehittämiseksi ja käyttöönottamiseksi malleja, helpottaa tietojen jakamista yritysten ja hallitusten välillä ja edistää tekoälyn turvallisuutta tutkimusta. Osa tekoälyn turvallisuustutkimusta sisältää erilaisten tekoälymallien testaamisen ja vertailun sekä vertailuarvojen julkaisemisen yleisessä kirjastossa, jotta jokainen alan avaintoimija ymmärtäisi mahdolliset riskit ja toimisi niiden poistamiseksi niitä.
Frontier Model Forum perustaa neuvottelukunnan, joka koostuu erilaisista taustoista ja näkökulmista tulevista pelaajista määrittelemään strategioita ja prioriteetteja. Sen lisäksi perustajat muodostavat myös institutionaalisia järjestelyjä, joissa kaikki sidosryhmät voivat tehdä yhteistyötä konsensuksen rakentamiseksi tekoälyn kehittämiseen liittyvissä kysymyksissä. Foorumi hyödyntää myös kansalaisyhteiskunnan ryhmien, tutkijoiden ja muiden jo esittämää tietoa ja resursseja. Se oppii ja tukee olemassa olevia tekoälyaloitteita, kuten Partnership on AI ja MLCommons, niille asetettujen ohjeiden käytännön täytäntöönpanossa.
Frontier Model Forum tarjoaa jäsenyyksiä myös organisaatioille, jotka ovat lujasti sitoutuneet noudattamaan vastuullisten raja-AI-mallien kehittämistä ja käyttöönottoa koskevia sääntöjä.