A Google, a Microsoft, az OpenAI és az Anthropic összefogott, hogy megbirkózzanak a „határmenti AI-modellek” lehetséges kockázataival és kihívásaival.
Kulcs elvitelek
- A Google, a Microsoft, az OpenAI és az Anthropic összefogott, hogy a Frontier Model Forum létrehozásával kezeljék a „határmenti AI-modellek” jelentette kihívásokat és potenciális kockázatokat.
- A határmodellek fejlettebbek, mint a meglévő mesterségesintelligencia-modellek, és a feladatok széles skáláját képesek ellátni, ami aggályokat vet fel azzal kapcsolatban, hogy összhangban állnak-e az emberi értékekkel és a közérdekkel.
- A Fórum alapvető céljai közé tartozik a legjobb gyakorlatok kidolgozása, az információk megosztása, az AI-biztonsági kutatás előmozdítása, valamint az érdekelt felekkel való együttműködés a mesterséges intelligencia fejlesztési kérdéseivel kapcsolatos konszenzus kialakítása érdekében. A felelősségteljes mesterséges intelligencia fejlesztése iránt elkötelezett szervezetek számára elérhetők a tagságok.
A történelem azt sugallja, amikor a vállalatok, még ha versenytársak is, közös érdekükben állnak a kihívások kezelésében, együtt dolgoznak azok megoldásán. A Google, a Microsoft, az OpenAI és az Anthropic esetében pedig a közös problémák, amelyek összehozzák őket, a kihívások és potenciális kockázatok, amelyeket ezek a cégek „határmenti AI-modelleknek” neveznek. Közös nyilatkozatban a Google, a Microsoft, az OpenAI és az Anthropic bejelentette a "Frontier Model Forum" nevű új iparági testületet, amely a biztonságos és felelősségteljes határmenti AI-modelleket népszerűsíti.
A chatbotok és az AI szolgáltatások, mint pl ChatGPT, Bing Chat, és Dalnok speciális feladatok elvégzésére szakosodtak, és nem szereztek emberi szintű intelligenciát. De egyre nagyobb a félelem attól, hogy hamarosan elgondolkozhat, és teljes mértékben képes lesz fellépni a nagyobb közérdek ellen. Ahogy az ízületben elmagyarázzuk nyilatkozat, a határmodellek olyan nagyméretű gépi tanulási modellek, amelyek sokkal fejlettebbek a meglévő modellek képességeinél, és ezért sokféle feladat elvégzésére képesek. És tekintettel az ezzel járó kockázatokra, a Fórum szilárd mechanizmusokat szeretne bevezetni annak biztosítására, hogy ezek a modellek jobban igazodjanak az emberi értékekhez, és az emberek legjobb érdekeit szolgálják.
A Fórum fő célja a mesterséges intelligencia fejlesztésének és bevezetésének legjobb gyakorlatainak meghatározása lesz modellek, megkönnyítik az információmegosztást a vállalatok és a kormányok között, és javítják az AI biztonságát kutatás. A mesterséges intelligencia biztonsági kutatásának része a különböző AI modellek tesztelése és összehasonlítása, valamint a benchmarkok közzététele nyilvános könyvtárban, hogy minden kulcsfontosságú iparági szereplő megértse a lehetséges kockázatokat és cselekedjen a kiküszöbölés érdekében őket.
A Frontier Model Forum egy tanácsadó testületet hoz létre, amely különböző hátterű és nézőpontú játékosokból áll a stratégiák és a prioritások kidolgozására. Ezen felül az alapító vállalatok intézményi megállapodásokat is kötnek az összes érdekelt fél számára, hogy együttműködjenek a konszenzus kialakítása érdekében a mesterséges intelligencia fejlesztésével kapcsolatos kérdésekben. A fórum emellett hasznosítani fogja a civil társadalmi csoportok, kutatók és mások által már előterjesztett tudást és erőforrásokat. Megtanulja és támogatja a meglévő mesterségesintelligencia-kezdeményezéseket, például a Partnership on AI-t és az MLCommons-t, az általuk meghatározott irányelvek gyakorlati megvalósítása érdekében.
A Frontier Model Forum olyan szervezeteknek is kínál tagságot, amelyek szilárdan elkötelezettek a felelősségteljes határmenti AI-modellek fejlesztésére és bevezetésére vonatkozó szabályok betartása mellett.