Google, Microsoft, OpenAI i Anthropic połączyły siły, aby stawić czoła potencjalnym zagrożeniom i wyzwaniom związanym z „pionowymi modelami sztucznej inteligencji”.
Kluczowe dania na wynos
- Google, Microsoft, OpenAI i Anthropic połączyły siły, aby stawić czoła wyzwaniom i potencjalnym zagrożeniom stwarzanym przez „pionierskie modele sztucznej inteligencji” poprzez utworzenie Forum Modeli Frontier.
- Modele graniczne są bardziej zaawansowane niż istniejące modele sztucznej inteligencji i mogą wykonywać szeroki zakres zadań, co budzi obawy co do ich zgodności z wartościami ludzkimi i interesem publicznym.
- Do głównych celów forum należy opracowywanie najlepszych praktyk, dzielenie się informacjami, postęp w badaniach nad bezpieczeństwem sztucznej inteligencji oraz współpraca z zainteresowanymi stronami w celu budowania konsensusu w kwestiach rozwoju sztucznej inteligencji. Członkostwa są dostępne dla organizacji zaangażowanych w odpowiedzialny rozwój sztucznej inteligencji.
Historia uczy nas, że gdy firmy, nawet jeśli są konkurentami, mają wspólny interes w stawianiu czoła wyzwaniom, współpracują, aby im sprostać. W przypadku Google, Microsoft, OpenAI i Anthropic wspólnymi problemami, które je łączą, są wyzwania i potencjalne ryzyko związane z tym, co te firmy nazywają „pionowymi modelami sztucznej inteligencji”. We wspólnym oświadczeniu Google, Microsoft, OpenAI i Anthropic ogłosiły „Frontier Model Forum”, nowe ciało branżowe mające na celu promowanie bezpiecznych i odpowiedzialnych pionierskich modeli sztucznej inteligencji.
Chatboty i usługi AI, takie jak CzatGPT, Czat Binga, I Bard specjalizują się w wykonywaniu określonych zadań i nie osiągnęli inteligencji na poziomie ludzkim. Rośnie jednak obawa, że wkrótce może zyskać świadomość i będzie w pełni zdolny do działania przeciwko szerszemu interesowi publicznemu. Jak wyjaśniono w joint oświadczeniemodele frontierowe to wielkoskalowe modele uczenia maszynowego, które są znacznie bardziej zaawansowane niż możliwości istniejących modeli i dlatego mogą wykonywać szeroką gamę zadań. Biorąc pod uwagę związane z tym ryzyko, Forum chce wprowadzić solidne mechanizmy, aby zapewnić większą zgodność tych modeli z wartościami ludzkimi i działać na rzecz służenia najlepszym interesom ludzi.
Podstawowymi celami forum będzie identyfikacja najlepszych praktyk w zakresie opracowywania i wdrażania sztucznej inteligencji modele, ułatwić wymianę informacji między firmami i rządami oraz zwiększyć bezpieczeństwo sztucznej inteligencji badania. Część badań nad bezpieczeństwem sztucznej inteligencji będzie obejmować testowanie i porównywanie różnych modeli sztucznej inteligencji oraz publikowanie wzorców w bibliotece publicznej, aby każdy kluczowy gracz z branży mógł zrozumieć potencjalne ryzyko i podjąć działania mające na celu jego wyeliminowanie ich.
Forum Modelu Frontier powoła Radę Doradczą składającą się z podmiotów z różnych środowisk i perspektyw, która będzie wyznaczać strategie i priorytety. Co więcej, firmy założycielskie utworzą również porozumienia instytucjonalne umożliwiające wszystkim zainteresowanym stronom współpracę w celu budowania konsensusu w kwestiach dotyczących rozwoju sztucznej inteligencji. Forum wykorzysta także istniejącą wiedzę i zasoby udostępnione już przez grupy społeczeństwa obywatelskiego, badaczy i inne osoby. Będzie uczyć się i wspierać istniejące inicjatywy związane ze sztuczną inteligencją, takie jak Partnerstwo na rzecz sztucznej inteligencji i MLCommons, w celu praktycznego wdrożenia określonych w nich wytycznych.
Forum Frontier Model oferuje również członkostwo organizacjom zdecydowanie zaangażowanym w przestrzeganie zasad opracowywania i wdrażania odpowiedzialnych pionierskich modeli sztucznej inteligencji.