Google, Microsoft en anderen lanceren een nieuw forum om verantwoorde AI-ontwikkeling te bevorderen

click fraud protection

Google, Microsoft, OpenAI en Anthropic zijn samengekomen om de potentiële risico's en uitdagingen van 'grensverleggende AI-modellen' aan te pakken.

Belangrijkste leerpunten

  • Google, Microsoft, OpenAI en Anthropic zijn samengekomen om de uitdagingen en potentiële risico's van 'frontier AI-modellen' aan te pakken door de oprichting van het Frontier Model Forum.
  • Frontier-modellen zijn geavanceerder dan bestaande AI-modellen en kunnen een breed scala aan taken uitvoeren, wat aanleiding geeft tot bezorgdheid over de afstemming ervan met menselijke waarden en het publieke belang.
  • De kerndoelstellingen van het Forum zijn onder meer het ontwikkelen van beste praktijken, het delen van informatie, het bevorderen van AI-veiligheidsonderzoek en het samenwerken met belanghebbenden om consensus te bereiken over AI-ontwikkelingskwesties. Lidmaatschappen zijn beschikbaar voor organisaties die zich inzetten voor een verantwoorde AI-ontwikkeling.

De geschiedenis leert ons dat wanneer bedrijven, zelfs als ze concurrenten zijn, een gedeeld belang hebben bij het aanpakken van uitdagingen, ze samenwerken om deze aan te pakken. En voor Google, Microsoft, OpenAI en Anthropic zijn de gemeenschappelijke problemen die hen samenbrengen de uitdagingen en potentiële risico's van wat deze bedrijven 'grensverleggende AI-modellen' noemen. In een gezamenlijke verklaring hebben Google, Microsoft, OpenAI en Anthropic het ‘Frontier Model Forum’ aangekondigd, een nieuw brancheorgaan dat veilige en verantwoorde AI-modellen op de grens wil bevorderen.

Chatbots en AI-diensten zoals ChatGPT, Bing-chat, En Bard zijn gespecialiseerd in het uitvoeren van specifieke taken en hebben geen intelligentie op menselijk niveau verworven. Maar er bestaat een groeiende angst dat het binnenkort bewustzijn zal verwerven en volledig in staat zal zijn om tegen het grotere publieke belang in te gaan. Zoals uitgelegd in het gewricht stellingFrontier-modellen zijn grootschalige machine-learning-modellen die veel geavanceerder zijn dan de mogelijkheden van bestaande modellen en daarom een ​​breed scala aan taken kunnen uitvoeren. En gezien de risico's die daarmee gepaard gaan, wil het Forum robuuste mechanismen invoeren om ervoor te zorgen dat deze modellen beter aansluiten bij de menselijke waarden en werken aan het dienen van de beste belangen van mensen.

De kerndoelstellingen van het Forum zijn het identificeren van beste praktijken voor de ontwikkeling en inzet van AI modellen, het delen van informatie tussen bedrijven en overheden vergemakkelijken en de veiligheid van AI bevorderen onderzoek. Een deel van het AI-veiligheidsonderzoek omvat het testen en vergelijken van verschillende AI-modellen en het publiceren van de benchmarks in een openbare bibliotheek waar elke belangrijke speler in de sector de potentiële risico's kan begrijpen en actie kan ondernemen om deze risico's te elimineren hen.

Het Frontier Model Forum zal een adviesraad oprichten, bestaande uit spelers met verschillende achtergronden en perspectieven, om strategieën en prioriteiten uit te stippelen. Bovendien zullen de oprichtende bedrijven ook institutionele regelingen treffen zodat alle belanghebbenden kunnen samenwerken om een ​​consensus op te bouwen over kwesties met betrekking tot de ontwikkeling van AI. Het Forum zal ook gebruik maken van de bestaande kennis en middelen die al door maatschappelijke groeperingen, onderzoekers en anderen naar voren zijn gebracht. Het zal bestaande AI-initiatieven, zoals Partnership on AI en MLCommons, leren en ondersteunen voor de praktische implementatie van de richtlijnen die ze hebben opgesteld.

Het Frontier Model Forum biedt ook lidmaatschappen aan organisaties die vastbesloten zijn zich te houden aan de regels voor het ontwikkelen en inzetten van verantwoorde AI-modellen op het gebied van de grens.