Google, Microsoft y otros lanzan un nuevo foro para promover el desarrollo responsable de la IA

click fraud protection

Google, Microsoft, OpenAI y Anthropic se han unido para abordar los riesgos y desafíos potenciales de los "modelos de IA de frontera".

Conclusiones clave

  • Google, Microsoft, OpenAI y Anthropic se han unido para abordar los desafíos y riesgos potenciales que plantean los "modelos de IA de frontera" mediante la creación del Foro de modelos de frontera.
  • Los modelos de frontera son más avanzados que los modelos de IA existentes y pueden realizar una amplia gama de tareas, lo que genera preocupación sobre su alineación con los valores humanos y el interés público.
  • Los objetivos principales del Foro incluyen desarrollar mejores prácticas, compartir información, promover la investigación de seguridad de la IA y colaborar con las partes interesadas para generar consenso sobre cuestiones de desarrollo de la IA. Las membresías están disponibles para organizaciones comprometidas con el desarrollo responsable de la IA.

La historia nos dice que cuando las empresas, incluso cuando son competidoras, tienen un interés compartido en abordar los desafíos, trabajan juntas para abordarlos. Y para Google, Microsoft, OpenAI y Anthropic, los problemas comunes que los unen son los desafíos y riesgos potenciales de lo que estas empresas llaman "modelos de IA de frontera". En una declaración conjunta, Google, Microsoft, OpenAI y Anthropic anunciaron el "Frontier Model Forum", un nuevo organismo industrial para promover modelos fronterizos de IA seguros y responsables.

Chatbots y servicios de inteligencia artificial como ChatGPT, Chat de Bing, y Bardo se especializan en realizar tareas específicas y no han adquirido inteligencia a nivel humano. Pero existe un temor creciente de que pronto pueda ganar conciencia y ser plenamente potente para actuar contra el interés público más amplio. Como se explica en el conjunto declaración, los modelos de frontera son modelos de aprendizaje automático a gran escala que son mucho más avanzados que las capacidades de los modelos existentes y, por lo tanto, pueden realizar una amplia variedad de tareas. Y dados los riesgos involucrados, el Foro quiere incorporar mecanismos sólidos para garantizar que estos modelos estén más alineados con los valores humanos y trabajen para servir los mejores intereses de las personas.

Los objetivos principales del Foro serán identificar las mejores prácticas para desarrollar e implementar IA. modelos, facilitar el intercambio de información entre empresas y gobiernos, y promover la seguridad de la IA investigación. Parte de la investigación sobre seguridad de la IA incluirá probar y comparar diferentes modelos de IA y publicar los puntos de referencia. en una biblioteca pública para que cada actor clave de la industria comprenda los riesgos potenciales y actúe para eliminarlos a ellos.

El Foro Modelo Frontera establecerá un Consejo Asesor formado por actores de diferentes orígenes y perspectivas para definir estrategias y prioridades. Además, las empresas fundadoras también formarán acuerdos institucionales para que todas las partes interesadas colaboren para crear un consenso sobre cuestiones relacionadas con el desarrollo de la IA. El Foro también aprovechará el conocimiento y los recursos existentes ya presentados por grupos de la sociedad civil, investigadores y otros. Aprenderá y apoyará las iniciativas de IA existentes, como Partnership on AI y MLCommons, para la implementación práctica de las directrices que las establezcan.

El Frontier Model Forum también ofrece membresías a organizaciones firmemente comprometidas con el cumplimiento de las reglas para desarrollar e implementar modelos responsables de inteligencia artificial en la frontera.