Cuatro líderes estadounidenses en inteligencia artificial (IA) anunciaron la formación de un grupo especialmente dedicado a abordar los riesgos que pueden presentar las versiones de vanguardia de esta tecnología en la industria, además de promover mejores prácticas de seguridad.
Anthropic, Google, Microsoft y el fabricante de la aplicación ChatGPT, OpenAI, dijeron que el recién creado Frontier Model Forum se basará en la experiencia de sus miembros para minimizar los riesgos de IA y respaldar los estándares de la industria.
Las empresas se comprometieron a asumir cuatro objetivos clave en este camino. Uno es avanzar en la investigación de seguridad de la IA para generar, de forma responsable, modelos, minimizando sus riesgos y permitir evaluaciones independientes de sus capacidades y seguridad.