Publicidad
Publicidad

Google, Microsoft y OpenAI forman un grupo para abordar los riesgos de la IA

Los líderes tecnológicos de esta tendencia asumieron una serie de compromisos clave para un desarrollo más responsable de la Inteligencia Artificial.
mié 26 julio 2023 11:00 AM
Inteligencia artificial tocando la mano de un humano
Las empresas crearon el Frontier Model Forum, que se basará en la experiencia de sus miembros para minimizar los riesgos de IA y respaldar los estándares de la industria.

Cuatro líderes estadounidenses en inteligencia artificial (IA) anunciaron la formación de un grupo especialmente dedicado a abordar los riesgos que pueden presentar las versiones de vanguardia de esta tecnología en la industria, además de promover mejores prácticas de seguridad.

Anthropic, Google, Microsoft y el fabricante de la aplicación ChatGPT, OpenAI, dijeron que el recién creado Frontier Model Forum se basará en la experiencia de sus miembros para minimizar los riesgos de IA y respaldar los estándares de la industria.

Las empresas se comprometieron a asumir cuatro objetivos clave en este camino. Uno es avanzar en la investigación de seguridad de la IA para generar, de forma responsable, modelos, minimizando sus riesgos y permitir evaluaciones independientes de sus capacidades y seguridad.

Publicidad

El segundo es identificar las mejores prácticas en el desarrollo e implementación responsable de la tecnología, con un enfoque especial en comprender su naturaleza, capacidades y limitaciones.

El tercero es colaborar con los legisladores, académicos y sociedad civil para compartir el conocimiento en torno a la tecnología y el cuarto es apoyar a esfuerzos comunes de la sociedad, como el cambio climático, la detección y prevención del cáncer u otras enfermedades, así como la lucha contra el cibercrimen.

Los modelos "Frontier" se refieren a plataformas incipientes de aprendizaje automático a gran escala que llevan la IA a nuevos niveles de sofisticación y también cuentan con capacidades que podrían resultar peligrosas para los humanos.

"Las empresas que crean tecnología de inteligencia artificial tienen la responsabilidad de garantizar que su uso sea seguro y permanezca bajo control humano", dijo el presidente de Microsoft, Brad Smith, en un comunicado.

Publicidad

"Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que brinde beneficios a toda la humanidad", resaltó.

El presidente estadounidense, Joe Biden, evocó los "enormes" riesgos y esperanzas generadas por la IA en una reunión en la Casa Blanca la semana pasada con representantes de las gigantes tecnológicas que se comprometieron a tomar precauciones para todo tipo de protección, desde ciberataques hasta fraudes a medida que crece el sector.

Junto a los principales representantes de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, Biden dijo que las empresas se han comprometido a "guiar la innovación responsable" a medida que la IA se extiende cada vez más en la vida personal y empresarial.

Antes de la reunión, los siete gigantes de la IA se comprometieron con una serie de salvaguardas autorreguladas que, según la Casa Blanca, "subrayarían tres principios que deben ser fundamentales para el futuro de la IA: seguridad, protección y confianza".

En su compromiso, las empresas acordaron desarrollar "mecanismos técnicos robustos", como sistemas de marcas de agua, para garantizar que los usuarios sepan cuándo el contenido es de IA y no de humanos.

Con información de AFP

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad