Publicidad

Síguenos en nuestras redes sociales:

Publicidad

China presenta una guía ética para regular la Inteligencia Artificial

Las regulaciones buscan darle mayor control a los humanos con estas innovaciones y reflejan la mano dura del gobierno frente a la tecnología.
mar 05 octubre 2021 05:00 AM
China quiere regular la IA
Estas regulaciones pretenden convertir a China en el líder mundial de la IA para el 2030.

El enfoque tecnológico de China supone un férreo control sobre las herramientas digitales, las cuales van desde los videojuegos, pasando por las criptomonedas, hasta asuntos como la Inteligencia Artificial, en la cual quiere incidir a partir de directrices éticas nacionales, donde se detalla cómo se deben desarrollar los proyectos públicos y privados relacionados con esta tecnología.

Las regulaciones pretenden anticiparse al desarrollo de estas innovaciones e incluso exploran sus riesgos, pues el objetivo de esta propuesta a nivel nacional es asegurar que el humano siempre tenga control sobre la Inteligencia Artificial, además de que hacen hincapié en la protección de los derechos de los usuarios.

De acuerdo con el diario chino SCMP, esta serie de regulaciones forman parte de las pretensiones de Beijing de controlar la influencia de las grandes tecnologías y convertirse en el líder mundial de la IA para el 2030.

Publicidad

Entre los elementos que propone el Ministerio de Ciencia y Tecnología de China se encuentran que los humanos deben tener pleno poder de toma de decisiones, así como el derecho a elegir si acepta los servicios de IA, salir de una interacción con un sistema de esta clase o interrumpir su funcionamiento en cualquier momento.

Cabe mencionar que las pretensiones de regular la IA por parte del gobierno chino no son un asunto actual, pues incluso estas directrices fueron redactadas en febrero de 2019, sin embargo, un comité revisó las especificaciones con el fin de modificarlas y las cuales se presentaron hasta hoy.

“China está optando por un modelo de mano dura, donde el Estado está pensando muy seriamente en las transformaciones sociales a largo plazo que traerá la IA, desde la alienación social hasta los riesgos existenciales, además de que está tratando de gestionar y guiar activamente esas transformaciones”, dijo a SCMP Rebecca Arcesati, analista del instituto de estudios Mercator Institute for China Studies.

Los seis principios básicos para los sistemas de IA apuntan a que deben ser “controlables y confiables”, así como mejorar el bienestar humano, promover la equidad y la justicia, proteger la privacidad y la seguridad, además de aumentar la educación ética.

Publicidad

Para los analistas, el énfasis en proteger a los usuarios frente a la IA es una muestra de las pretensiones de Beijing en torno a ejercer un mayor control sobre el panorama tecnológico del país. Un ejemplo de esto son sus planes para moderar los algoritmos de recomendación de contenido, pues argumentan que se basan en sistemas de IA basados en la recopilación y análisis masivo de datos.

Según el documento, la prevención de riesgos pretende detectar y abordar las vulnerabilidades técnicas y de seguridad en los sistemas de IA a partir de un enfoque donde las entidades relevantes en la materia rindan cuentas y se mejore la gestión y control de la calidad del producto de IA.

En este sentido, las pautas prohíben que los productos y servicios de IA se involucren en actividades ilegales y pongan en grave peligro la seguridad nacional, la seguridad pública o la seguridad de fabricación.

Tales medidas están orientadas a que China se convierta en el líder mundial en IA, incluso por encima de Estados Unidos. El próximo objetivo en esta tarea es lograr avances en la materia para el 2025, con el fin de que a finales de la década sean el máximo exponente de esta tecnología.

Publicidad
¿Quieres enterarte de lo más reciente de la tecnología?
Entrevistas, noticias y reseñas sobre los últimos gadgets e innovaciones.

¡Falta un paso! Ve a tu email y confirma tu suscripción (recuerda revisar también en spam)

Ha ocurrido un error, por favor inténtalo más tarde.

Publicidad