Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Para construir una IA responsable, los datos se deben recabar de forma ética

Privacidad, transparencia y seguridad son algunos de los valores que se deben priorizar al generar esta tecnología.
jue 01 diciembre 2022 06:00 AM
arte_inteligencia_artificial
Microsoft cuenta con una guía para desarrollar la tecnología a partir de seis valores centrales para que sea responsable por diseño.

Al usar Inteligencia Artificial (IA) en entornos laborales, las empresas buscan que la tecnología complemente las tareas de los trabajadores para aumentar su productividad; sin embargo, incluso en esos contextos, la ética y transparencia son elementos fundamentales para recabar información que entrena a los sistemas.

Durante el desarrollo de las innovaciones en IA, las polémicas en torno a enfoques misóginos o racistas han generado mucha controversia y es por ello que grandes empresas como Microsoft están adoptando marcos para construir sistemas de manera responsable.

John Montgomery, vicepresidente corporativo de la plataforma de Inteligencia Artificial de Microsoft, menciona que desde esta compañía han establecido seis pilares en torno a la recolección responsable de datos para la IA en todos sus productos. Estos son “privacidad, transparencia, responsabilidad, equidad, confiabilidad y seguridad”.

Publicidad

Además, destaca que si bien son estándares dentro de Microsoft, también priorizan que sus clientes usen responsablemente sus modelos de IA, pues incluso hay casos de modelos con acceso a información biométrica, la cual puede ser sensible si es usada de forma maliciosa.

“Una forma responsable de usar esa data es determinar que únicamente se trata de un rostro”, es decir, tomar indicadores generales donde se determine que se trata del rostro de una persona y no de aspectos específicos que permitan conocer más información del individuo en cuestión.

A mediados de junio, Microsoft presentó el Estándar de IA responsable, un documento guía para desarrollar tecnología más confiable, donde la empresa estableció los seis valores centrales para que la tecnología sea responsable por diseño.

“La IA se está convirtiendo cada vez más en una parte de nuestras vidas y, sin embargo, nuestras leyes se están quedando atrás. No se han puesto al día con los riesgos únicos de la IA o las necesidades de la sociedad” ,problematiza Natasha Crampton, directora responsable de IA en Microsoft.

 

¿Cuánta información es suficiente?

Montgomery destaca que el uso de IA se está extendiendo cada vez más, debido a que se aplica en aquellas cosas que los humanos consideran aburridas o tediosas, haciéndolos sentir empoderados. No obstante, destaca que la información que junten estos sistemas no depende de ellos, sino de los objetivos que las personas desean alcanzar.

En México, el hospital Luis Sánchez Bulnes, Microsoft, y la Asociación para Evitar la Ceguera, entre otras organizaciones, crearon un algoritmo basado en IA para detectar con mayor precisión la ceguera en recién nacidos por medio de una fotografía del fondo del ojo con un teléfono móvil.

Para este caso de uso, explica Montgomery, se usaron 6,000 imágenes para entrenar el algoritmo que alcanzó una efectividad de 85%, comparado con 60% de los humanos y es utilizado para evitar la ceguera en bebés, pues según datos del hospital, diariamente 12 niños pierden su visión a causa del diagnóstico tardío de Retinopatía del Prematuro.

“Son cosas que la IA cambia drásticamente para hacerlas más asequibles”, sentencia el especialista, quien también resalta que para el entrenamiento de la tecnología se usaron repositorios de imágenes de libre acceso en los cuales también asumieron un rol ético para usar los datos y entrenar al sistema.

 
TechRoom
Suscríbete a nuestro newsletter de tecnología

Ve a tu email y consulta tu suscripción

Ha ocurrido un error, por favor inténtalo más tarde

Publicidad