Publicidad
Publicidad

Microsoft pide regular las deepfake, mientras Musk publica una de Kamala Harris

La empresa busca una legislación más fuerte, en torno a esta tecnología, para evitar fraudes y desinformación en periodos electorales.
mar 30 julio 2024 12:00 PM
Microsoft pide regular las deepfake, mientras Musk publica una de Kamala Harris
Estas imágenes no corresponden a las personas reales. Son falsas, llamadas deepfakes, generadas con Inteligencia Artificial.

Microsoft es una de las empresas más interesadas en desarrollar herramientas alrededor de la Inteligencia Artificial generativa, pero su enfoque también busca tener efecto sobre las leyes que regulan esta tecnología, pues pidió al Congreso de los Estados Unidos que generen medidas urgentes en torno a las deepfake (imágenes creadas a partir de IA).

De acuerdo con una entrada en su blog , el presidente de Microsoft, Brad Smith, el sector tecnológico y grupos sin fines de lucro han generado sus propias iniciativas para abordar este problema, pero considera necesario que las “leyes también deben evolucionar para combatir el fraude de las deepfake”.

Microsoft quiere que se genere una ley contra el fraude a partir de este tipo de tecnología, con la cual las autoridades tengan un marco legal que les permita perseguir las estafas y fraudes generados por IA, ya que se trata de una tecnología que fácilmente se utiliza para “robar a los estadounidenses comunes”, dijo Smith.

Publicidad

Uno de los puntos más importantes que solicita Microsoft es que haya leyes federales y estatales en torno a la explotación y abuso sexual infantil, además de que las legislaciones existentes en torno a las imágenes íntimas no consentidas también consideren el contenido generado por IA.

Hace una semana, el Senado de EU aprobó un proyecto de ley en donde se establecen medidas enérgicas en contra de deepfakes sexualmente explícitas, a partir de la cual las víctimas de este tipo de contenidos podrán demandar a los creadores por daños y perjuicios.

Esta legislación se desarrolló como consecuencia de la creación y distribución de imágenes generadas por IA sexualmente explícitas de Taylor Swift , las cuales fueron distribuidas a través de la red social X, a inicios de este año.

Por su parte, Microsoft también ha implementado diversos controles de seguridad para sus propias herramientas de IA, debido a que “el sector privado tiene la responsabilidad de innovar e implementar salvaguardas que eviten el mal uso”, comentó.

Publicidad

Musk publica deepfake de Kamala Harris

Otro de los objetivos de Microsoft al motivar una legislación en torno a la IA es proteger los procesos electorales que se llevarán a cabo el próximo mes de noviembre en los Estados Unidos, pues esta tecnología puede influir en el comportamiento de los votantes.

Smith afirma que los proveedores de sistemas de IA deben, por ley, etiquetar todo el contenido sintético. “Esto es esencial para generar confianza en el ecosistema de la información y ayudará al público a comprender mejor si el contenido es generado por IA o manipulado”.

No obstante, mientras no haya este tipo de regulaciones, los usuarios podrán seguir distribuyendo contenido desinformativo y una muestra es Elon Musk, quien compartió un video deepfake de la vicepresidenta de EU, Kamala Harris, a través de su red social X.

Cabe resaltar que este tipo de publicaciones están prohibidas dentro de la plataforma, según sus propias políticas, pues si bien fue etiquetado como contenido paródico por el usuario original, cuando Musk lo reposteó, esta información de contexto ya no estaba disponible.

Tal publicación ya ha recibido críticas de políticos, como la demócrata Amy Klobuchar, quien desde Threads denunció que sigue sin contexto y que Musk “no sólo viola las reglas de su propia plataforma, sino que desatará toda una temporada electoral de contenido alterado por IA y voces falsas sin límites, independientemente del partido”.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad