Entre los elementos que buscaba atajar la orden de Biden se encontraba establecer estándares para el contenido generado por IA, como marcas de agua, y así evitar la proliferación de deepfakes o casos de suplantación de identidad, entre otros usos irresponsables que reprodujeran o intensificaran las inequidades existentes, causaran nuevos tipos de discriminación dañina y exacerbarán daños en línea y físicos”.
La decisión de Trump sobre la derogación también es parte de la ola “anti-woke” alrededor del presidente, pues muchos de sus principios también estaban considerados en órdenes ejecutivas que el mismo Trump afirmó durante su primer mandato que sólo fueron trasladadas a la siguiente administración.
“Si miras más allá del posicionamiento político en esto, la orden ejecutiva de Biden se basó en temas que se establecieron en la primera administración de Trump y han sido reiterados por voces bipartidistas en el Congreso”, comentó a AP la directora general del Centro para la Democracia y Tecnología en EU, Alexandra Reeve.
Para especialistas como Reeve, la derogación está motivada por razones meramente políticas. Por su parte, Alondra Nelson, exdirectora interina de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca, ha alertado que Trump es “menos partidario que Biden en cuestiones relacionadas con la privacidad, las libertades civiles de las personas y los derechos civiles”.
Trump vs. regulación de la IA
Elon Musk, quien ahora ocupa un puesto en el Departamento de Eficiencia Gubernamental, había sido un fuerte crítico de la IA tal y como se había estado desarrollando hasta el momento, calificando a los modelos, como ChatGPT, de ser demasiado “woke” o “políticamente correctos”.
“Muchas de las IA que se están entrenando en el área de la Bahía de San Francisco adoptan esa filosofía de las personas que las rodean. (Los desarrolladores) tienen una filosofía ‘woke’ que se está integrando en estas inteligencias artificiales”, comentó en octubre durante una conferencia de la Iniciativa Inversión Futura, un evento respaldado por el gobierno de Arabia Saudita.
Contrario a este discurso del multimillonario, Fernanda Zistecatl, especialista en derechos humanos y tecnología de la Fundación Luminate para México y Latinoamérica, mencionó que cualquier respuesta ante los desafíos que representa la IA, sean propuestas de regulaciones u otras iniciativas, tienen que enfocarse en la protección a los derechos humanos, garantizar que la tecnología está al servicio del interés público y centrar las voces, perspectivas y necesidades de poblaciones históricamente vulneradas y que sea una conversación donde participan diferentes actores.
“Que en las mesas de negociación”, puntualizó, “no sólo esté el gobierno y el sector privado, sino también que se pueda contar con las voces de personas expertas de la sociedad civil, activistas y academia que nutran a la conversación”.
Si bien la especialista es consciente que cada país comprende su contexto y, por lo tanto, responde ante él a partir de determinar cuáles son las mejores soluciones para atender sus necesidades particulares, en relación a la IA es necesario tener en cuenta los potenciales efectos sobre determinados sectores de la población.
“La IA puede tener riesgos significativos para poblaciones históricamente subrepresentadas, como mujeres, personas de la comunidad LGBTI+, afrodescendientes o indígenas, porque replican sesgos de los seres humanos y los pueden ubicar en posición de desventaja en momentos clave como selección de servicios sociales o determinación de sentencias judiciales”, explicó.
Un nuevo decreto de IA en la era Trump
Los primeros días de la era Trump han estado llenos de órdenes ejecutivas y luego de derogar la de Biden en materia de IA, el republicano decidió impulsar su propia iniciativa bajo la premisa de desarrollar una IA “libre de sesgos ideológicos o agendas sociales manipuladas”.
En el documento de Trump no se especifican qué políticas actuales obstaculizan el avance de la IA, pero su objetivo es rastrear y revisar todas las “políticas, directrices, regulaciones, órdenes y otras acciones” tomadas como parte del trabajo de Biden en la materia y ser suspendidas si no se ajustan con la directriz de Trump en torno a promover “el florecimiento humana, la competitividad económica y la seguridad nacional”.
“El desarrollo estadounidense de sistemas de inteligencia artificial”, se lee en el comunicado de la Casa Blanca. “Debe estar libre de sesgos ideológicos o agendas sociales manipuladas. Con las políticas gubernamentales adecuadas, Estados Unidos puede consolidar su posición como líder en IA y garantizar un futuro más brillante para todos los estadounidenses”.
Como parte de esta estrategia, Trump también planteó el desarrollo de un plan de acción sobre IA dentro de 180 días, en el cual participará David Sacks, quien es un capitalista de riesgo ejecutivo de PayPal y quien fue elegido por Trump como el nuevo asesor especial para la IA y criptomonedas.