Monika Bauerlein, directora ejecutiva del CIR, dijo a través de un comunicado, que ambas empresas recopilan sus historias para hacer su producto más poderoso, “pero nunca pideron permiso ni ofrecieron compensación (...) este comportamiento oportunista no solo es injusto, sino que también viola los derechos de autor”.
Sin embargo, ambas empresas no utilizan la misma tecnología. Sarah Bird, directora de productos de la Oficina de IA Responsable de Microsoft afirma que las dos empresas tienen una copia del modelo y, en el caso de Microsoft, lo mantiene completamente ligado a su ecosistema, por lo que la empresa tiene la capacidad de ejecutar sus propias medidas de seguridad y privacidad.
“Cuando utilizas un producto de Microsoft, utilizas enteramente nuestra plataforma, mientras que OpenAI tiene su propia versión”, explica Bird sobre los filtros que tiene la información para respetar derechos de autor.
Natasha Crampton, vicepresidenta y directora de la Oficina de IA Responsable de Microsoft, aporta diciendo que si bien Microsoft ha trabajado con OpenAI para compartir las mejores prácticas en términos de seguridad, cuando la IA se implementa en productos de Microsoft tiene capas adicionales de seguridad que corresponden a los estándares y valores de la empresa.
Cabe recordar que en septiembre del año pasado, Microsoft dio a conocer que asumirá la responsabilidad legal si sus usuarios son demandados por alguna infracción de derechos de autor al utilizar su servicio AI Copilot.
De acuerdo con el director legal de la empresa, Brad Smith, la compañía se hará cargo de cualquier riesgo legal que tenga una compañía al hacer uso de su sistema en términos de cómo protegen obras que no sean de la autoría de la tecnología.
Esta iniciativa se llama Copilot Copyright Commitment y forma parte de una serie de políticas y compromisos generales que está asumiendo Microsoft con sus clientes empresariales de los sistemas de Inteligencia Artificial.
“Si un tercero demanda a un cliente comercial por infracción de derechos de autor por el uso de Copilot, o la producción que generan, defenderemos al cliente y pagaremos el monto de cualquier sentencia o acuerdo adverso que resulte de la demanda”, puntualiza la empresa.
Sin embargo, es importante resaltar que también tiene algunas condiciones para poder asumir la responsabilidad del contenido, como el hecho de que el cliente “haya utilizado las barreras de seguridad y filtros de contenido”, menciona Smith.
La empresa destaca tres razones principales para esta postura en torno a los derechos de autor. La primera es que quiere respaldar la confianza de sus clientes al utilizar sus servicios de Inteligencia Artificial.
La segunda es que comprende la preocupación en torno a los derechos de autor que ha surgido tras el auge de la IA generativa y la tercera explicación es poner a prueba las barreras que ha construido para evitar que esta tecnología viole el material protegido.
En este sentido, Smith resalta que con este tipo de proyectos buscan manejar la incertidumbre en torno a las legislaciones autorales y la IA generativa, pues consideran que los artistas deben mantener la propiedad de sus obras, además de obtener una ganancia por ellas.