Publicidad
Publicidad

Samsung prohíbe ChatGPT a sus empleados por temores de seguridad

La empresa surcoreana informó el riesgo de que se filtre información confidencial a través de la plataforma y pidió que se deje de usar hasta generar un “entorno seguro”.
mar 02 mayo 2023 09:00 AM
(Logotipo de Samssung en la puerta de un edificio corporativo)
La empresa comenzó a aplicar la regla luego de que se filtrara parte de su código fuente a través de la herramienta.

Las polémicas alrededor de las herramientas de Inteligencia Artificial generativa no paran. Samsung dio a conocer que las soluciones de aprendizaje automático, como ChatGPT, están prohibidas en los procesos internos de la empresa, debido al temor de que se comparta información confidencial y, por lo tanto, represente un riesgo para su seguridad.

La regla, de acuerdo con un informe de Bloomberg y de CNBC, se informó al personal en un memorando a finales de abril y se trata de una medida temporal mientras la compañía trabaja en “crear un entorno seguro” para usar estas soluciones de IA generativa.

Si bien este sistema se ha hecho bastante popular como una forma de entretenimiento, al interior de las empresas también se está utilizando como parte de la optimización de los procesos, lo cual puede representar un riesgo, pues los usuarios puede usar el sistema para resumir informes o escribir respuestas a correos con información confidencial a la que posteriormente OpenAI podría tener acceso.

Publicidad

“La sede está revisando las medidas de seguridad para crear un entorno seguro para el uso seguro de la IA generativa con el fin de mejorar la productividad y la eficiencia de los empleados”, se lee en el memorando interno, de acuerdo con el reporte de Bloomberg.

Además de restringir el uso de la herramienta a través de los dispositivos de la empresa, Samsung también pidió a su personal no cargar información comercial confidencial en el sistema por medio de sus dispositivos personales.

“Le pedimos que se adhiera diligentemente a nuestra pauta de seguridad y, de no hacerlo, puede resultar en una violación o compromisp de la información de la compañía que resulte en una acción disciplinaria que puede incluir la terminación del empleo”, resaltó la empresa.

Esta medida se comenzó a aplicar luego de descubrir que una persona filtrara parte de su código fuente al subirlo a la plataforma. Por lo tanto, la empresa busca minimizar los riesgos de exposición en torno a la información confidencial de la empresa.

Publicidad

Cabe mencionar que los riesgos dependen de la forma en que los usuarios acceden al servicio. Si una empresa hace uso de la API de ChatGPT, OpenAI no tiene acceso a las conversaciones que se tienen con el chatbot y tampoco son utilizadas para entrenarlo.

Sin embargo, si se trata de la herramienta de acceso general, el modelo sí utiliza la información para mejorar sus sistemas y asegurarse de que cumpla con sus políticas y requisitos de seguridad, como lo menciona en su sección de preguntas frecuentes .

De hecho, la compañía desarrolladora es tan consciente de que se usan los datos que aconseja a los usuarios a no “compartir información confidencial en sus conversaciones”, pues cualquier dato se puede usar para entrenar a versiones futuras de ChatGPT. Incluso hace poco lanzó el modo incógnito para que no se guarden historiales del chat o se usen para su entrenamiento.

Samsung no es la única empresa que está prohibiendo el uso de ChatGPT por temores de seguridad. Hace unas semanas, Amazon pidió a sus empleados que no subieran información confidencial a la plataforma, mientras que los bancos JPMorgan, Bank of America, Citigroup, Goldman Sachs y Wells Fargo, entre otros, hicieron lo mismo.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad