Publicidad
Publicidad

OpenAI ofrece hasta 20,000 dólares a quien encuentre vulnerabilidades en ChatGPT

La empresa de IA lanzó un programa para que cualquier persona informe sobre errores informáticos en sus servicios y la paga va desde 200 hasta 20,000 dólares.
mié 12 abril 2023 11:00 AM
ChatGPT ya tendrá “memoria”, y eso debería preocuparte como usuario
Los errores que serán elegibles para recompensa incluyen aquellas relacionadas a ChatGPT, así como otras ligadas a inicios de sesión, complementos, problemas de pago y exposición de datos.

La empresa encargada de desarrollar ChatGPT , OpenAI, lanzó un programa para detectar vulnerabilidades , a través del cual se entregarán hasta 20,000 dólares a quienes encuentren y reporten errores informáticos en sus sistemas de Inteligencia Artificial, incluido el popular chatbot.

De acuerdo con una publicación que la empresa hizo en la plataforma de ciberseguridad, Bugcrowd, las recompensas comenzarán en 200 dólares “por hallazgos de baja gravedad” hasta los 20,000 dólares “por descubrimientos excepcionales”, pero no se tomará en cuenta el código malicioso que se pueda generar a través de ChatGPT.

Según los detalles, los errores que serán elegibles para recompensa incluyen aquellas relacionadas a ChatGPT, así como otras ligadas a inicios de sesión, complementos, problemas de pago y exposición de datos, en este último caso, los descubridores deberán mantener el problema en secreto hasta que OpenAI lo autorice.

Publicidad

Sin embargo, “los problemas relacionados con el contenido de las indicaciones y respuestas del modelo están estrictamente fuera del alcance y no serán recompensadas”, se puede leer en la publicación.

Otra forma de buscar vulnerabilidades que no está incluida en el programa es el jailbreaking, que consiste en generar escenarios para eludir los propios filtros de seguridad del sistema para obligarlo a hacer algo que no debería.

La razón por la que no se incluyen estos problemas de seguridad es porque “no encaja bien dentro de un programa de recompensas por errores, pues se trata de errores individuales y discretos que se pueden solucionar directamente”, además de que estos asuntos suelen requerir una investigación más amplia.

Con esta iniciativa, OpenAI busca que se le comuniquen errores en ciertas funciones de sus sistemas, así como la forma en que estos se comunican y comparten datos con aplicaciones de terceros, algo importante pues hace unos días el chatbot fue prohibido de forma temporal en Italia por preocupaciones en torno a temas de privacidad.

Publicidad

Y es que de acuerdo con un comunicado que publicó la Autoridad de Protección de Datos de Italia, la empresa carece de justificación legal para recopilar información personal de los usuarios, además de que tampoco cuenta con un mecanismo para impedir que menores de edad accedan a este servicio, por lo que no puede operar hasta resolver esas cuestiones.

“Si bien trabajamos arduamente para prevenir riesgos, no podemos predecir todas las formas en que las personas usarán o abusarán de nuestra tecnología en el mundo real”, señaló la empresa, la cual también resaltó que se trata de una medida para impulsar la “transparencia y la colaboración”.

Este tipo de prácticas son comunes y son conocidas como hacking ético, es decir, son técnicas de ciberseguridad defensiva para identificar vulnerabilidades, remediarlas o mitigarlas. La idea es utilizar todas las habilidades de un hacker en la detección de fallas o errores, explicó a Expansión Javier Bernardo, líder de hackers éticos en Strike, una empresa de ciberseguridad fundada en Uruguay con presencia en Latinoamérica.

Las técnicas que usa un hacker ético y uno malicioso son las mismas: ingeniería social, pruebas de penetración, investigación, programación de sistemas señuelo o herramientas físicas y digitales. Por ello, el hacking ético puede ser considerado una espada de doble filo; sin embargo, el experto resaltó que hay mayor apertura por parte de las empresas a recibir y recompensar a quienes entregan reportes de fallas de seguridad.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad