Publicidad
Publicidad

OpenAI tendrá un detector de imágenes generadas por IA y será 99% efectivo

La responsable de producto en la empresa, Mina Murati, señaló que todavía se encuentra en fase de desarrollo, pero tiene la intención de abordar la desinformación que genera la IA.
mié 18 octubre 2023 10:00 AM
OpenAI tendrá un detector de imágenes generadas por IA y será 99% efectivo
OpenAI ya había lanzado una herramienta para detectar contenido falso, pero no era tan efectiva.

La proliferación de imágenes generadas por Inteligencia Artificial no se detiene y cada vez es más complicado detectarlas. Es por ello que OpenAI, la empresa desarrolladora de herramientas como ChatGPT y DALL-E, está desarrollando una nueva forma de detectar este tipo de imágenes y cuenta con un 99% de confiabilidad.

De acuerdo con Mira Murati, directora de tecnología de OpenAI, la herramienta todavía se encuentra en fase de pruebas internas, por lo que no cuenta con una fecha de lanzamiento específica, pero aseguró que su margen de error es del 1%.

Sin embargo, se trata de un producto relevante ante la proliferación de aplicaciones que tienen la capacidad de generar contenido visual que parece real, también llamado deepfakes. Hace unos meses, fueron utilizadas para crear una versión del Papa a la moda o incluso el arresto del expresidente de Estados Unidos, Donald Trump.

Publicidad

Los esfuerzos de las empresas por generar aplicaciones capaces de detectar imágenes creadas por IA ha sido algo relevante en los últimos meses, pero al mismo tiempo algo complejo de lanzar al mercado satisfactoriamente.

En enero, la propia OpenAI lanzó una aplicación similar para determinar si un texto era generado por Inteligencia Artificial, pero fue descontinuada en el mes de julio, debido a que no era tan confiable como para ponerla a disposición masivamente.

Si bien cada vez son más necesarias las herramientas para detectar contenido hecho por la IA, otras empresas que tienen sus propias herramientas están cambiando el enfoque para evitar que se genere contenido potencialmente dañino o desinformativo a partir de sus recursos.

Hace un par de semanas, por ejemplo, Getty anunció su propia IA generativa, la cual es entrenada con todas las imágenes que tiene en su base de datos; sin embargo, no se incluye el trabajo editorial o de fotoperiodismo, precisamente, con el fin de evitar la desinformación.

A finales de mayo, la red social X, antes Twitter, integró una función llamada Communty Notes, donde las personas pueden agregar contexto o detalles a las publicaciones para destacar si se trata de una imagen generada por IA.

GPT-5, un nuevo estándar para evitar la desinformación

Actualmente, el modelo GPT-4 o su versión anterior, la GPT-3.5, tienen importantes fallas, como el hecho de que son propensos a inventar cosas, algo que ha sido llamado como alucinaciones, pero Murati dijo que “quizá” la nueva versión ya no tendría este problema.

“Hemos avanzado mucho en el tema de las alucinaciones con GPT-4, pero no estamos en el lugar donde necesitamos estar”, comentó Murati en una conferencia donde también participó el CEO de OpenAI, Sam Altman.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad