La proliferación de imágenes generadas por Inteligencia Artificial no se detiene y cada vez es más complicado detectarlas. Es por ello que OpenAI, la empresa desarrolladora de herramientas como ChatGPT y DALL-E, está desarrollando una nueva forma de detectar este tipo de imágenes y cuenta con un 99% de confiabilidad.
De acuerdo con Mira Murati, directora de tecnología de OpenAI, la herramienta todavía se encuentra en fase de pruebas internas, por lo que no cuenta con una fecha de lanzamiento específica, pero aseguró que su margen de error es del 1%.
Sin embargo, se trata de un producto relevante ante la proliferación de aplicaciones que tienen la capacidad de generar contenido visual que parece real, también llamado deepfakes. Hace unos meses, fueron utilizadas para crear una versión del Papa a la moda o incluso el arresto del expresidente de Estados Unidos, Donald Trump.