Con esta tecnología, la cámara es capaz de "medir la profundidad de campo y saber si es algo en 2D o 3D", utilizando un algoritmo entre el sensor y el lente, detalla Marconi, quien resalta que se trata de innovaciones que irán llegando a más dispositivos con el tiempo.
Si alguien intentara fotografiar una imagen generada por IA en un televisor para hacerla pasar por real, la cámara detectaría la falta de profundidad física, detalla el vocero, lo que bloquea la posibilidad de engañar al sistema sobre la procedencia del "disparo".
Esta tecnología ya no es una promesa a futuro, pues se está extendiendo a otros equipos, no solo de Sony, sino de la C2PA, así como al formato de video. La meta es que tanto los medios de comunicación como el "consumidor de a pie" puedan verificar si el contenido fue generado o alterado por IA a través de las plataformas vinculadas al C2PA.
Desde la perspectiva de Marconi, este avance responde a una necesidad ética y de mercado. "Para nosotros la transparencia es clave", señala, enfatizando que no basta con lanzar productos al mercado, sino que es necesario proteger la integridad de la obra de los artistas y la confianza de los usuarios.
China es un referente en el etiquetado de imágenes con IA
Aunque esta medida es por parte de empresas, a nivel de gobierno ya hay países ejecutando sistemas de verificación de IA. Uno de los más importantes es China, que desde septiembre del año pasado se convirtió en el primer país en hacer obligatoria la identificación clara de todos los contenidos generados con IA.
La normativa, impulsada por la Administración del Ciberespacio de China (CAC) y otros ministerios, establece que cualquier texto, imagen, audio, video o entorno virtual producido por algoritmos debe llevar un etiquetado que advierta a los usuarios de su origen artificial.
Este “etiquetado frontal” puede tomar varias formas desde un aviso textual que indique “generado por IA”, hasta iconos visibles, marcas gráficas en las imágenes, o incluso mensajes de audio que acompañen un clip. Junto a esta señal perceptible, la ley también exige una segunda capa de identificación oculta para el usuario, incrustada en los metadatos de los archivos, con claves estandarizadas o marcas de agua digitales.
Los proveedores de servicios de generación de IA deben aplicar estas marcas desde el origen, mientras que las plataformas de redes sociales y distribución tienen la obligación de verificar los contenidos y añadir etiquetas si detectan que no las tienen.
Incluso los usuarios que publiquen materiales creados con IA deben declararlos en el proceso de carga. De no hacerlo, se enfrentan a sanciones por manipulación o falsificación de etiquetas. Hasta las tiendas de aplicaciones tienen un papel que cumplir, pues solo se comercializarán apps que demuestren mecanismos para cumplir con las normas.