Ya puedes 'googlear' el mundo que te rodea con Google Lens

La firma presentó cómo la inteligencia artificial está transformando sus aplicaciones, desde el asistente hasta la manera en la que aprovechamos su poder de búsquedas.
Google I/O  En el evento de desarrolladores de la tecnológica se presentó el Google Lens para 'googlear' lo que el usuario ve, así como la aplicación del asistente inteligente en iPhone.  (Foto: Carlos Fernández de Lara)
Carlos Fernández de Lara Soria /
MOUNTAIN VIEW, CALIFORNIA (Expansión) -

Google anunció este miércoles la salida de Google Lens, una nueva función que permitirá a los usuarios 'googlear' objetos, lugares o información a través de la cámara de un teléfono. El anuncio se dio en el marco de su conferencia de desarrolladores I/O, en la que la firma californiana también confirmó la salida de su asistente digital en dispositivos iPhone y “cualquier otro producto”, así como el desarrollo de nuevas funciones para Google Home.

"Google Lens es una función que que entiende lo que miras y aprovecha el poder de nuestra herramientas para darte información de valor”, explicó Sundar Pichai, CEO de Google.

“Si por ejemplo te encuentras con una foto de una flor o un alimento que no conoces, puedes apuntar la cámara de tu teléfono y te puede decir qué tipo de flor es. Lo mismo al ver un restaurante, como sabemos dónde estas y tenemos toda la información de Google Maps podemos darte la información referente al lugar”, comentó el CEO.

Además de entender el contexto del objeto, Google Lens es capaz de obtener información documental de las imágenes. Si el usuario captura imágenes con números, nombres, contraseñas o direcciones el software es capaz de ofrecerle la posibilidad de marcar el teléfono, guardar el contacto o abrir directamente Google Maps para obtener direcciones.

Lee: Google Maps te dejará compartir tu ubicación en tiempo real

La función es similar a lo que la firma de comercio electrónico, Amazon, presentó hace unos años con su poco exitoso teléfono móvil Fire Phone, el cuál era capaz de comprar productos existente en la plataforma mediante la captura de fotos.

Google promete que la función de Lens transforma aplicaciones como Assistant, Fotos y Translate.

Además de la nueva función de cómputo visual, Google anunció que su asistente de voz estará disponible para iPhone de Apple, Android TV y “cualquier dispositivos desde juguetes, electrónicos o lo que se le ocurra a los desarrolladores”, gracias a la liberación de su kit de desarrollo.

Por ahora el asistente de voz, únicamente funciona en inglés pero los ejecutivos de Google confirmaron que este año idiomas como el japonés, portugués de Brasil y español estarán disponibles.

Las mejoras a las herramientas de Google forman parte de la iniciativa de la firma por construir la red de inteligencia artificial más grande del mundo. Gracias a la cantidad masiva de usuarios que varias de sus aplicaciones alcanzan.

Durante su conferencia de apertura, Pichai presumió que su sistema operativo Android ya rebasó los 2,000 millones de dispositivos activos, Google tiene cerca de 500 millones de usuarios, YouTube más de 1,000 millones y su concentrador de archivos en la nube, Drive, ya tiene cerca de 800 millones de internautas activos por mes.

Lee: El asistente inteligente de Google llega a México

Así, Google no solo quiere hacer toda la información del mundo accesible a los usuarios de internet, el gigante tecnológico también creó la bases para construir los chips que darán vida al cerebro de la inteligencia artificial. En el marco de I/O, Pichai anunció el desarrollo de un nuevo chip dedicado para Machine Learning, conocido como Tenser Unit Processor (TPU).

Los chips, que ya operan en los centros de datos de Google, ofrecen un desempeño 30% mayor en el procesamiento de información que los CPU y GPU actuales. Aunque Google no entró en detalle sobre cómo los nuevos chipsets están construidos, Sundar afirmó que todo su poder de cómputo estará disponible para desarrolladores a través de su plataforma Google Cloud Engine.

“Con machine learning podemos mejorar tareas como la detección de patologías como el cáncer de mama a través de imágenes mucho mejor que los humanos, acelerar el análisis de la secuencia de ADN humana, pero también cosas divertidas como ayudar a que la gente dibuje mejor”, dijo el CEO de la compañía.

Ahora ve
Vecinos de la colonia Del Valle abarrotan una ferretería para ayudar en rescates
No te pierdas
×