Publicidad
Publicidad

Google te ayuda a saber qué preguntarle

Platicamos con Elizabeth Reid, VP de Search sobre los avances en MUM y cómo la tecnológica trabaja en que las búsquedas sean más sencillas.
mié 29 septiembre 2021 02:00 PM
google-mejoras-mum
La plataforma ha buscado generar tecnología más inteligente que ayuda a las personas en sus búsquedas.

Durante el evento Search On 2021 de Google, la tecnológica presentó algunos avances en su algoritmo basado en inteligencia artificial conocido como MUM (Modelo Unificado Multitarea) para hacer más sencillas las búsquedas, sobre todo aquellas que tienen componentes que no solo son texto, sino también imagen, video o audio.

El enfoque de estos cambios presentados este miércoles responden a la necesidad de comprender mejor la información que quiere el usuario e incluso permitir que exploren aún más en el buscador de Google.

En Expansión tuvimos la oportunidad de platicar con Elizabeth Reid, vicepresidenta de Search, sobre las novedades previas a su presentación.

“Creemos que para ser útil lo primero que se necesita es entender tu búsqueda, y puede parecer tan simple como preguntar “¿cuál es el mejor momento para plantar tomates en California?” pero realmente detrás de eso buscamos entender qué quieres hacer, quieres entender más sobre las estaciones en California o cómo plantar en tu jardín o qué tipo de planta utilizar. A veces las personas van de una pregunta a otra, pero en otros casos ni siquiera se imaginan cuál es la siguiente pregunta, porque es una área en la que no están tan familiarizados”.

Publicidad

Avances en Google Lens, gracias a MUM

Una de las respuestas a este tipo de preguntas es el anuncio de un avance en Google Lens gracias a MUM, el cual retoma el proceso multimodal de este algoritmo. Esta nueva búsqueda, permite agregar texto a las búsquedas visuales y hacer preguntas acerca de lo que se observa. Por ejemplo, si tienes una camisa con un patrón en específico, puedes escribir si existen calcetines con ese mismo patrón y aparecerá la búsqueda visual de ellos.

También permitiría a los usuarios tomar fotografías y hacer preguntas. Por ejemplo, si tu bicicleta tiene una parte rota pero no sabes cómo se llama, solo tienes que tomar la foto de esa parte y escribir “¿cómo arreglo esto?” aunque no sepas qué significa “esto”. Con ello, Google te mostrará tanto videos, como imágenes y texto sobre cómo arreglarla. Este desarrollo de Google Lens estará disponible en los próximos meses.

“La oportunidad y el reto que tenemos es entender de manera más profunda a la web, no solo una colección de palabras que tienen sentido sino cómo entendemos los conceptos detrás de esas palabras, esa es una de las cosas que MUM está desbloqueando (...) Otra oportunidad es cuando los usuarios tienen preguntas muy amplias, cómo podemos ayudarlos a navegar todos los tópicos, no creemos que vamos a leer la mente pero podremos ayudar a navegar ese espacio de la manera más eficiente posible”, cuenta Reid a Expansión.

Publicidad

Google mejora su buscador

Como respuesta a este ordenamiento de la información, Google también presentó cuatro maneras en las que están buscando mejorar las búsquedas de la plataforma conforme la inteligencia artificial avanza.

La primera es “las cosas que debes saber” en donde tomas una búsqueda sobre una actividad de la cual no tienes ni idea de cómo iniciar. El ejemplo de Google es comenzar a pintar con acrílico, entonces la búsqueda no solo plantea una serie de links sino incluso una guía casi paso a paso de qué material es, qué se necesita para empezar e incluso como limpiar.

La segunda se relaciona con el comportamiento de los usuarios que en ocasiones hacen preguntas generales y luego quieren refinarlas, y al mismo tiempo, ya que están más definidas buscan regresar a la información general, Google lanzará funciones que permitirán explorar la información desde los aspectos específicos de un tema a ideas más generales. Esto se lanzará en inglés en los próximos meses.

La tercera es contar con búsquedas visualmente más amigables, pasando de la página de resultados tradicional en donde las imágenes aparecían con fotografías pequeñas en la parte superior y luego una búsqueda de texto en donde, en ocasiones, algunos conceptos no son suficientemente claros. Ahora los resultados combinarán imágenes con texto de manera que sea más fácil realizar búsquedas. Esto estará disponible en inglés en Estados Unidos.

Una última función es ahora poder encontrar temas relacionados dentro de los videos e incluso sugerir otros videos sobre los otros subtemas que se presentan dentro de estos.

En estas búsquedas, se generan modelos de inteligencia artificial para asegurar que los usuarios tengan el contenido de mayor calidad posible, asegurando evitar contenidos prejuiciosos, contenido para adultos u ofensivo. La manera en que funcionan estos modelos, es a través de un serie de pruebas intensivas para asegurar que el contenido es apto.

Estas nuevas experiencias estarán disponibles inicialmente en inglés y durante el año comenzarán a estar en otras lenguas.

Para determinar cuáles son las experiencias que llegan a los usuarios Reid explica a Expansión que hacen una serie de investigaciones para entender la manera en que estos ya están usando los productos para entender cuáles son las necesidades de información que realmente tienen, qué está funcionando para ellos y cuáles son sus retos y una vez que entienden eso, eligen funciones diseñadas para ayudar a los usuarios.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad