in

Nuevas funciones de la Búsqueda de Google: Multibúsqueda para obtener más resultados visuales para comprar

Google Search

La Búsqueda de Google está cambiando con mejores resultados, que incluirán más imágenes, videos junto con la expansión de la función de búsqueda múltiple. Pero para los usuarios, la pregunta principal será cómo les afectan estos cambios. Aquí hay un vistazo rápido a lo que cambiará en los próximos meses cuando busque cualquier cosa en Google.

Función de búsqueda múltiple en Google Lens, Búsqueda múltiple cerca de mí

Esto se lanzó como una versión beta en abril y Google ahora lo está trayendo al inglés a nivel mundial. Llegará a 70 idiomas más en los próximos meses. La función de búsqueda múltiple de Google permitirá a los usuarios confiar en la cámara de su teléfono para encontrar una imagen usando Google Lens y luego agregar una consulta adicional basada en texto. La publicación anterior del blog de Google había revelado algunos ejemplos de cómo funciona la función. Por ejemplo, podría usar una captura de pantalla de un vestido de color naranja y agregar ‘verde’ para buscar otro color. O podrían tomar una foto de un plan en particular y agregar «instrucciones de cuidado» como otra consulta.

Nuevas funciones de la Búsqueda de Google Función de búsqueda múltiple de Google y ‘cerca de mí’ en uso. (Crédito de la imagen: Google)

Multisearch obtendrá otra adición también llamada ‘cerca de mí’, aunque este aspecto en particular solo se implementará a finales de este otoño en los EE. UU. en inglés. Esto permitirá a los usuarios utilizar la búsqueda múltiple para encontrar elementos cerca de ellos con la ayuda de Google Lens. Por ejemplo, uno podría tomar una foto de un alimento en particular y agregar la consulta ‘cerca de mí’ para saber si pueden encontrar el plato cerca y dónde. Google señala en la publicación del blog que esta «nueva forma de búsqueda lo ayudará a encontrar y conectarse con negocios locales, ya sea que esté buscando apoyar la tienda de su vecindario o simplemente necesite algo en este momento».

Prepárese para obtener más resultados visuales

Este parece ser el intento de Google de asumir algunos de los desafíos que plantean TikTok e Instagram con más y más usuarios de GenZ que confían en estas plataformas para la búsqueda. Google ahora tiene la intención de ser más visual con sus resultados de búsqueda móvil. Por ejemplo, cuando busca temas como ciudades o un punto de referencia particular o incluso global, puede terminar con resultados que tienen más elementos visuales, incluidas las Historias web, en lugar de enlaces basados ​​en texto sin formato.

Google dice que facilitará la «exploración de un tema al resaltar la información más relevante y útil, incluido el contenido de los creadores en la web abierta». Entonces, sí, un video de viajes de personas influyentes también podría aparecer en los resultados de búsqueda. Para temas como ciudades, los usuarios pueden ver «historias visuales y videos cortos de personas que han visitado, consejos sobre cómo explorar la ciudad, cosas que hacer, cómo llegar allí y otros aspectos importantes…», señala la publicación del blog.
Google sugerirá preguntas incluso mientras las escribe

Digamos que está empezando a escribir una pregunta en el cuadro de búsqueda de Google. Bueno, en los próximos meses, Google intentará ampliar su consulta mostrando otras palabras que puede tocar y agregar a su consulta. Google utilizará sus poderes predictivos para proporcionar «contenido relevante de inmediato, incluso antes de que haya terminado de escribir».

“Proporcionará opciones de palabras clave o temas para ayudarlo a elaborar su pregunta”, señala el blog. Por ejemplo, al planificar unas vacaciones en un país, Google podría sugerir opciones como «las mejores ciudades para familias en XYZ» o incluso «las mejores ciudades para parejas en luna de miel».

“Usando una comprensión profunda de cómo buscan las personas, pronto le mostraremos temas para ayudarlo a profundizar o encontrar una nueva dirección en un tema. Y puede agregar o eliminar temas cuando desee acercar y alejar”, ​​explica el blog.

Más importante aún, la forma en que se mostrarán los resultados cambiará con una rica fuente de formatos visibles desde texto hasta imágenes y video. Estos cambios comenzarán a notarse en los próximos meses.

Más temas a medida que se desplaza por los resultados

Google también señala que mostrará más temas relacionados con una consulta de búsqueda a medida que los usuarios se desplazan por los resultados en su móvil. Dice que busca sobre una ciudad en particular en un país y, a medida que se desplaza hacia abajo, puede ver temas como los mejores restaurantes para comer en esa ciudad o detalles sobre las playas de la ciudad u otros lugares públicos, etc. Google dice que mostrará contenido más allá del original. consulta. Nuevamente, esto es algo que se lanzará en inglés en los EE. UU. en los próximos meses.

Nuevas funciones de la Búsqueda de Google Los nuevos menús digitales actualizados en la Búsqueda de Google.

Mejores resultados para alimentos, platos.

Los resultados visuales intensos también se están extendiendo a las consultas sobre alimentos. Si busca un plato en particular y los restaurantes que lo sirven, los resultados serán más atractivos visualmente. Google mostrará los restaurantes cercanos junto con una imagen del plato de su menú, todo diseñado para verse más apetitoso.

La publicación del blog también señala que Google está ampliando la «cobertura de los menús digitales y haciéndolos más ricos visualmente y confiables». Combinará «información de menú proporcionada por personas y comerciantes, y que se encuentra en sitios web de restaurantes que utilizan estándares abiertos para compartir datos» para potenciar estos resultados. Google dice que los nuevos menús de comida mostrarán los platos más populares en un restaurante y también tendrán otras opciones dietéticas como vegetariano o vegano o incluso picante como filtro.

La función de búsqueda múltiple también se puede utilizar para identificar nuevos alimentos y dónde se venden.

Las compras serán más personales

Google también anunció una serie de funciones relacionadas con las compras, aunque estas llegarán primero a los EE. UU. Estos incluyen la capacidad de comprar zapatillas de deporte en 3D, ver otras prendas de moda o artículos relacionados con la moda (que a menudo se muestran como un estilo de historia) y la capacidad de comprar un look de moda completo. Cuando alguien busca con la palabra «tienda» seguida de cualquier artículo que esté buscando, Google mostrará «alimentación visual de productos, herramientas de investigación e inventario cercano relacionado con ese producto». Está expandiendo la experiencia de compra de búsqueda a todas las categorías, desde electrónica hasta belleza, y agregará más regiones en dispositivos móviles. La experiencia también llegará pronto al escritorio).

Google también está agregando más ‘filtros dinámicos para los usuarios cuando compran a través del motor de búsqueda. Estos se adaptan y se basan en tendencias de búsqueda en tiempo real. En la publicación del blog, Google explica: «si está comprando jeans, es posible que vea filtros para ‘pierna ancha’ y ‘corte de bota’ porque esos son los estilos de mezclilla populares en este momento, pero pueden cambiar con el tiempo, dependiendo de la tendencia». .” La función estará disponible en EE. UU., Japón e India, y pronto llegará a más regiones.

Finalmente, la pestaña Descubrir en Google mostrará más estilos y resultados relacionados con las compras para inspirar a los usuarios.

Traducción de lente AR

Google dice que la nueva actualización de traducción de Lens garantizará que cuando apunte la cámara de Lens a un póster en otro idioma, verán el texto traducido superpuesto de manera realista en las imágenes debajo. Una vez más, se basa en «grandes avances en el aprendizaje automático» para crear esta apariencia combinada en la que el texto traducido parece más natural en lugar de discordante sobre la foto o imagen original. ahora podemos combinar texto traducido en imágenes complejas, por lo que se ve y se siente mucho más natural, en lugar de discordante.

Google dice que están utilizando «redes antagónicas generativas (también conocidas como modelos GAN), que es lo que ayuda a impulsar la tecnología detrás de Magic Eraser en Pixel», para lograr este efecto. Esta experiencia se lanzará a finales de este año.

Discusiones y Foros

Los resultados mostrarán una sección para «discusiones y foros» para los resultados en inglés estadounidense. Por lo tanto, los resultados de Reddi o Quora u otras plataformas también podrían aparecer en los resultados como una sección dedicada.



Fuente

Publicado por notimundo

KL Rahul

Es posible que KL Rahul no disfrute de un ‘baño de hielo’ después de wickets ‘duros’, pero así es como ayuda

Cómo mi segundo hijo con Travis Scott nació sin nombre

Cómo mi segundo hijo con Travis Scott nació sin nombre