in

La Búsqueda de Google obtiene una gran cantidad de nuevas funciones, más enfoque en las imágenes

Kindle, Kindle scribe, amazon september 2022 event, amazon fall event updates, amazon, amazon devices, amazon echo

La Búsqueda de Google está obteniendo una gran cantidad de nuevas funciones, anunció la compañía en su evento ‘Search On’, y muchas de ellas garantizarán resultados más ricos y enfocados visualmente. “Vamos mucho más allá del cuadro de búsqueda para crear experiencias de búsqueda que funcionen más como nuestras mentes, que sean tan multidimensionales como las personas. A medida que ingresamos en esta nueva era de búsqueda, podrá encontrar exactamente lo que está buscando al combinar imágenes, sonidos, texto y voz. A esto lo llamamos hacer que la búsqueda sea más natural e intuitiva”, dijo Prabhakar Raghavan, vicepresidente sénior de búsqueda de Google durante el discurso de apertura.

Primero, Google está expandiendo la función de búsqueda múltiple, que introdujo en versión beta en abril de este año, al inglés a nivel mundial y llegará a 70 idiomas más en los próximos meses. La función de búsqueda múltiple permite a los usuarios buscar varias cosas al mismo tiempo, combinando imágenes y texto. La función también se puede usar junto con Google Lens. Según Google, los usuarios confían en su función Lens casi ocho mil millones de veces al mes para buscar lo que ven.

Pero al combinar Lens con búsqueda múltiple, los usuarios podrán tomar una foto de un artículo y luego usar la frase «cerca de mí» para encontrarlo cerca. Google dice que esta «nueva forma de búsqueda ayudará a los usuarios a encontrar y conectarse con negocios locales». La «búsqueda múltiple cerca de mí» comenzará a implementarse en inglés en los EE. UU. a finales de este otoño.

Compras en la Búsqueda de Google cuando se utiliza con la función de búsqueda múltiple. (Imagen: Google)

“Esto es posible gracias a una comprensión profunda de los lugares locales y el inventario de productos. informado por los millones de imágenes y reseñas en la web”, dijo Raghavan con respecto a la búsqueda múltiple y Lens.

Google está mejorando cómo se mostrarán las traducciones sobre una imagen. Según la compañía, las personas usan Google para traducir texto en imágenes más de mil millones de veces al mes, en más de 100 idiomas. Con la nueva función, Google podrá «combinar texto traducido en imágenes complejas, para que se vea y se sienta mucho más natural». Por lo tanto, el texto traducido se verá más uniforme y como parte de la imagen original, en lugar de que el texto traducido se destaque. Según Google, está utilizando «redes antagónicas generativas (también conocidas como modelos GAN), que es lo que ayuda a impulsar la tecnología detrás de Magic Eraser en Pixel», para garantizar esta experiencia. Esta función se implementará más adelante este año.

También está realizando mejoras en su aplicación iOS, donde los usuarios podrán acceder a accesos directos justo debajo de la barra de búsqueda. Esto ayudará a los usuarios a comprar usando sus capturas de pantalla, traducir cualquier texto con su cámara, encontrar una canción y más.

La Búsqueda de Google obtiene una gran cantidad de nuevas funciones, más enfoque en las imágenes Resultados de alimentos en la Búsqueda de Google renovada.

Los resultados de la Búsqueda de Google también se enriquecerán visualmente cuando los usuarios busquen información sobre un lugar o un tema. En el ejemplo que mostró Google, al buscar una ciudad en México, los resultados también muestran videos, imágenes y otra información sobre el lugar en cuestión, todo en el primer conjunto de resultados. Google dice que esto asegurará que un usuario no tenga que abrir varias pestañas cuando intente obtener más información sobre un lugar o un tema.

En el próximo mes, también proporcionará información más relevante, incluso cuando un usuario comience a escribir una pregunta. Google proporcionará opciones de «palabras clave o temas para ayudar» a los usuarios a elaborar sus preguntas. También mostrará contenido de creadores en la web abierta para algunos de estos temas, como ciudades, etc., junto con consejos de viaje, etc. eso es texto, imágenes o video”, se mostrará, señala la publicación del blog de la compañía. La nueva función se implementará en los próximos meses.

Cuando se trata de buscar comida, y esto podría ser un plato en particular o un artículo en un restaurante, Google mostrará resultados visualmente más ricos, incluidas fotos del plato en cuestión. También está ampliando la “cobertura de los menús digitales y haciéndolos más ricos visualmente y confiables”.

Según la compañía, está combinando «información de menú proporcionada por personas y comerciantes, y que se encuentra en sitios web de restaurantes que usan estándares abiertos para compartir datos» y confía en sus «tecnologías de comprensión de imagen y lenguaje, incluido el Modelo Unificado Multitarea» para impulsar estos nuevos resultados.

“Estos menús mostrarán los platos más populares y mencionarán de manera útil diferentes opciones dietéticas, comenzando con vegetariano y vegano”, dijo Google en una publicación de blog.

También modificará la forma en que aparecen los resultados de compras en la Búsqueda, haciéndolos más visuales junto con los enlaces, y permitiéndoles comprar para obtener un «aspecto completo». Los resultados de la búsqueda también admitirán la compra en 3D de zapatillas de deporte, donde los usuarios podrán ver estos artículos en particular en una vista en 3D.

mapas de Google

Google Maps también está obteniendo algunas funciones nuevas que brindarán más información visual, aunque la mayoría de estas se limitarán a ciudades seleccionadas. Por un lado, los usuarios podrán verificar el ‘ambiente del vecindario’, lo que significa averiguar los lugares para comer, los lugares para visitar, etc., en una localidad en particular.

Esto atraerá a los turistas que podrán utilizar la información para conocer mejor un distrito. Google dice que está utilizando «IA con conocimiento local de los usuarios de Google Maps» para brindar esta información. El ambiente de vecindario comenzará a implementarse globalmente en los próximos meses en Android e iOS.

También está ampliando la función de vista inmersiva para permitir a los usuarios ver 250 vistas aéreas fotorrealistas de puntos de referencia mundiales que abarcan todo, desde la Torre de Tokio hasta la Acrópolis. De acuerdo con la publicación del blog de Google, utiliza «modelos predictivos» y así es como la vista inmersiva aprende automáticamente las tendencias históricas de un lugar. La vista inmersiva se implementará en los próximos meses en Los Ángeles, Londres, Nueva York, San Francisco y Tokio en Android e iOS.

Los usuarios también podrán ver información útil con la función Live View. La función de búsqueda con Live View ayuda a los usuarios a encontrar un lugar a su alrededor, por ejemplo, un mercado o una tienda mientras caminan. Search with Live View estará disponible en Londres, Los Ángeles, Nueva York, San Francisco, París y Tokio en los próximos meses en Android e iOS.

También está expandiendo su función de enrutamiento ecológico, que se lanzó anteriormente en los EE. UU., Canadá y Europa, a desarrolladores externos a través de Google Maps Platform. Google espera que las empresas de otras industrias, como la entrega o los servicios de viajes compartidos, tengan la opción de habilitar rutas ecológicas en sus aplicaciones y medir el consumo de combustible.



Fuente

Written by Redacción NM

Thirsty for News

MJF listo para seguir los pasos de The Rock

TMI!  Hailey Baldwin Bieber habló con franqueza sobre su vida sexual con su esposo de cuatro años, el dos veces ganador del Grammy Justin Bieber, revelando que prefieren hacer el amor por las noches (en la foto el 2 de julio)

Hailey Bieber habla sobre la vida sexual y los tríos con su esposo Justin Bieber