La firma Google llevó a cabo su evento Search On 2022 en el que presentó una serie de innovaciones en sus servicios.
El Universal.- La firma Google llevó a cabo su evento Search On 2022 en el que presentó una serie de innovaciones en sus servicios.
A lo largo de los años, las personas en todo el mundo han utilizado el Buscador de Google para encontrar respuestas a preguntas de diferente índole; con el tiempo estos cuestionamientos han cambiado y Google también.
Dentro del marco de Search On 2022, el evento en el que se presentan todas las novedades sobre el producto que dio vida a la compañía, la firma introdujo nuevas funciones que se acoplan a la forma natural en que buscan las personas.
“En el Search On 2022, compartimos cómo nos estamos acercando a crear experiencias de búsqueda que reflejen cómo nosotros, damos sentido a nuestro entorno, gracias a los avances en el aprendizaje automático”, indicó la firma en un comunicado.
Multisearch
Con Lens, puedes explorar y buscar sobre el mundo que te rodea usando tu cámara o una captura de pantalla.
La gente ahora lo usa para responder más de 8 mil millones de preguntas cada mes. Asimismo, Google ha seguido haciendo que la búsqueda visual sea aún más natural con la introducción de Multisearch, un hito importante en la manera en que puedes buscar información.
Con multisearch, puedes tomar una foto o usar una captura de pantalla y luego agregar texto, de manera similar a la forma natural en que puedes señalar algo y hacer una pregunta al respecto.
Multisearch está disponible en inglés en todo el mundo, y llegará a más de 70 idiomas en los próximos meses.
Actualización de traducción de Lens
“Uno de los aspectos más poderosos de la comprensión visual de nuestra herramienta es su capacidad para romper las barreras del idioma. Con Lens, ya hemos ido más allá de traducir texto a traducir imágenes. De hecho, cada mes, la gente usa Google para traducir texto en imágenes más de mil millones de veces, en más de 100 idiomas”, señaló la tecnológica.
Con los grandes avances en el aprendizaje automático, ahora Google puede combinar texto traducido en imágenes complejas, con lo que se ve y se siente mucho más natural. Incluso ha optimizado sus modelos de aprendizaje automático para hacer todo esto en 100 milisegundos.
Esto utiliza redes adversarias generativas (también conocidas como modelos GAN), que es lo que ayuda a habilitar la tecnología detrás del Magic Eraser en Pixel. Esta experiencia mejorada se lanzará a finales de este año.
Con la nueva actualización de traducción de Lens, puedes apuntar tu cámara a un póster en otro idioma, ahora verás texto traducido superpuesto de manera realista en las imágenes de fondo.
“Y ahora, estamos colocando algunas de nuestras herramientas más útiles directamente al alcance de tu mano, comenzando con la aplicación de Google para iOS. A partir de hoy, verás accesos directos justo debajo de la barra de búsqueda para comprar desde capturas de pantalla, traducir texto con tu cámara, tararear para buscar y más” indicó Google.
Nuevas formas de explorar la información
A medida que se redefine la forma en que las personas buscan e interactúan con la información, Google está trabajando para que puedas hacer preguntas con menos palabras, o incluso sin ellas.
Una parte importante de ello es poder encontrar rápidamente los resultados que estás buscando. Así que en los próximos meses, Google implementará una forma aún más rápida de encontrar lo que necesitas.
“Cuando comiences a escribir una pregunta, podemos proporcionarte contenido relevante de inmediato, incluso antes de que hayas terminado de escribir”.
Pero a veces no sabes qué ángulo quieres explorar hasta que lo ves. Así que Google está agregando nuevas experiencias de búsqueda para ayudarte a encontrar de forma más natural los temas que te interesan cuando acudes a Google.
Neighborhood Vibe
Con Neighborhood Vibe, podrás elegir la zona y ver cómo los puntos más populares cobran vida gracias a las fotos e información que la comunidad reseña directamente en Google Maps.
Para lograr esto, Google combinó la IA con los conocimientos locales de los usuarios, quienes aportan cada día más de 20 millones de opiniones, fotos y videos al mapa. En los próximos meses empezarás a ver esta experiencia visual en todo el mundo en Android e iOS.
Vistas aéreas de lugares emblemáticos
Observa 250 vistas aéreas fotorrealistas de lugares emblemáticos del mundo, como la Torre de Tokio y la Acrópolis, directamente desde Google Maps. Este lanzamiento marca un paso importante en la transformación hacia un mapa más inmersivo. Esta función estará disponible a nivel mundial el 28 de septiembre.
Con la vista inmersiva podrás planificar con anticipación y obtener un conocimiento profundo de una ciudad, esta función combina impresionantes vistas aéreas con el clima, tráfico y las multitudes en un día y hora determinados. Las primeras ciudades disponibles serán Los Ángeles, Londres, Nueva York, San Francisco y Tokio en los próximos meses.
Expansión de rutas ecológicas a desarrolladores
Los desarrolladores de empresas de todos los tamaños tendrán la opción de habilitar rutas ecológicas en sus aplicaciones, e incluso seleccionar el tipo de motor para obtener la mejor ruta y las estimaciones más precisas de combustible o eficiencia energética.
Se lanzará en versión preliminar a finales de este año en todos los lugares donde estén disponibles las rutas ecológicas en Google Maps (actualmente en los EE. UU., Canadá y algunos países de Europa).
Estas nuevas formas de explorar la información estarán disponibles en los próximos meses, para ayudarte a donde sea que te lleve tu curiosidad. Esperamos que te entusiasme buscar fuera de la caja, y sigamos construyendo el futuro de la Búsqueda juntos.