Banner Edicion Impresa

Monitor Software


Google amplía AI Mode en Android con búsqueda visual integrada

Google amplía AI Mode en Android con búsqueda visual integrada
El corazón de esta evolución técnica está en Gemini

Publicación:09-04-2025
++--

La compañía ha anunciado la integración de las capacidades de Google Lens dentro de AI Mode.

 

Google ha dominado durante décadas la manera en que accedemos a la información, moldeando una forma de buscar que, hasta ahora, se ha apoyado principalmente en el texto. Sin embargo, el futuro que se dibuja en el horizonte apunta en una dirección diferente: la necesidad de entender el mundo tal y como lo vemos, procesando imágenes, palabras y matices de manera simultánea. Google, consciente de esta transición, está dando un nuevo paso para adaptar su propuesta a esta realidad emergente.

La compañía ha anunciado la integración de las capacidades de Google Lens dentro de AI Mode, el modo experimental de búsqueda basado en inteligencia artificial que está disponible en la app de Google y en la web para usuarios inscritos en Labs. Esta mejora permitirá a los usuarios no solo interactuar con texto, sino también analizar imágenes directamente dentro de las conversaciones, sin necesidad de cambiar de herramienta. Se trata de una evolución natural hacia una búsqueda más fluida y completa, en la que imágenes y texto coexisten como fuentes de información igual de importantes.

Pero, ¿qué significa realmente que AI Mode sea ahora multimodal? En esencia, supone que Google puede manejar simultáneamente distintos tipos de datos para generar respuestas más ricas y contextualizadas. Así, el usuario puede subir una imagen o capturarla con la cámara y recibir soluciones que combinan información visual y textual. Reconocer textos y traducirlos, resolver problemas de matemáticas fotografiados en una hoja, identificar objetos y sugerir productos similares para su compra son solo algunas de las posibilidades que se abren con esta nueva capacidad.

El corazón de esta evolución técnica está en Gemini, el modelo de lenguaje de Google, y en una estrategia de consulta paralela denominada «fan-out technique». Gracias a este método, al analizar una imagen, AI Mode genera múltiples consultas internas que enriquecen las respuestas ofrecidas. De este modo, un mismo objeto puede ser interpretado bajo distintos ángulos: su función, su disposición en un entorno, su relación con otros elementos, su disponibilidad en tiendas online, entre otros factores. El resultado, según Google, es una interacción mucho más matizada y relevante, muy lejos de las respuestas genéricas de los primeros sistemas de búsqueda basados en IA.

La expansión de AI Mode es también significativa. Inicialmente limitado a los usuarios de Google One AI Premium, el servicio ha empezado a llegar a millones de usuarios adicionales a través de la plataforma Labs en Estados Unidos. Aunque de momento la experiencia no es completamente fluida —requiere volver al home de la aplicación para iniciar nuevas búsquedas—, Google ya trabaja en mejorar la navegación con accesos directos integrados en la propia interfaz de AI Mode.

En perspectiva, este movimiento refuerza la posición de Google en un momento de intensa competencia. Con nuevos actores como Perplexity AI y los planes de búsqueda de OpenAI ganando protagonismo, la integración de Lens y Gemini en AI Mode busca mantener a Google en el centro del ecosistema de búsqueda, ofreciendo una experiencia más rica, ágil y visualmente integrada que la tradicional caja de texto.

Personalmente, veo en este paso una señal clara de que la búsqueda basada únicamente en palabras clave está viviendo su ocaso. La capacidad de interactuar con el contenido visual, de entender el entorno a partir de lo que vemos y no solo de lo que escribimos, abre una puerta fascinante hacia una nueva forma de explorar el conocimiento. La gran pregunta es si, como usuarios, estamos preparados para cambiar también nuestra manera de buscar.

 



« Especial »