Apple domina los tiempos y las decisiones como nadie, aunque es innegable que tiene una posición especial en el mercado: es una marca aspiracional y eso es un intangible de peso. Porque a veces no es cuestión de golpear primero y sí de hacerlo bien, pero con otras cuestiones parece que simplemente Apple se está quedando atrás. Su Apple Intelligence llega tarde y después del furor de ChatGPT y del buen hacer de Google y su Gemini. Pero si hay algo donde el retraso es bestial, eso es Visual Intelligence.

Tu cara me suena, Visual Intelligence

La idea es la siguiente: coges tu iPhone, apuntas con la cámara a algo de la realidad que te interesa, por ejemplo el letrero de un restaurante o a un perro, y Visual Intelligence te saca de dudas devolviéndote información como las valoraciones, horario o reseñas del primero y la raza del segundo. Como explica la propia Apple, ayuda a usuarios y usuarias a aprender sobre objetos y lugares de su alrededor de forma más ágil y rápido que nunca con reconocimiento mediante IA.

Veamos, el punto de la agilidad y rapidez tiene sentido en tanto en cuanto se activará tocando el botón físico de control de cámara, pero Visual Intelligence no es algo nuevo: es simplemente el Google Lens de Apple. Así que en la práctica, si tienes un móvil Android,  llevas haciendo esto mismo desde 2017.

Google Lens es una tecnología plenamente consolidada tanto en posibilidades como en el ecosistema de Google, mainstream tanto en Android como en iOS. En este sentido, la lente de Google no solo sirve de puertas para afuera, sino que proporciona información extra también en contenido que vemos en la pantalla en apps de Google, como el navegador o su Fotos.

Llevo usando años Google Lens y me parece una función verdaderamente diferencial y bien integrada en la suite de Google. Además y aunque viene de serie en los dispositivos Android, la aplicación está disponible para los iPhone desde hace años. Cupertino llega siete años más tarde y lo que hace es asignarle un botón de acceso rápido. Que no es poco: es darle la importancia que tiene una función infrautilizada en general y ponerla en primer plano.

Portada | Apple

En Xataka Android | Google Lens a fondo: todo lo que puedes hacer con la app de reconocimiento de objetos de Google

Dejar respuesta

Please enter your comment!
Please enter your name here