Visual Intelligence

Apple Visual Intelligence: así es su propio Google Lens para reconocer el mundo real con inteligencia artificial

En su tradicional evento de septiembre, Apple dio a conocer las nuevas versiones de sus dispositivos más preciados por los usuarios. El iPhone 16, el Apple Watch Series 10 y los AirPods 4, entre otros. Además, dedicó tiempo a Apple Intelligence, su inteligencia artificial que se integrará en todos sus dispositivos en los próximos meses. Y aunque ya sabemos mucho de lo que puede hacer, Apple tenía un as bajo la manga: Visual Intelligence.

Su traducción literal es inteligencia visual. Se trata de una función que podrás utilizar en tu iPhone cuando hayas instalado iOS 18. O, al menos, eso será así en los países anglosajones: Estados Unidos, Reino Unido, Australia, Nueva Zelanda y Canadá. En Europa, tendremos que esperar, ya que las regulaciones europeas respecto a la inteligencia artificial, y las rencillas entre Apple y la Comisión Europea, han provocado que algunas novedades de iOS 18 se retrasen en los dispositivos europeos. En especial las que implican el uso de Apple Intelligence, la IA de Apple.

Visual Intelligence, o inteligencia visual, permite hacer una búsqueda en internet o en el contenido que tengas en tu iPhone empleando la IA de Apple y la cámara y procesador de tu teléfono inteligente. Si estás familiarizado con los teléfonos Pixel de Google y con la app de búsqueda de Google, te sonará esta función porque se parece mucho a Google Lens. O a una función similar, también de Google, llamada Circle to Search, en castellano, rodea para buscar.

Visual Intelligence conecta tu iPhone con el mundo

Desde que los primeros homínidos dibujaron en las paredes de las cuevas, el ser humano ha intentado reflejar, copiar o dejar constancia del mundo que lo rodea. En la actualidad, resulta más fácil. Puedes escribir notas con teclado o con tu voz, grabar notas de voz, hacer un video, sacar una fotografía… Y la inteligencia artificial permite que la tecnología que usamos a diario entienda y reconozca el mundo físico. El resultado, traducir la carta del restaurante, crear un aviso en tu calendario con la información obtenida por el cartel de un concierto o saber de qué raza de un perro simplemente enfocándolo con la cámara de tu iPhone.

Google lleva ventaja en lo que se refiere al uso de inteligencia artificial en algunas de sus aplicaciones, productos y servicios. Pero esto no impide que Apple incorpore características nuevas o similares a las de la competencia. Apple Intelligence promete facilitarnos la vida personal y profesional en los dispositivos de su marca: iPhone, iPad y Mac, especialmente. Y en el caso que nos ocupa, Visual Intelligence conectará tu iPhone con el mundo que ve a través de su cámara.

Apple Intelligence - Visual Intelligence

Visual Intelligence es una característica más de Apple Intelligence. Y estará disponible en iOS 18. En Europa, tal vez tengamos que esperar a iOS 18.1 o 18.2. Apple ha querido empezar con los usuarios angloparlantes y dejar los demás países para más adelante. Además, al parecer requerirá el uso de iPhone 16 o iPhone 16 Pro, anunciados este mes de septiembre y a la venta desde el día 20 del mismo mes. El motivo es que estos nuevos iPhone tienen un procesador más potente, el A18, para ejecutar parte de Apple Intelligence en local. E incorporan un botón lateral llamado control de cámara, Camera Control en inglés, para activar la cámara del iPhone. 

Apunta con tu cámara y deja que la IA haga el resto

No hay una fecha concreta de implementación de Visual Intelligence o inteligencia visual. Apple dijo “a finales de año”. Pero cuando esté disponible, funcionará simplemente tocando el botón control de cámara, incorporado a los iPhone en su versión 16. El botón activa la aplicación Cámara del iPhone. Así, enfocando o apuntando con la cámara a un objeto, persona o animal, Apple Intelligence, a través de esa función, detectará el contenido que vea y lo incorporará. El texto de un documento, la información de un letrero…

El anuncio de Visual Intelligence fue muy breve y todavía hay poca información al respecto, de manera que no es posible entrar en detalles. Apple dice que para ejecutar esta función combina Apple Intelligence en local con sus propios servidores. Pero en ningún momento almacenará imágenes ni información captada por la cámara. También está por ver si la función se activará automáticamente o si podremos pedir su activación tocando algo en la pantalla. Por ahora tenemos como referencia Google Lens, la herramienta de Google, que tuvo app propia, pero que en la actualidad viene integrada con otras aplicaciones. 

Empleando reconocimiento visual, Google Lens es capaz de reconocer texto, objetos e imágenes y realizar una búsqueda online. Por ejemplo, la portada de un libro, la ficha técnica de un automóvil, la antigüedad de un objeto decorativo o información útil sobre un animal. En el caso de Apple, Visual Intelligence se integrará con otras aplicaciones para guardar la información captada por la cámara. Traducir un texto, crear un recordatorio, buscar algo con Siri…

RELACIONADOS

Nazareth Castellanos - Cómo funciona nuestro cerebro

¿Conoces cómo funciona tu cerebro?

Conocer cómo funciona nuestro cerebro es fundamental para entender y mejorar nuestras relaciones sociales. La neurociencia revela que la interacción humana va más allá...