Apple a récemment lancé une nouvelle fonctionnalité appelée Visual Intelligence pour améliorer l’interaction des utilisateurs avec leurs iPhones.
Similaire à Google Lens, cette fonctionnalité permet aux utilisateurs de pointer la caméra de leur téléphone sur des objets du monde réel pour obtenir des informations à leur sujet.
Disponible sur l’iPhone 16 et l’iPhone 16 Pro, Visual Intelligence analyse les images prises par la caméra pour fournir des informations utiles sur les objets photographiés.
Apple prévoit également d’inclure cette fonctionnalité dans une future mise à jour logicielle pour l’iPhone 15 Pro.
Cette décision élargit les capacités des iPhones et les rend plus pratiques pour les utilisateurs.