Pour une entreprise qui souhaite devenir le graphe de connaissances de la planète entière, les services d'IA basés sur des images sont une évidence pour Google. Et pour les utilisateurs de Google Photos au cours des dernières années, vous savez que des progrès énormes ont été accomplis pour améliorer ces fonctionnalités. La reconnaissance faciale et des objets dans Google Photos peut être incroyable, et l’utilisation de ces fonctionnalités dans le monde réel peut apporter de nombreux avantages. Pouvoir proposer une caméra capable d'identifier rapidement les devantures de magasins et les panneaux de signalisation aux personnes malvoyantes est incroyable.
Google Lens va dans la bonne direction, mais il n'est clairement pas encore prêt pour une utilisation quotidienne.
En tant que propriétaire de Google Pixel, je suis connecté à Lens depuis six mois maintenant. Cette période bêta pour Lens a été un peu maladroite, ce qui est à prévoir. Je pointe Lens vers un livre inhabituel qu'un de mes amis avait écrit, et au lieu de me dire où je peux acheter ce livre pour moi-même, un extrait de texte de la couverture est identifié. Je demande à Lens de scanner une photo d'un marquis de cinéma, il n'a aucune idée de ce qu'il y a sur la photo et ne m'offre pas la possibilité de faire mais des billets pour le spectacle comme il était supposé. Je prends une photo de mon chien de berger Shetland, Lens l'identifie comme un Rough Collie. Très bien, il est presque impossible d'obtenir cette dernière photo sur une photo, mais Google Lens ne fait pas de manière fiable la plupart des choses qu'il prétend être en mesure de faire.
Au crédit de Google, Lens réussit très vite. J'adore pouvoir utiliser Lens pour la traduction linguistique en temps réel. Pointez Lens sur un menu écrit dans une autre langue, vous obtiendrez des traductions immédiates directement sur la page, comme si vous regardiez le menu en anglais tout le temps. Prenez une photo d'une carte de visite, Lens est prêt à ajouter cette information à mon carnet de contacts. J'ai utilisé des applications individuelles pour ces fonctionnalités qui fonctionnaient raisonnablement bien dans le passé, mais l'unification de ces fonctionnalités au même endroit où j'accède à toutes mes photos est excellente.
Je suis également conscient que l'objectif de Lens est encore très jeune. Il dit "Aperçu" directement dans l'application, après tout. Alors que les propriétaires de Pixel ont accès à cette fonctionnalité pendant six mois, la plupart des utilisateurs d’Android n’y ont accès que depuis un peu plus d’un mois. Et quand vous comprenez comment fonctionne ce logiciel, c'est un détail important. Les informations d'apprentissage automatique de Google reposent en grande partie sur des apports massifs de connaissances. Elles peuvent donc passer rapidement en revue toutes ces informations et utiliser des éléments correctement identifiés pour mieux identifier les éléments suivants. On pourrait soutenir que Google Lens vient tout juste de commencer son test bêta, maintenant que tout le monde y a accès.
En même temps, Lens a été annoncé il y a un an et je ne peux toujours pas l'indiquer avec certitude sur une fleur et ne pas me dire de quel type il s'agit. C'est une bonne chose d'avoir accès, mais j'espère sincèrement que Google sera capable de faire de cette fonctionnalité quelque chose de spécial dans un avenir pas trop éloigné.