Table of Contents
Nouvelles fonctionnalités des lunettes connectées Meta Ray-Ban
Lors de l’événement Meta Connect, qui s’est déroulé la semaine dernière, Mark Zuckerberg a dévoilé les dernières innovations concernant les lunettes connectées Meta Ray-Ban. Présentées comme un « facteur de forme parfait pour l’IA », ces lunettes intègrent des améliorations centrées sur l’intelligence artificielle multimodale, permettant une interaction plus fluide et naturelle avec les utilisateurs, à l’image de ce que propose Google avec son système Gemini.
Traductions en temps réel
Les nouvelles lunettes Meta Ray-Ban seront dotées d’une fonction de traduction instantanée, capable de traduire des conversations en espagnol, français et italien presque en temps réel. Lors de la démonstration effectuée par Zuckerberg, on a pu voir une conversation entre lui et un locuteur espagnol, où chaque intervention était traduite en anglais en quelques secondes. Si les deux interlocuteurs ne portent pas les lunettes, il sera possible de synchroniser cette fonctionnalité via l’application compagnon Meta sur smartphone.
Nouveau outil de traduction AI pour Instagram Reels
Meta a également introduit un nouvel outil de traduction basé sur l’IA spécialement destiné à Instagram Reels. Cet outil permet de traduire automatiquement l’audio en anglais tout en synchronisant les mouvements des lèvres de l’orateur avec la traduction. Cette fonctionnalité est encore en phase de test, étant pour le moment limitée à l’espagnol sur Instagram et Facebook.
Fonctionnalité de mémoire des lunettes
Une autre innovation présentée lors de cette démonstration est la capacité des lunettes à « se souvenir » des informations importantes. Par exemple, un utilisateur peut se souvenir de l’endroit où il s’est garé simplement en disant : « Souviens-toi de l’endroit où je me suis garé ». Plus tard, il pourra demander aux lunettes « Hé Meta, où m’étais-je garé ? », et l’IA répondra en indiquant le numéro de la place de parking. Cette fonctionnalité pourrait également être utilisée pour retenir d’autres types d’informations, tels que des listes de courses ou des dates importantes.
Interaction en temps réel grâce à l’IA multimodale
Les lunettes connectées Meta Ray-Ban offrent désormais la possibilité d’interagir avec l’IA sans avoir à utiliser le prompt habituel. Les utilisateurs peuvent poser des questions en temps réel, même en mouvement. Une démonstration a illustré cette fonctionnalité lorsque quelqu’un a demandé, alors qu’il épluchait un avocat : « Que puis-je faire avec ça ? ». Ce type d’interaction élargit considérablement les possibilités d’utilisation de ces lunettes.
Partenariat avec Be My Eyes
Zuckerberg a également présenté une nouvelle fonctionnalité d’accessibilité pour les personnes malvoyantes, en partenariat avec Be My Eyes. Grâce à cette technologie, les utilisateurs peuvent transmettre ce qu’ils voient à un assistant à distance, qui peut fournir des explications détaillées. Cela pourrait s’avérer particulièrement utile pour lire des informations sur des panneaux ou lors de courses.
Enfin, Meta a annoncé quelques nouveaux modèles de lunettes, y compris une édition limitée avec des montures transparentes, ainsi que des lentilles de transition, permettant d’utiliser les lunettes à la fois comme lunettes de soleil et de vue. Les Meta Ray-Ban sont proposées à partir de 300 euros et se déclinent en neuf modèles différents.