A dicembre del 2023, Meta aveva preannunciato alcuni aggiornamenti basati sull'IA in arrivo sulla seconda generazione di occhiali connessi realizzati insieme a EssilorLuxottica. Adesso, la "lettura" del mondo tramite l'intelligenza artificiale del colosso americano viene rilasciata in anteprima per chiunque voglia provarla a bordo dei Ray-Ban Meta 2.
In giro per una città si può chiedere all'IA che monumento è quello davanti a cui ci si trova, ottenendo spiegazioni testuali e vocali, diffuse tramite gli altoparlanti posti sulle estremità delle due aste degli occhiali smart. Bosworth ha mostrato un paio di immagini di esempio in cui l'IA spiega perché il Golden Gate Bridge di San Francisco è arancione e una breve descrizione della Coit Memorial Tower, sempre nella città statunitense. Le risposte dell'IA arrivano sia tramite voce sugli occhiali che nell'app di gestione dei Ray-Ban sullo smartphone. In quest'ultimo caso, bisogna scattare una foto dell'ambiente intorno e farla analizzare dal software. Mark Zuckerberg ha utilizzato Instagram per mostrare le nuove funzionalità tramite alcuni video girati nel Montana. In quel caso, i Ray-Ban hanno fornito descrizioni verbali della Big Sky Mountain e della storia del Roosevelt Arch, spiegando come si forma la neve. Meta ha presentato in anteprima le novità IA durante l'evento Connect dello scorso anno, come parte delle nuove funzionalità "multimodali" che consentono ai modelli dell'azienda di rispondere a domande in base al contesto e in tempo reale. "Per coloro che non hanno ancora accesso alla beta, potete aggiungervi alla lista d'attesa mentre lavoriamo per renderla disponibile a più persone" ha affermato Bosworth nel post.
Leggi l'articolo completo su ANSA.it