Fino a ieri, gli occhiali smart di Meta erano un gadget elegante con funzioni limitate: musica, podcast, qualche comando vocale. Oggi, diventano qualcosa di molto più ambizioso. Durante l’evento Connect, l’azienda di Mark Zuckerberg ha annunciato che gli sviluppatori esterni potranno finalmente creare app AI per i suoi occhiali Ray-Ban Meta e Oakley.
Meta ha già stretto accordi con alcuni partner di un certo “peso”. Disney sta testando un’app per i suoi parchi. Una visitatrice, passeggiando per Disneyland, può chiedere all’AI informazioni sulle giostre che vede, e ricevere risposte in tempo reale.
Twitch sta lavorando a una funzione di live streaming direttamente dagli occhiali. E 18Birdies, app dedicata al golf, sta sviluppando un assistente che suggerisce bastoni e analizza le distanze durante il gioco. Tutto questo, senza bisogno di display. Le app funzionano anche sui modelli di prima generazione.
Le nuove app potranno sfruttare i sensori integrati, i microfoni e le capacità multimodali dell’intelligenza artificiale di Meta. Significa che gli occhiali non si limiteranno a “sentire” o “vedere”, ma potranno interpretare ciò che accade intorno e rispondere in modo contestuale.
Meta ha presentato il nuovo “Wearables Device Access Toolkit“, un set di strumenti pensato per chi vuole creare app per gli occhiali smart. La versione preliminare sarà disponibile a breve per un numero limitato di sviluppatori, mentre il lancio globale è previsto per il 2026. Non è ancora chiaro se il toolkit includerà l’accesso allo schermo dei nuovi Ray-Ban Meta Display, ma le potenzialità sono enormi.
Anche i vecchi modelli riceveranno le nuove funzioni
La novità più interessante, è che le app AI in arrivo funzioneranno anche sugli occhiali Ray-Ban Meta di prima generazione. Così chi ha acquistato gli occhiali già da tempo potrà accedere a nuove esperienze senza dover cambiare dispositivo.