Rayban e Meta stanno facendo un lavoro incredibile con gli occhiali smart, spremendo l’hardware al limite delle sue possibilità con continui aggiornamenti che non risolvono solo eventuali bug ma aggiungono anche tantissime funzioni.
Con l’arrivo di Meta IA in Europa, negli ultimi mesi, per gli utenti italiani ed europei si sono sbloccate una serie di possibilità che prima erano prerogativa degli utenti americani. A memoria non ricordiamo un prodotto recente che viene così curato e aggiornato di frequente, e per fortuna gli sforzi di Meta e Rayban sono ripagati dal successo che gli occhiali stanno avendo in tutto il mondo.
Rayban ne sta vendendo milioni.
La traduzione in tempo reale rende le lingue straniere accessibili a tutti
La novità più grande per noi italiani, che arriva non solo con il nuovo firmware ma anche con la nuova app è la funzione “traduzione dal vivo” che era disponibile in Accesso Anticipato (Early Access) solo in alcuni paesi selezionati.
Meta ha reso ora disponibile la traduzione dal vivo in tutti i mercati, e dopo averla provata dobbiamo dire che funziona alla perfezione.


Al momento le lingue supportate sono inglese, spagnolo e francese e non serve avere una connessione attiva, perché il pacchetto con la lingua viene scaricato in locale e caricato sia sugli occhiali sia all’interno dell’app.
Questo vuol dire che quando una persona che non ha troppa dimestichezza con una lingua straniera dirà ai suoi Rayban “Hey Meta, avvia la traduzione dal vivo” sentirà con qualche secondo di ritardo nei suoi occhiali, che sono dotati di audio nelle astine, la traduzione vocale in italiano di quello che l’interlocutore sta dicendo.
Qualcuno potrebbe dire che si tratta comunque di una traduzione unidirezionale, e che senza parlare inglese poi non si riuscirà a farsi capire dall’interlocutore ma in realtà Meta ha pensato anche a questo: la trascrizione tradotta sarà visibile sul telefono e potrà essere mostrato alla persona con cui si sta parlando che vedrà quindi le parole in italiano da noi pronunciate e raccolte dal microfono degli occhiali tradotte nella sua lingua.
Non solo traduzione: ecco tutto quello che sta arrivando
Non sarà l’unica funzione che arriverà prima dell’estate per gli occhiali Rayban: presto sarà possibile inviare e ricevere messaggi diretti, foto, chiamate audio e videochiamate da Instagram, sempre più usata anche come app di messaggistica. Già si poteva fare con WhatsApp, Messenger e con le app di messaggistica di iPhone e Android. Meta sta anche iniziando ad espandere l’accesso alle app musicali tra cui Spotify, Amazon Music, Apple Music e Shazam al di fuori degli Stati Uniti e il Canada, dove queste feature sono già attive. Si potrà chiedere a Meta AI di riprodurre musica e ascoltare un brano specifico anche se in una prima fare sarà supportato solo l’inglese.
Si potrà anche chiedere a Meta AI informazioni sulla musica che si sta ascoltando alla “Shazam”: basterà dire “Hey Meta, qual è il nome di questa canzone?” o “Hey Meta, quando è uscito questo album?” per ottenere una risposta.
Inoltre a partire dalla prossima settimana sarà possibile anche in Italia chiedere a Meta AI informazioni sulle cose che si stanno guardando e ottenere risposte in tempo reale, una delle funzioni più apprezzate in assoluto. Si potrà guardare un monumento e chiedere di raccontare la storia, o farsi tradurre un menù.
Purtroppo quella che potrebbe essere la killer feature arriverà al momento solo negli Stati Uniti e in Canada: gli utenti potranno avere una conversazione naturale con Meta AI riguardo a quello che gli occhiali vedono in tempo reale. Meta spiega che durante la preparazione della cena, se ci si accorge che manca un ingrediente, si può chiedere all’AI di vedere se c’è un sostituto basato su ciò che vede nella tua dispensa o frigorifero o quale vino si abbina meglio al pasto. Come già ha fatto Amazon con Alexa+ si potrà parlare all’assistente senza dover dire “Hey Meta” ogni volta.