Non c’è alcun dubbio: tra i recenti annunci di Apple su tutti spicca il visore Vision Pro, un concentrato di tecnologia destinato, secondo quanto afferma l’azienda di Cupertino, a cambiare l’idea che abbiamo avuto sino ad oggi del computing. Si tratta infatti di un dispositivo che crea una sorta di enorme schermo per le app, superando i confini di un display tradizionale, e che consente agli utenti di interagire con i contenuti digitali in un modo che sembra collocarli fisicamente nello spazio. Proprio per questo Apple lo definisce uno spatial computer.

Vision Pro introduce poi un’interfaccia utente completamente tridimensionale controllata dagli input più naturali e intuitivi possibili: gli occhi, le mani e la voce.

Rilevare lo stato mentale

Questo è reso possibile dalla presenza di una serie di sensori che sfruttano le neurotecnologie, ovvero sono in grado di rilevare segnali neurologici per trasformarli in comandi. Tuttavia, secondo quando afferma in un tweet Sterling Crispin, che, come dimostrano diverse sue pubblicazioni, ha lavorato in Apple proprio allo sviluppo di tali tecnologie, le capacità di Vision Pro potrebbero andare ben oltre quelle presentate. Infatti, sostiene Crispin, riuscirebbero addirittura a prevedere le intenzioni dell’utente. Questo perché in fase di sviluppo di Vision Pro sono stati creati sensori in grado di rilevare lo stato mentale degli utenti sulla base dei dati provenienti dal loro corpo e dal loro cervello durante le esperienze immersive. Quindi, quando un utente sta vivendo un’esperienza di realtà mista o di realtà virtuale, modelli di intelligenza artificiale cercano di prevedere se è curioso, se vaga con la mente, se è spaventato, se presta attenzione, se ricorda un’esperienza passata o qualche altro stato cognitivo. Queste indicazioni possono essere dedotte attraverso misurazioni come il tracciamento degli occhi, l’attività elettrica del cervello, il battito cardiaco, i ritmi, l’attività muscolare, la densità del sangue nel cervello, la pressione sanguigna o la conduttanza cutanea.

Prevedere le intenzioni

Crispin afferma che per riuscire a ottenere previsioni specifiche sono stati adottate numerose tecnologie, che hanno portato a diversi risultati. Uno di quelli più interessanti è stato di prevedere che un utente avrebbe cliccato su qualcosa prima che lo facesse davvero. Questo lo si è ottenuto analizzando la pupilla oculare. Infatti, la pupilla ha una reazione prima di fare clic, perché ci si aspetta che accada qualcosa dopo il clic stesso. Così, monitorando il comportamento oculare, si può avere un biofeedback dal cervello dell’utente e ciò permette di ridisegnare l’interfaccia in tempo reale per creare una situazione adatta a fornire una risposta in linea con le intenzioni dell’utente stesso.

Ambienti immersivi adattivi

Un altro espediente usato per individuare lo stato cognitivo durante lo sviluppo di Vision Pro è consistito nel far apparire rapidamente immagini o suoni all’utente in modo che non potessero essere percepiti, per poi misurarne la reazione.

Un’ulteriore tecnologia ha consentito di applicare l’apprendimento automatico ai segnali provenienti dal corpo e dal cervello per prevedere quanto si è concentrati o rilassati o quanto si sta imparando. I risultati ottenuti sono poi stati usati per modificare gli ambienti virtuali al fine di migliorare tali stati. In pratica si sono stati realizzati ambienti immersivi adattivi che aiutano a imparare, lavorare o rilassarsi cambiando ciò che si vede e si sente in sottofondo.

Solo un passo avanti verso la VR

C’era molta attesa attorno al lancio di Vision Pro per scoprire cosa Apple sarebbe riuscita a proporre di innovativo. Ora che Vision Pro è stato svelato c’è chi dice che è un visore come mai si era visto prima e chi invece sostiene che non è altro che un aggiornamento di quanto già proposto da altri.

Crispin afferma che è un passo avanti sulla strada della VR. Tuttavia, conclude, bisognerà attendere almeno la fine di questo decennio perché l’industria si adatti completamente alla grande visione di questa tecnologia”.