Si chiama intelligenza artificiale emotiva ed è un tipo di IA che ora può rilevare lo stato emotivo di un utente umano. Ma è veramente in grado di farlo? E, soprattutto, dovrebbe? La maggior parte dell’IA emozionale si basa sulla teoria delle “emozioni di base”, ovvero ciò che le persone provano universalmente attraverso sei stati emotivi interni (felicità, sorpresa, paura, disgusto, rabbia e tristezza) che vengono espressi attraverso l’espressione facciale, il linguaggio del corpo e l’intonazione della voce.

Nel mondo post-pandemico e del lavoro a distanza, alcuni venditori stanno faticando a “leggere” le persone a cui vendono prodotti tramite videochiamate. Non sarebbe bello che il software trasmettesse la reazione emotiva all’altro capo della chiamata? Aziende come Uniphore e Sybill stanno lavorando proprio su questo. L’applicazione Q for Sales di Uniphore, ad esempio, elabora segnali non verbali e il linguaggio del corpo attraverso il video e l’intonazione della voce e altri dati tramite l’audio, con il risultato di una “scheda di valutazione delle emozioni”.

Creare connessioni umane attraverso i computer

Lo stesso Zoom sta flirtando con questa idea. L’azienda ha introdotto ad aprile una versione di prova di Zoom IQ for Sales, che genera per gli host delle riunioni trascrizioni delle chiamate Zoom e “analisi del sentimento”, non in tempo reale ma dopo la riunione. E le critiche non sono tardate. Mentre alcune persone amano l’idea di ricevere l’aiuto dell’IA per leggere le emozioni, altre odiano l’idea di vedere i propri stati emotivi giudicati e trasmessi dalle macchine. La questione se debbano essere utilizzati strumenti di intelligenza artificiale per il rilevamento delle emozioni è importante e molte industrie e il pubblico in generale devono confrontare con essa.

Il processo di assunzione e reclutamento potrebbe trarre vantaggio dall’intelligenza artificiale emozionale, consentendo agli intervistatori di comprendere la veridicità, la sincerità e la motivazione dei candidati. I team delle risorse umane e i responsabili delle assunzioni apprezzerebbero la classifica dei candidati in base alla loro disponibilità a imparare e all’entusiasmo per l’ingresso in un’azienda. Anche in ambito governativo e nelle forze dell’ordine crescono le richieste di intelligenza artificiale per il rilevamento delle emozioni, ad esempio come uno strumento per gli interrogatori.

La cosiddetta Emotion AI potrebbe avere applicazioni importanti anche nel servizio clienti, nella valutazione della pubblicità e persino nella guida sicura. È solo questione di tempo prima che l’intelligenza artificiale emotiva si manifesti nelle applicazioni aziendali quotidiane, trasmettendo ai dipendenti i sentimenti degli altri durante le chiamate e gli incontri di lavoro.

Perché l’IA delle emozioni fa arrabbiare le persone

Sfortunatamente, la “scienza” del rilevamento delle emozioni è ancora una specie di pseudoscienza. Il problema pratico con l’IA per il rilevamento delle emozioni, a volte chiamata “affective computing”, è semplice: le persone non sono così facili da leggere. Un sorriso è il risultato della felicità o dell’imbarazzo? Quel cipiglio deriva da un profondo sentimento interiore, o è ironico o scherzoso. Affidarsi all’IA per rilevare lo stato emotivo degli altri può facilmente portare a una falsa comprensione. Ese applicata a compiti consequenziali, come l’assunzione o l’applicazione della legge, l’IA può fare più male che bene.

deep-fake_-intelligenza-artificiale_5

È anche vero che le persone mascherano abitualmente il proprio stato emotivo, soprattutto negli incontri di lavoro. L’intelligenza artificiale è in grado di rilevare l’espressione facciale, ma non i pensieri e i sentimenti dietro di esse. Gli uomini d’affari sorridono, annuiscono perché è appropriato farlo nelle interazioni sociali, non perché stanno rivelando i loro veri sentimenti. Le persone potrebbero inoltre scavare in profondità dentro loro stesse, trovare la loro Meryl Streep interiore e fingere emozioni per ottenere il lavoro o mentire alle forze dell’ordine. In altre parole, la consapevolezza di essere “scrutinati” dall’IA emozionale crea un incentivo perverso a farsi gioco della tecnologia.

Ciò porta al più grande dilemma sull’IA delle emozioni: è etico usarla negli affari? Le persone vogliono che le loro emozioni vengano lette e giudicate dall’IA? In generale, le persone che partecipano, ad esempio, a una riunione di vendita, vogliono controllare le emozioni che trasmettono. Se sorrido e sembro eccitato e dico che sono felice ed entusiasta di un prodotto, servizio o iniziativa, voglio che il mio interlocutore creda alle mie parole e non che bypassi la mia comunicazione prevista e scopra i miei veri sentimenti senza il mio permesso. Man mano che ci avviciniamo a una comprensione più completa di come funziona l’IA emotiva, sembra sempre più una questione di privacy. Le persone hanno diritto alle emozioni private. Ed è per questo che a detta di molti Microsoft sta emergendo come leader nell’applicazione etica dell’IA emozionale.

La via tracciata da Microsoft

Microsoft, che ha sviluppato alcune tecnologie di rilevamento delle emozioni piuttosto avanzate, le ha successivamente terminate come parte di un rinnovamento delle sue politiche etiche di intelligenza artificiale. Il suo strumento principale, chiamato Azure Face, poteva anche stimare sesso, età e altri attributi. “Gli esperti all’interno e all’esterno dell’azienda hanno evidenziato la mancanza di consenso scientifico sulla definizione del termine emozioni, per non parlare delle crescenti preoccupazioni sulla privacy relative a questo tipo di funzionalità”, ha scritto Natasha Crampton, Chief Responsible AI Officer di Microsoft.

Microsoft continuerà a utilizzare la tecnologia di riconoscimento delle emozioni nella sua app per l’accessibilità denominata Seeing AI rivolta agli utenti ipovedenti. L’uso dell’IA per consentire ai non vedenti o alle persone con autismo di leggere meglio le emozioni e le reazioni degli altri, è un grande uso di questa tecnologia. Microsoft non è però l’unica organizzazione a guidare l’etica dell’IA emozionale.

L’AI Now Institute e la Brookings Institution sostengono il divieto di molti usi dell’IA per il rilevamento delle emozioni. E più di 25 organizzazioni hanno chiesto a Zoom di porre fine ai suoi piani per utilizzare il rilevamento delle emozioni nel software di videoconferenza dell’azienda. Tuttavia, alcune società di software stanno portando avanti questi strumenti e stanno trovando nuovi clienti.

Nella maggior parte dei casi, e per ora, l’uso degli strumenti di intelligenza artificiale per le emozioni può essere fuorviante, ma per lo più innocuo, a condizione che tutte le persone veramente coinvolte acconsentano al suo utilizzo. Ma man mano che la tecnologia migliorerà e la lettura del linguaggio del corpo e dell’interpretazione dei volti si avvicinerà alla lettura della mente e al rilevamento delle bugie, potrebbe avere serie implicazioni per le imprese, il governo e la società nella sua interezza. In generale, tutto questo fa parte di una nuova fase nell’evoluzione dell’IA e del nostro rapporto con la tecnologia. Mentre scopriamo che l’intelligenza artificiale può risolvere una miriade di problemi, scopriamo anche che può crearne di nuovi.