Storie della Domenica – L’Intelligenza artificiale può rilevare i sentimenti umani da un viso?

30
informareonline-ekjam

Per la maggior parte dell’ultimo anno, gli studenti di una scuola secondaria per ragazze a Kowloon, Hong Kong, hanno frequentato le lezioni da casa. Ma a differenza della maggior parte dei bambini di tutto il mondo costretti a fare scuola da casa durante la pandemia, gli studenti di quella scuola venivano osservati mentre si sedevano alle loro scrivanie: occhi invisibili ai ragazzi esaminavano le espressioni facciali di ogni bambino attraverso le telecamere del computer.

Gli “occhi” appartengono a un software che chiamerò “Piccoli alberi,” un programma di intelligenza artificiale che afferma di poter leggere le emozioni dei bambini mentre imparano. L’obiettivo del programma è aiutare gli insegnanti a rendere l’apprendimento a distanza più interattivo e personalizzato, rispondendo alle reazioni di un singolo studente in tempo reale.

L’algoritmo “Piccoli alberi” funziona misurando i micromovimenti dei muscoli sui volti delle ragazze e tenta di identificare emozioni come felicità, tristezza, rabbia, sorpresa e paura. L’azienda afferma che gli algoritmi generano report dettagliati sullo stato emotivo di ogni studente per gli insegnanti e possono anche valutare la motivazione e la messa a fuoco. Avverte gli studenti di “rivelare la loro attenzione quando sono fuori pista”.

Il suo fondatore, un ex insegnante, dice che legge correttamente i sentimenti dei bambini circa l’85% delle volte. La popolarità del software è esplosa durante la pandemia, con il numero di scuole che utilizzano “Piccoli alberi a Hong Kong che sono passate da 34 a 83 nell’ultimo anno.

“Piccoli alberi” utilizza uno di una famiglia di nuovi algoritmi che i suoi creatori affermano possano riconoscere le emozioni umane e lo stato d’animo, come stanchezza, stress e ansia, attraverso l’analisi dell’espressione facciale, dei microgesti, del tracciamento oculare e dei toni della voce.

Centinaia di aziende in tutto il mondo stanno lavorando alla tecnologia di decodifica delle emozioni, nel tentativo di insegnare ai computer come prevedere il comportamento umano. I giganti tecnologici americani tra cui Amazon, Microsoft e Google offrono tutti un’analisi delle emozioni di base, mentre aziende più piccole come Affectiva e HireVue la personalizzano per settori specifici come l’automotive, gli inserzionisti e i recruiter.

Disney ha utilizzato il software per testare le reazioni dei volontari a una serie di suoi film tra cui Star Wars: Il risveglio della Forza e Zootopia. Aziende automobilistiche come Ford, BMW e Kia Motors vogliono utilizzarlo per valutare la vigilanza del conducente. Aziende di marketing come Millward Brown lo hanno testato per valutare come il pubblico risponde alle pubblicità per clienti come Coca-Cola e Intel.

Ed ha già iniziato a insinuarsi anche negli spazi pubblici. I sistemi di riconoscimento delle emozioni hanno ricevuto finanziamenti per l’uso da parte della polizia del Lincolnshire nel Regno Unito per identificare persone sospette, mentre una volta le telecamere sono state dispiegate nel Piccadilly Circus di Londra per analizzare le reazioni emotive delle persone alle pubblicità sui grandi cartelloni pubblicitari.

Mentre la tecnologia è stata pilotata per diversi anni, solo ora sta diventando più sofisticata. Telecamere abilitate al riconoscimento delle emozioni sono state installate nello Xinjiang, la regione cinese nord-occidentale dove si stima che 1 m di musulmani per lo più uiguri siano detenuti nei campi di detenzione.

Indipendentemente dall’applicazione, l’obiettivo è lo stesso: rendere gli esseri umani meno imperscrutabili e più facili da prevedere su larga scala. Con il personale d’ufficio e gli studenti che lavorano ed hanno lavorato da remoto durante il coronavirus, il business è in piena espansione: il settore del rilevamento delle emozioni dovrebbe quasi raddoppiare da $ 19,5 miliardi nel 2020 a $ 37,1 miliardi entro il 2026, secondo la società di ricerche di mercato Markets and Markets.

“Durante la pandemia, le aziende tecnologiche hanno lanciato il loro software di riconoscimento delle emozioni come un modo per monitorare lavoratori e studenti da remoto”, afferma Kate Crawford, co-fondatrice dell’AI Now Institute della New York University e studiosa delle implicazioni sociali dell’intelligenza artificiale. Strumenti simili [a “Piccoli Alberi”] sono stati commercializzati per fornire sorveglianza ai lavoratori remoti e sono già utilizzati in colloqui di lavoro a distanza. Il rilevamento delle emozioni avrà un impatto significativo sul mondo, dai luoghi di lavoro alle scuole ai luoghi pubblici.

Emozioni ‘universali’?

Mentre le imprese e i governi lanciano con entusiasmo il riconoscimento delle emozioni sul pubblico, i critici dimostrano un grave difetto con la tecnologia: per molti scienziati, ci sono poche prove che dimostrino che funziona con precisione. La ricerca su questi algoritmi suggerisce che mentre potrebbero essere in grado di decodificare le espressioni facciali, ciò non si traduce necessariamente in ciò che una persona sente o pensa veramente, o in ciò che prevede di fare dopo.

In una revisione commissionata dall’Association for Psychological Science nel 2019, a cinque illustri scienziati del settore è stato chiesto di esaminare le prove disponibili. In due anni, i recensori hanno esaminato più di 1.000 diversi studi sulla tecnologia di riconoscimento delle emozioni. Hanno scoperto che le emozioni si esprimono in un’enorme varietà di modi, il che rende difficile dedurre in modo affidabile come qualcuno si sente da un semplice set di movimenti facciali.

Gli autori hanno aggiunto che “non è stato possibile dedurre con fiducia la felicità da un sorriso, la rabbia da un cipiglio o la tristezza da un cipiglio, come gran parte della tecnologia attuale cerca di fare quando si applica quelli che si ritiene erroneamente siano i fatti scientifici”.

Quei “fatti scientifici” a cui Barrett e i suoi colleghi si riferiscono, che costituiscono la base di gran parte del software di riconoscimento delle emozioni, sono per lo più opera di un singolo uomo – lo psicologo americano Paul Ekman. Negli anni ’60, Ekman si recò in Papua Nuova Guinea per eseguire una serie di esperimenti per dimostrare la sua ipotesi che tutti gli esseri umani, indipendentemente dalla cultura, dal sesso, dalla geografia o dalle circostanze, mostravano lo stesso insieme di sei emozioni universali: paura, rabbia, gioia, tristezza, disgusto e sorpresa.

Questo quadro è stato utilizzato da diverse aziende per formare macchine nel linguaggio delle emozioni umane. Molti documenti di apprendimento automatico citano Ekman come se le sue categorie non fossero problematiche, spesso ignorando le questioni più complesse del contesto, del condizionamento, della relazionalità e della cultura.

Ekman, ora ha  87 anni ed è pensionato, difende ancora le sue ricerche ma sostiene che viene abusato da aziende che cercano di costruire prodotti commerciali. Al di là della misurazione, egli afferma che le aziende devono investire nella ricerca per dimostrare i legami tra espressioni e comportamenti. “La semplice misurazione del viso non ti dice se la tua interpretazione in quell’istanza è corretta o errata. La maggior parte di ciò che stavo vedendo era quella che chiamerei pseudoscienza: non stavano facendo la ricerca per mostrare che l’interpretazione delle misurazioni era corretta”, afferma.

Il problema di dedurre l’intenzione, secondo i critici della tecnologia, è che si traduce in un processo decisionale pieno di errori e di parte in settori altamente sensibili come l’istruzione, la polizia, le assunzioni e i controlli alle frontiere.

“Ogni volta che si desidera utilizzare un sistema automatizzato per eseguire il processo decisionale, sono necessari dati di formazione. E questo deve essere etichettato da qualcuno : qualcuno deve esprimere giudizi su cosa significhi ogni espressione facciale”, ha affermato Suresh Venkatasubramanian, uno scienziato di machine learning dell’Università dello Utah, specializzato in pregiudizi e discriminazioni.

Distorsione di riproduzione

Una delle aree in cui il pregiudizio in un sistema di IA emotiva può essere particolarmente alta è il reclutamento. Questi algoritmi tracciano le espressioni facciali delle persone in cerca di lavoro per trarre conclusioni sulla loro occupabilità, comprese le valutazioni della loro affidabilità, coscienziosità, intelligenza emotiva e capacità cognitive. Le aziende in questo spazio includono HireVue e Human con sede a Londra, il cui software analizza applicazioni basate su video. HireVue afferma di avere più di 700 clienti, inclusi grandi datori di lavoro come GE, Hilton e Delta, per il suo sistema basato sull’intelligenza artificiale. Unilever è tra i suoi clienti.

Tuttavia, i critici ritengono che l’utilizzo dell’intelligenza artificiale in questo modo possa perpetuare pregiudizi che già esistono nei dati utilizzati per addestrare questi algoritmi. Ad esempio, un team di giornalisti tedeschi, ha testato il software di intelligenza artificiale di Retorio, una start-up di assunzione di intelligenza artificiale a Monaco, e ha scoperto che l’algoritmo rispondeva in modo diverso allo stesso candidato in abiti diversi, come occhiali e velo. La società ha detto che questo è in parte dovuto al fatto che il sistema di valutazione basato su video era stato addestrato in base al modo in cui un gruppo scelto di reclutatori umani percepiva le persone in cerca di lavoro e le loro personalità; quindi l’algoritmo stava riproducendo i sentimenti intestinali e i pregiudizi innati di quegli esseri umani.

Il difetto fondamentale con gli output dei sistemi di tracciamento delle emozioni, secondo Venkatasubramanian, è che le macchine non possono regolare il loro comportamento come fanno gli esseri umani. “Quando interagisci con una persona e fai un errore sui loro sentimenti, puoi ricevere feedback e regolare molto rapidamente il tuo modello interno”, afferma. “Ma una macchina non può farlo, sta costruendo un modello da alcuni dati e scalandolo a migliaia di persone in più, non ha la possibilità di adattarsi nel momento se ha frainteso ciò che hai detto.”

Un’altra critica diffusa al riconoscimento delle emozioni da parte degli algoritmi è che non è universalmente applicabile; persone di culture diverse esprimono i loro sentimenti in modi unici.

Ekman stesso ha studiato le differenze culturali su come le emozioni possono essere espresse, mostrando in un esperimento seminale alla fine degli anni ’80 che ci sono differenze tra il modo in cui gli studenti americani e giapponesi reagiscono ai film violenti. Le differenze, ha scoperto, erano basate sul fatto che qualcuno della propria cultura fosse nella stessa stanza o meno. Negli studenti dell’Università della California a Berkeley, non c’era differenza nelle loro reazioni se ci fosse un altro americano nella stanza o meno, ma per i giapponesi, “c’era un’enorme differenza. Soprattutto se si fosse trattato di qualcuno in una posizione autorevole, avrebbero mostrato un insieme completamente diverso di espressioni”,  ha affermato Ekman.

Problema di privacy

Nonostante le preoccupazioni per l’attuale accuratezza e pregiudizi dell’IA emotiva, molti scienziati sono fiduciosi che la tecnologia migliorerà man mano che i dati utilizzati per addestrare gli algoritmi saranno più adatti alle applicazioni e quando le aziende iniziano a progettare soluzioni specifiche per paese.

Ekman, il padre fondatore dell’interpretazione delle emozioni, dice:. “Guardare le espressioni facciali di qualcuno è un’invasione della privacy, soprattutto se viene fatto a loro insaputa Credo fermamente che dovrebbero essere approvate leggi che vietino la registrazione dell’espressione facciale, per non parlare della sua interpretazione o misurazione, senza consenso informato.”

Nel frattempo, “Piccoli alberi “con sede a Hong Kong, utilizza facce cinesi per addestrare i suoi sistemi di sorveglianza degli studenti, per migliorare l’accuratezza locale.

di Nicola Dario

Print Friendly, PDF & Email