L'IA emozionale per software aziendali? Potrebbe essere un grosso problema

L'IA emozionale potrebbe essere il futuro nel contesto aziendale? Ecco perché questa tecnologia ha dei grossi limiti che molti ignorano.

Dopo i primi test con l’integrazione dell’Intelligenza Artificiale, le aziende si stanno rivolgendo a questa tecnologia sempre più spesso affinché la stessa sia in grado di valutare le emozioni umane.

Stiamo parlando dell’IA emozionale, una branca tecnologica che, stando al rapporto Enterprise Saas Emerging Tech Research di PitchBook, è in forte ascesa. A livello pratico, le aziende stanno lavorando per integrare l’IA in contesti come l’assistenza ai clienti. A tal proposito, alla tecnologia viene richiesto di comprendere le emozioni umane per interagire in modo corretto con i clienti.

I più grandi provider cloud impegnati nel contesto IA offrono servizi che permetto agli sviluppatori di accedere alle funzioni di IA emotiva, come l’API Emotion dei servizi cognitivi di Microsoft Azure o il servizio Rekognition di Amazon Web Services. Il tutto dovrebbe permettere all’IA, attraverso microfoni e telecamere, di comprendere quale sentimento anima l’essere umano in quel preciso momento.

Il rapporto di PitchBook evidenzia come questo tipo di approccio potrebbe influenzare fortemente il mondo del lavoro, con esisti del tutto imprevedibili.

L’IA emozionale è (e probabilmente resterà) fallibile

Se i chatbot saranno in grado di empatizzare in moto automatico con gli esseri umani, ciò non significa che sia un bene.

L’IA emotiva è stata al centro dell’attenzione mondiale nel 2019, più precisamente nella Silicon Valley. In quel contesto, l’IA era ancora “acerba” rispetto alle tecnologie attuali, ma un team di ricercatori pubblicò proprio in quel periodo una serie di studi che portarono a una conclusione chiara: le emozioni umane non possono essere effettivamente determinate dai movimenti facciali.

Ciò significa che, a seconda del soggetto, questo potrebbe nascondere le sue intenzioni o persino modificarle di proposito, ingannando l’IA emozionale. Non solo: la raccolta di letture biometriche di questo tipo è già stata vietata in alcuni stati degli USA e potrebbe rientrare nel contesto di un ampiamento delle leggi europee sull’IA.

In conclusione, se in futuro un chatbot IA sarà in grado di “leggere” le emozioni umane, sarà comunque tutt’altro che infallibile. Questa tecnologia potrebbe diventare molto utile ma con margini di errore comunque notevoli.

Ti consigliamo anche

Link copiato negli appunti