Descubra a estupidez do reconhecimento de emoções de IA com este pequeno jogo de navegador

12

As empresas de tecnologia não querem apenas identificá-lo usando o reconhecimento facial – elas também querem ler suas emoções com a ajuda da IA. Para muitos cientistas, porém, as afirmações sobre a capacidade dos computadores de compreender as emoções são fundamentalmente falho, e um pequeno jogo da web no navegador desenvolvido por pesquisadores da Universidade de Cambridge tem como objetivo mostrar por quê.

Vá para emojify.info, e você pode ver como suas emoções são “lidas” por seu computador através de sua webcam. O jogo irá desafiá-lo a produzir seis emoções diferentes (felicidade, tristeza, medo, surpresa, nojo e raiva), que a IA tentará identificar. No entanto, você provavelmente descobrirá que as leituras do software estão longe de ser precisas, muitas vezes interpretando até mesmo expressões exageradas como "neutras". E mesmo quando você produzir um sorriso que convença seu computador de que está feliz, você saberá que o estava fingindo.

Este é o objetivo do site, diz a criadora Alexa Hagerty, pesquisadora do Centro para o Futuro da Inteligência e do Centro para o Estudo de Risco Existencial da Universidade de Cambridge Leverhulme: demonstrar que a premissa básica subjacente à tecnologia de reconhecimento de emoções os movimentos faciais estão intrinsecamente ligados a mudanças de sentimento, é falho.

“A premissa dessas tecnologias é que nossos rostos e sentimentos internos estão correlacionados de uma forma muito previsível”, diz Hagerty The Verge. “Se eu sorrir, fico feliz. Se eu franzo a testa, estou com raiva. Mas a APA fez isso grande revisão das evidências em 2019, e eles descobriram que o espaço emocional das pessoas não pode ser prontamente inferido a partir de seus movimentos faciais. ” No jogo, diz Hagerty, “você tem a chance de mover seu rosto rapidamente para personificar seis emoções diferentes, mas o fato é que você não sentiu interiormente seis coisas diferentes, uma após a outra em sequência”.

Um segundo minijogo no site mostra esse ponto, pedindo aos usuários que identifiquem a diferença entre piscar e piscar – algo que as máquinas não podem fazer. “Você pode fechar os olhos e pode ser uma ação involuntária ou um gesto significativo”, diz Hagerty.

Apesar desses problemas, a tecnologia de reconhecimento de emoções está ganhando força rapidamente, com as empresas prometendo que tais sistemas podem ser usados ​​para examinar candidatos a empregos (dando-lhes um “pontuação de empregabilidade"), local aspirantes a terroristas, ou avaliar se os motoristas comerciais são sonolento ou sonolento. (A Amazon está até implantando tecnologia similar em suas próprias vans.)

Claro, os seres humanos também cometem erros quando lemos as emoções no rosto das pessoas, mas entregar esse trabalho às máquinas traz desvantagens específicas. Por um lado, as máquinas não podem ler outras pistas sociais como os humanos podem (como com a dicotomia piscar / piscar). As máquinas também costumam tomar decisões automatizadas que os humanos não podem questionar e podem conduzir vigilância em grande escala sem o nosso conhecimento. Além disso, como acontece com os sistemas de reconhecimento facial, a IA de detecção de emoções é muitas vezes racialmente preconceituoso, avaliando com mais frequência os rostos de pessoas negras como mostrando emoções negativas, por exemplo. Todos esses fatores tornam a detecção de emoções de IA muito mais problemática do que a capacidade dos humanos de ler os sentimentos dos outros.

“Os perigos são múltiplos”, diz Hagerty. “Com a falha de comunicação humana, temos muitas opções para corrigir isso. Mas quando você está automatizando algo ou a leitura é feita sem o seu conhecimento ou extensão, essas opções acabam. ”

Fonte: The Verge