Computadores estão mais precisos em reconhecer expressões faciais

Os cientistas resolveram enfrentar um desafio ainda mais complexo: programar computadores que sejam capazes de interpretar expressões faciais

Quão bem os computadores interagem com os seres humanos? Determinados computadores mandam muito bem no xadrez, que exige estratégia e lógica, ou então "Jeopardy!", no qual devem ser capazes de entender os indícios linguísticos dados por Alex Trebek (e apertar o botão antes de dar a resposta correta).

Entretanto, nos últimos anos os cientistas resolveram enfrentar um desafio ainda mais complexo: programar computadores que sejam capazes de interpretar expressões faciais.

As aplicações poderiam ser profundas. Os computadores poderiam auxiliar ou até mesmo substituir os detectores de mentiras. Eles poderiam ser instalados em áreas de fronteira e postos de segurança nos aeroportos. E também poderiam ajudar médicos a darem o diagnóstico correto.

Pesquisadores da Universidade da Califórnia, em San Diego, desenvolveram um software que não só é capaz de detectar se a pessoa está sentindo dor de verdade, ou se está mentindo, como também se mostrou muito mais preciso que os observadores humanos.

Embora outros cientistas já tenham refinado a capacidade dos computadores de identificar nuances em sorrisos e caretas, essa pode ser a primeira vez que um computador foi melhor que os seres humanos no reconhecimento das expressões de sua própria espécie.

"Não foi fácil alcançar um sucesso específico como esse", afirmou Matthew A. Turk, professor de ciência da computação na Universidade da Califórnia, em Santa Barbara. "Esse é um dos diversos exemplos recentes de como o setor está produzindo tecnologias úteis, ao invés de uma pesquisa que fica só no laboratório. Estamos começando a afetar o mundo real".

As pessoas geralmente se saem especialmente bem no uso de sinais não verbais, incluindo expressões faciais, para enganar os outros (daí a famosa cara de pau). Os seres humanos são ótimos em imitar a cara de dor, sabendo quando retorcer o rosto para dar a impressão de desconforto físico.

Além disso, estudos mostram que outras pessoas não são boas em detectar esse tipo de mentira.

Em um novo estudo, publicado na Current Biology, por pesquisadores de San Diego, da Universidade de Toronto e da Universidade do Estado de Nova York, em Buffalo, seres humanos e computadores observam uma série de vídeos de pessoas com dores reais ou fingindo sentir dor. O computador foi capaz de diferenciar o sofrimento real do fingimento com maior precisão, ao acompanhar movimentos sutis nos rostos dos sujeitos.

"Possuímos uma quantidade de evidências grande o bastante para demonstrar que os seres humanos prestam atenção nos sinais errados", afirmou Marian S. Bartlett, professora de pesquisa do Instituto de Computação Neural, em San Diego, e principal autora do estudo.

Para o estudo, os pesquisadores utilizaram um protocolo padrão para produzir a dor, com os participantes submergindo um braço em água fria por um minuto (a dor é imediata e genuína, mas não causa sequelas, nem se mantém). Os pesquisadores também pediram para os participantes colocarem o braço em água morna por uns instantes e fingirem a expressão de dor.

Os participantes assistiram filmes mudos de um minuto exibindo esses rostos, tentando identificar quem sentia dor, e quem estava só fingindo. Apenas cerca de metade das respostas estava correta, basicamente o mesmo que se tivesse chutado as respostas.

Em seguida, os pesquisadores deram uma hora de treinamento a um novo grupo de participantes. Eles assistiram vídeos e tiveram que adivinhar quem realmente estava com dor, sendo imediatamente informados dos acertos e erros. Em seguida, os participantes viam novos vídeos e precisavam novamente dizer quem estava dizendo a verdade: o índice de acertos aumentou um pouco, chegando a 55 por cento.

Depois disso, um computador foi submetido ao mesmo desafio. Usando um programa chamado pelos pesquisadores em San Diego de CERT (sigla em inglês para Ferramenta de Reconhecimento de Expressões por Computador). O programa mediou a presença, a ausência e a frequência de movimentos em 20 músculos faciais em cada um dos vídeos de um minuto com 1.800 quadros. O computador avaliou os mesmos 50 vídeos mostrados para os participantes humanos destreinados.

O computado aprendeu a identificar sinais tão pequenos e rápidos que escapavam aos olhos humanos. Embora os mesmos músculos tenham sido utilizados pelos mentirosos e por quem realmente estava com dor, o computador era capaz de identificar a velocidade, a suavidade e a duração das contrações musculares na direção da dor ou do fingimento.

Quando a pessoa estivesse realmente com dor, por exemplo, a duração da abertura da boca variava; quando a pessoa estava fingindo, o tempo de abertura era regular e consistente. Outras combinações de movimentos musculares ocorriam entre as sobrancelhas, com a compressão dos músculos orbitais ao redor dos olhos, e o aprofundamento dos sulcos de ambos os lados do nariz.

A precisão do computador: cerca de 85 por cento.

Jeffrey Cohn, professor de psicologia na Universidade de Pittsburgh, que também realiza pesquisas com computadores e expressões faciais, afirmou que o estudo com o CERT abordou "um problema importante, tanto do ponto de vista médico, quanto social", referindo-se à dificuldade de avaliar quem afirma estar sentindo dores. Porém, ele destacou que os participantes eram estudantes universitários, não especialistas em dor.

Bartlett afirmou que não estava dando a entender que os médicos são incapazes de avaliar a dor com precisão. Porém, "não devemos presumir que a percepção humana seja melhor do que é de fato", afirmou. "Existem sinais no comportamento não verbal que nosso sistema de percepção talvez não seja capaz de perceber, ou que não costumamos notar".

Turk afirmou que entre as limitações do estudo estava o fato de que todas as filmagens contavam com a mesma iluminação e visão frontal. "Ninguém estava de óculos ou sem fazer a barba há cinco dias", afirmou.

Bartlett e Cohn estão trabalhando para aplicar a tecnologia de detecção de expressões faciais em tratamentos de saúde. Bartlett está trabalhando em parceria com um hospital de San Diego para refinar um programa que irá detectar a intensidade da dor em crianças.

"As crianças ainda não sabem que podem pedir analgésicos, e os menores não conseguem se comunicar", afirmou. As crianças poderiam se sentar em frente à câmera do computador, afirmou, referindo-se ao projeto atual, e "o computador poderia avaliar as expressões faciais das crianças para estimar a dor que estivessem sentindo. O prognóstico é melhor para o paciente se a dor for tratada desde o princípio e da forma correta".

Cohn destacou que seus colegas têm trabalhado com o departamento de psiquiatria do Centro Médico da Universidade de Pittsburgh, concentrando-se em quadros de depressão profunda. Um dos projetos visa que o computado identifique padrões diferentes no som da voz e nas expressões faciais ao longo da terapia, como o objetivo de auxiliar o trabalho do terapeuta.

"Descobrimos que a depressão nos músculos faciais serve para manter os outros afastados, como um sinal de "me deixe em paz"", afirmou Cohn. Os sorrisos de lábios fechados exibidos por pessoas em depressão profunda, afirmou, davam sinais de desprezo ou aversão, mantendo os outros à distância.

"À medida que as pessoas se tornam menos deprimidas, seus rostos exibem mais tristeza", afirmou. Essas expressões revelam que o paciente está pedindo acolhimento e ajuda, acrescentou Cohn. Essa é uma das formas que o computador pode mostrar ao terapeuta que o paciente está ficando melhor.

Fonte: IG