Temas de Capa

Inteligência Artificial Emocional: Tanto de fascinante como de assustador

robot-s-hand-holding-an-artificial-intelligence-co-2021-12-09-15-29-49-utc

 

Quantas vezes já lhe aconteceu ser surpreendido com inúmeros anúncios de viagens de avião para Portugal, por exemplo, depois de ter feito uma simples busca para tentar saber como andam os preços? Muitas, não é verdade? Pois… isso e muito mais acontece porque há uma espécie de espião permanente das nossas vidas, que tenta perceber que tipo de pessoa somos, do que gostamos, o que sentimos, para depois nos encher de posts, emails ou stories que nos dão aquilo que supostamente queremos ler, saber ou sentir. Esse ser invisível, na realidade, só existe no mundo virtual, mas tem um enorme impacto na nossa vida bem real. Chama-se inteligência artificial (IA) emocional e é um campo da informática que ajuda as máquinas a compreender (e controlar…) as emoções humanas.

Quando a IA se envolve com a emoção humana, é compreensível que se levantem muitos alarmes. Há uma reação instintiva que gera uma preocupação quando se equaciona a possibilidade de as máquinas conseguirem compreender a emoção e assim passarem a manipular-nos, precisamente através dos dados que obtêm sobre as nossas emoções. Esta é uma preocupação válida. Daí que a formação de IA responsável é vital, porque só assim se consegue garantir que os dados recolhidos possam ser usados para fazer o bem com essa informação. É por isso que é tão importante uma ética responsável na IA, mas todos sabemos como o mundo está cheio de pessoas que falham e muitas vezes agem sem escrúpulos.
Há, no entanto, um claro lado positivo que deve também ser identificado quando se fala de Inteligência Artificial Emocional – se as máquinas podem ter esse nível de compreensão dos estados emocionais de uma pessoa, elas podem servir-nos melhor. Particularmente em áreas como os cuidados de saúde, a aplicação de IA empática pode ser muito impactante. Por exemplo, nos cuidados de saúde mental, este tipo de tecnologia tem um grande potencial no diagnóstico. Em relação às condições de saúde física, podem ser usadas para monitorizar a resiliência em condições como o cancro. Isto é benéfico especialmente porque a importância de cuidados holísticos e integrativos é agora amplamente reconhecida.

Luke Stark é professor assistente na Faculty of Information & Media Studies (FIMS) na Western University, London, Ontário, e dedica-se à pesquisa dos impactos éticos, históricos e sociais das tecnologias computacionais como os sistemas de inteligência artificial (IA) alimentados por técnicas como a aprendizagem de máquinas (ML). E interessa-se particularmente pela forma como estas tecnologias medeiam a expressão social e emocional, fazem inferências sobre as pessoas, e estão a remodelar, para o melhor e para o pior, as nossas relações com a ação coletiva, com nós próprios, e uns com os outros. Foi com ele que tivemos oportunidade de conversar para perceber melhor como tudo isto funciona, que vantagens e inconvenientes existem neste mundo que tem tanto de fascinante como de assustador.

Luke Start - milenio stadiumMilénio Stadium: O que é a Inteligência Artificial Emocional?
Luke Stark: Em termos gerais, IA emocional é qualquer tecnologia de inteligência artificial envolvida no rastreio, análise e previsão de estados emocionais humanos. Estas previsões podem ser feitas sobre uma variedade de dados: dados de texto, dados sobre expressões faciais, ou outros sinais corporais.

MS: Pode dizer-nos brevemente quais são as vantagens e desvantagens da IA para a vida humana?
LS: Em teoria, as tecnologias da IA podem beneficiar-nos através da sua capacidade de automatizar várias tarefas, e fazer previsões estatísticas que ajudam os seres humanos a tomar melhores decisões. Infelizmente, estas tecnologias são frequentemente desenvolvidas e utilizadas atualmente em benefício de grandes corporações tecnológicas, filosofias neoliberais de governo, e outros usos que procuram categorizar e controlar as pessoas acima de tudo. Estas tecnologias têm também muitas deficiências técnicas envolvendo os dados que utilizam para fazer análises e o mecanismo estatístico que alimenta as suas previsões; e finalmente, estas tecnologias não podem (e provavelmente nunca poderão) fazer muitas coisas que associamos à inteligência humana.

MS: Podemos dizer que existem vários tipos de IA emocional? O que são elas e como funcionam na prática?
LS: Os sistemas de IA das emoções podem fazer previsões com base numa variedade de pontos de dados: dados de texto, dados sobre expressões faciais, ou outros sinais corporais, ou alguma combinação de todos os anteriores. A análise facial é uma forma muito comum de IA das emoções: rastreia as expressões faciais, e extrapola os estados emocionais a partir delas. Infelizmente, as emoções humanas são muito mais complicadas do que simples expressões faciais, e por isso muitas destas tecnologias podem ser inexatas ou enganadoras.

MS: Podemos dizer que o ser humano pode chegar ao ponto de se sentir ameaçado pela IA emocional, sendo que pode ser vista como uma forma de espionagem permanente sobre quem somos, o que queremos e o que fazemos?
LS: Penso que a maior ameaça dos sistemas de IA emocional é a sua utilização por instituições e indivíduos poderosos para localizar, vigiar e controlar pessoas (muitas vezes com base em previsões que são entendidas como científicas, mas que são realmente bastante falhadas). A recolha e análise de dados sobre a expressão emocional em grande escala é de facto uma forma de espionagem.

MS: Que tipo de utilização é feita após a recolha destes dados?
LS: Várias: por exemplo, para visar a publicidade em plataformas de comunicação social, para avaliar a capacidade de contratação de candidatos a emprego ou a atenção dos estudantes, e mesmo em alguns países, para tomar decisões sobre a culpa ou inocência de uma pessoa em contextos criminosos

MS: O que assusta governos e entidades como a União Europeia quando decidem proibir o uso de TikTok nos dispositivos dos seus empregados? Podemos dizer que a razão pode estar exatamente relacionada com um possível abuso da IA?
LS: As proibições TikTok estão mais relacionadas com preocupações de que os dados da aplicação estejam a ser recolhidos e utilizados pelo Governo chinês. Todas as plataformas de comunicação social recolhem dados, incluindo dados sobre a expressão emocional do utilizador.

MS: Que tipo de evolução podemos esperar deste mundo da IA?
LS: Neste momento, os Large Language Models (LLMs) como o ChatGPT são muito populares. Estas tecnologias utilizam grandes quantidades de texto para prever o melhor conjunto de palavras e frases para uma determinada consulta. Como tal, podem imitar a linguagem da expressividade emocional sem qualquer inteligência ou compreensão significativa.

Madalena Balça/MS

Redes Sociais - Comentários

Artigos relacionados

Back to top button

 

O Facebook/Instagram bloqueou os orgão de comunicação social no Canadá.

Quer receber a edição semanal e as newsletters editoriais no seu e-mail?

 

Mais próximo. Mais dinâmico. Mais atual.
www.mileniostadium.com
O mesmo de sempre, mas melhor!

 

SUBSCREVER