Temas de Capa

Welcome to “Big Brother” 2.0!

AdobeStock_171462504-1200x675

 

Em 2019 escrevi para o Milénio Stadium um artigo intitulado “Welcome to Big Brother!” que abordava a temática da implementação de técnicas de reconhecimento facial através de sistemas de inteligência artificial, por parte de agências governamentais e do setor privado. Nessa altura, enunciava, entre outras, as preocupações que se levantavam com os direitos à privacidade. Três anos volvidos, este género de tecnologia evoluiu à velocidade da luz sem que tenha havido progressos significativos na regulamentação de uma área que é o novo “El Dorado” da tecnologia moderna.

A Inteligência Emocional Artificial, ou Computação Afetiva como muitos lhe chamam, é o nível seguinte de inteligência artificial tentando, essencialmente, compreender as emoções humanas. Com dispositivos que veem e ouvem tudo, a preocupação com a privacidade assume um papel central no avanço tecnológico da humanidade. Dos smartphones aos dispositivos domésticos inteligentes e aos mais variados aparelhos utilizados no local trabalho, a tecnologia à nossa volta no dia a dia é tão avançada que está a registar as nossas conversas e as nossas expressões emotivas levando a uma questão que carece resposta urgente: qual a linha vermelha que não pode ser ultrapassada?

Um exemplo comum no quotidiano de qualquer cidadão com acesso a um smartphone são as aplicações móveis e os assistentes virtuais que conseguem reconhecer as emoções em tempo real e adaptar-se ao estado de espírito do utilizador.

O reconhecimento de emoções e a análise de sentimentos são duas tecnologias que identificam e analisam automaticamente características complexas da fala e imagem com os modelos de aprendizagem das máquinas que são treinadas utilizando grandes quantidades de informação.

A Inteligência Emocional Artificial está a transformar rapidamente a forma como trabalhamos e vivemos. Com uma sofisticação e complexidade cada vez maiores, os dispositivos sensíveis às emoções são agora utilizados em automóveis autónomos, aparelhos de ensino nas salas de aula, brinquedos inteligentes, assistentes domésticos, conferências online, software de email, quiosques e painéis publicitários, menus de fast-food e drive-through, robôs de cuidados pessoais, bem como sistemas de segurança públicos e privados. Ao contrário de outras aplicações de Inteligência Artificial que dependem da extração de dados externos à pessoa, a Inteligência Emocional Artificial passa para o domínio interior e altamente subjetivo, através da análise de dados biométricos. Isto inclui o uso de algoritmos e biossensores que recolhem dados por exemplo do batimento cardíaco, taxa respiratória, pressão arterial, tom de voz, escolha de palavras, temperatura corporal, alterações na pele, movimento da cabeça e dos olhos, e outros. Estas ferramentas mais avançadas incorporam aprendizagem de computadores de última geração, com quantidades enormes de dados e processamento natural de palavras e imagem para permitir maiores graus de precisão, flexibilidade e personalização, bem como contexto situacional e temporal.

A adoção da Inteligência Emocional Artificial levanta sérias questões legais, éticas, culturais e até científicas. Neste artigo identificamos algumas dessas questões que resultam da infusão da Inteligência Emocional Artificial na sociedade.

Privacidade e confiança

Estas ferramentas são efetivamente concebidas para recolher dados íntimos do estado subjetivo de um indivíduo sem necessariamente haver o seu conhecimento ou permissão explicita. Isto cria inúmeras possibilidades para a sua utilização indevida e maliciosa. Por exemplo, os dispositivos que analisam sensorialmente emoções no local de trabalho podem levar a preconceitos ou discriminação contra um trabalhador. Os efeitos no trabalhador do “policiamento” emocional levado a cabo por estas tecnologias é imprevisível. Podemos perguntar também qual será o impacto do uso destas tecnologias nos automóveis ou serviços de saúde: alterarão os valores do seguro ou a qualidade dos serviços prestados?

Em termos comerciais há empresas a utilizarem sistemas de inteligência artificial ligando-os às câmaras de segurança de trânsito público que depois monitorizam as respostas do público a anúncios interativos.
Além de analisar o sexo, idade e tempo de permanência, o software utiliza a análise facial para detetar micro-expressões de surpresa, felicidade, descontentamento e neutralidade. O objetivo é avaliar o desempenho dos anúncios e a resposta do potencial cliente.

Como pode o cidadão confiar numa tecnologia que desconhece e sobre a qual ainda não lhe é dado o nível de informação necessário para que se possa entender as suas verdadeiras implicações? Que garantia tem o cidadão que as informações recolhidas não estão a ser utilizadas para os fins errados?

Transparência e regulamentação

Ao longo dos últimos anos adensou-se o debate sobre as preocupações de violação de privacidade. O caso mais conhecido foi o escândalo da Cambridge Analytica que levou o CEO do Facebook, Mark Zuckerberg, ao Congresso norte-americano. Desde então, e apesar do Privacy Act ter sido atualizado no Canadá e de se ter aprovado a GDPR (General Data Protection Regulation) – lei europeia de privacidade, poucos foram os efeitos efetivos que se fizessem sentir no campo dos avanços tecnológicos. Desde logo, tal como se facilmente se percebeu pelo inquérito que decorreu no Congresso norte-americano, há um total desconhecimento, para não dizer ignorância, por parte dos governantes/decisores nesta matéria, mas também porque a fiscalização é extremamente ineficaz e os termos de utilização dos diversos dispositivos e aplicações salvaguarda as práticas correntes dentro da lei.

O caso da Cambridge Analytica e outros similares centravam-se nas atividades ocultas de recolha e posterior partilha de dados, mas a Inteligência Emocional Artificial será muito mais difícil de regulamentar coletivamente, uma vez que em muitos casos está a ser desenvolvida com direitos de autor. Um exemplo disso é a indústria automóvel em que as empresas, em nome da segurança e do aumento do conforto, estão a desenvolver sistemas que podem seguir e responder aos estados emocionais dos condutores. No entanto, o segredo algorítmico é imperativo para manter as vantagens competitivas. Isto significa que a transparência dos algoritmos e a recolha não consciente de dados biométricos poderão estar protegidos por lei e não será fácil encontrar parâmetros que satisfaçam as leis de direitos de autor e as leis de privacidade e segurança.
A tecnologia está vários anos mais avançada do que qualquer regulamentação em vigor e nunca vai deixar de assim ser. Os avanços tecnológicos serão sempre mais rápidos que a regulamentação existente naquele momento.

À medida que a Inteligência Emocional Artificial se torna mais difundida na sociedade, esta terá impactos profundos no quotidiano dos cidadãos. O que se pede é um maior acompanhamento dos avanços tecnológicos por parte dos vários governos e legisladores e maior transparência por parte das empresas que desenvolvem novas tecnologias baseadas em Inteligência Emocional Artificial.

No artigo que escrevi em 2019 terminei enunciando um filme de 2008, à data futurista, numa realidade pouco provável, em que uma entidade artificial inteligente utilizava todos os meios convencionais ao seu dispor, tais como telefones e câmaras de vigilância, para localizar e perseguir dois fugitivos acusados de terrorismo. Demorou pouco mais de 10 anos para que a ficção se tornasse realidade.

Desta vez termino com o filme Minority Report (A Nova Lei) de 2002. Neste filme de ficção científica o crime foi completamente banido através da criação de uma equipa de “Pré-Crime”, um setor da polícia onde o futuro é visualizado através de paranormais, os “precogs”, e o culpado é punido antes do crime ter sido cometido. Basicamente, o potencial culpado de um crime no futuro é detido, julgado e punido antes de o ter cometido.
Quanto tempo demorará até que a Inteligência Emocional Artificial e outras sejam utilizadas para fins de investigação e policiamento com base na análise de expressões sensoriais e emocionais? Quanto tempo demorará até que esta nova tecnologia seja implementada como forma de prova judicial? Qual é a linha vermelha que não pode ser ultrapassada? Onde ficam as garantias e liberdades dos cidadãos?
Seja bem-vindo ao “Big Brother” 2.0!

Carlos Monteiro/MS

Redes Sociais - Comentários

Artigos relacionados

Back to top button

 

O Facebook/Instagram bloqueou os orgão de comunicação social no Canadá.

Quer receber a edição semanal e as newsletters editoriais no seu e-mail?

 

Mais próximo. Mais dinâmico. Mais atual.
www.mileniostadium.com
O mesmo de sempre, mas melhor!

 

SUBSCREVER