segunda-feira, 10 de outubro de 2016
Comportamento: O que fazer quando o algoritmo é preconceituoso? Previdência, com seus cálculos atuariais, está impregnada de algoritmos distorcidos
Cada vez mais decisões são tomadas automaticamente por meio de algoritmos, expressões matemáticas que orientam a resolução de problemas. A maioria das pessoas pode nem ter percebido, mas cada vez mais atividades cotidianas já são ou serão governadas por eles.
Os exemplos são muitos. Preços de passagens aéreas, que um dia podem estar baratas e, no outro, caríssimas. O valor de um seguro-saúde ou de um seguro de veículo. A aprovação ou não de um pedido de empréstimo, os cálculos atuariais da previdência e assim por diante.
Há ao menos dois desafios relevantes nessa questão. O primeiro é que algoritmos podem rapidamente se tornar "preconceituosos". Como são alimentados por informações segmentadas, distorções acabam se tornando frequentes. Por exemplo, um algoritmo treinado para reconhecer integrantes da diretoria de uma empresa passou a acreditar que apenas homens poderiam fazer parte dessa categoria. Outro passou a entender que mulheres só trabalhariam em funções com salários menores. Eliminar esses preconceitos eletrônicos é tarefa essencial.
O segundo desafio dos algoritmos é que eles estão ficando cada vez mais incompreensíveis. Com o avanço da computação baseada em redes neurais (que emulam o funcionamento do cérebro humano), os algoritmos estão deixando de ser programados para serem "treinados". Para isso, são alimentados com uma grande quantidade de informações e criam correlações autonomamente entre elas. O resultado é que nem o programador do sistema entende como as decisões passam a ser feitas a partir daí. Em outras palavras, as decisões tornam-se produto de uma caixa preta, inescrutável. Se alguém perguntar por que exatamente um empréstimo foi negado por um algoritmo desse tipo, receberá como resposta, verdadeira, um "não sei".
Com base nisso, a União Europeia criou em abril o que alguns acadêmicos vêm chamando de "direito a uma explicação". Por ele, um cidadão teria o direito a "uma explicação sobre a decisão tomada sobre si após uma análise algorítmica que o tenha significativamente afetado".
Esse conceito promete gerar intensos debates, dentre outras razões, porque esbarra em limites técnicos sobre o que dá para explicar efetivamente ou não.
A polêmica deve chegar ao Brasil. Inspirado pelo modelo europeu, o projeto de lei 330 que está tramitando no Senado incorporou direito semelhante àquele definido na Europa. O projeto diz que "toda pessoa natural tem direito a não ser excluída, prejudicada ou de qualquer forma afetada (...) por decisões fundamentadas exclusivamente [por algoritmos]". Diz também que essas decisões serão "passíveis de impugnação, sendo assegurado o direito à obtenção de decisão humana fundamentada após a impugnação".
Mais uma vez, uma tecnologia milenar será a principal ferramenta para lidar com esse desafio completamente contemporâneo: o direito. Haverá novos capítulos nesse debate.
Autor: Ronaldo Lemos - advogado, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITSrio.org). Mestre em direito por Harvard. Pesquisador e representante do MIT Media Lab no Brasil.
Fonte: Folha de SP e SuporteConsult (10/10/2016)
Postado por
Joseph Haim
às
12:20:00
Enviar por e-mailPostar no blog!Compartilhar no XCompartilhar no FacebookCompartilhar com o Pinterest
Marcadores:
Comportamento
Assinar:
Postar comentários (Atom)
Nenhum comentário:
Postar um comentário
"Este blog não se responsabiliza pelos comentários emitidos pelos leitores, mesmo anônimos, e DESTACAMOS que os IPs de origem dos possíveis comentários OFENSIVOS ficam disponíveis nos servidores do Google/ Blogger para eventuais demandas judiciais ou policiais".