quinta-feira, 16 de maio de 2019

Comportamento: Cidade de São Francisco, centro da tecnologia, proíbe polícia usar reconhecimento facial



A cidade de San Francisco, principal centro tecnológico dos EUA, sede de empresas como Google, Apple, Facebook e centenas de outras, tornou-se a primeira cidade a proibir o uso de sistemas de reconhecimento facial por órgãos de segurança pública.
Propostas semelhantes estão em discussão em outras cidades no país, em clara reação ao avanço da vigilância permanente.

“A tendência de que tecnologias de reconhecimento facial coloquem em risco direitos e liberdades civis supera substancialmente os supostos benefícios, e essa tecnologia vai exacerbar injustiças raciais e ameaçar nossa capacidade de viver livres do monitoramento contínuo do governo”, diz a legislação, aprovada por ampla maioria, 8 a 1, pelo conselho de supervisores, órgão equivalente à câmara de vereadores no Brasil.

O autor do projeto, Aaron Peskin, afirma que “essa não é uma política anti-tecnologia. Mas que realmente afirma que podemos ter segurança sem sermos um Estado de segurança. Podemos ter bom policiamento sem nos tornarmos um Estado policial”. A proposição ainda precisa passar por uma segunda votação, mas o largo placar sugere que a lei será confirmada sem dificuldades.

De acordo com a nova lei, órgãos públicos, a começar pela polícia, devem apresentar um inventário dos usos já existentes desse tipo de tecnologia ao comitê municipal de tecnologia da informação, que vai decidir se os projetos poderão continuar. Nos debates, os representantes destacaram que não se sabe exatamente quantos sistemas desse tipo estão em uso na cidade.

A lei não impede o uso de câmeras de segurança por negócios privados ou moradores, e permite que a polícia obtenha trechos dessas filmagens. Mas proíbe as autoridades de requisitarem trechos que façam uso de tecnologias de reconhecimento facial.

Além do receio avanço da vigilância permanente, o debate foi alimentado por estudos que mostram que as tecnologias de reconhecimento facial estão longe de oferecer conclusões seguras. Um estudo do MIT mostrou, em janeiro último, que a tecnologia usada pela Amazon, por exemplo, comete erros em pelo menos um terço das análises, especialmente quando os alvos do sistema são pessoas negras.

Fonte: Convergência Digital (15/05/2019)

Nenhum comentário:

Postar um comentário

"Este blog não se responsabiliza pelos comentários emitidos pelos leitores, mesmo anônimos, e DESTACAMOS que os IPs de origem dos possíveis comentários OFENSIVOS ficam disponíveis nos servidores do Google/ Blogger para eventuais demandas judiciais ou policiais".