Não sorria! Você está sendo filmado!
Defensoria Pública da União aponta falta de transparência, risco de discriminação, violações de privacidade e mau uso de recursos públicos nos sistemas de reconhecimento facial
7 MAI 2025 - 09H54 • Por Wilson LopesA Defensoria Pública da União (DPU) e o Centro de Estudos de Segurança e Cidadania (CESeC) publicaram o relatório ‘Mapeando a Vigilância Biométrica’, uma análise sobre a expansão do uso de tecnologias de reconhecimento facial na segurança pública no Brasil.
O estudo alerta para graves riscos à privacidade, à igualdade e ao devido processo legal, em um cenário marcado pela ausência de regulamentação específica e pela falta de mecanismos de controle social.
De acordo com dados atualizados em abril de 2025 do projeto ‘O Panóptico’, do CESeC, atualmente existem 376 projetos ativos de reconhecimento facial em operação no país, impactando potencialmente quase 83 milhões de pessoas, cerca de 41% da população brasileira. Apesar dos investimentos já superarem R$ 160 milhões, o relatório aponta ausência de transparência, escassez de evidências de eficácia e inexistência de controles públicos adequados.
A análise de informações obtidas por meio de ofícios revela um panorama fragmentado: enquanto seis estados (Acre, Rio Grande do Norte, Rondônia, Santa Catarina, Mato Grosso do Sul e Distrito Federal) afirmaram não utilizar a tecnologia; outros oito (Minas Gerais, São Paulo, Amapá, Ceará, Espírito Santo, Goiás, Mato Grosso e Paraná) estão apenas em fase de estudos ou testes. Por outro lado, mais oito estados já firmaram contratos ou têm licitações em andamento, muitas vezes sem divulgar informações básicas sobre fornecedores, objetivos ou fontes de financiamento.
Bahia lidera os investimentos, com mais de R$ 66 milhões aplicados, seguida por Piauí (R$ 33,6 milhões) e Pará (R$ 20 milhões), todos sem avaliações públicas sobre os impactos sociais e jurídicos dessas tecnologias. Em Tocantins, um contrato de R$ 15,8 milhões já foi firmado, embora a implementação ainda não tenha começado.
376 PROJETOS
UTILIZAM TÉCNICAS DE RECONHECIMENTO FACIAL NO PAÍS
82.876.094 PESSOAS
SÃO POTENCIALMENTE VIGIADAS POR RECONHECIMENTO FACIAL NO BRASIL
Desigualdade racial e falhas estruturais
O relatório também chama a atenção para problemas estruturais no uso das tecnologias biométricas. Entre as principais falhas estão a falta de padronização de abordagens policiais, o uso de bancos de dados com critérios opacos e a inexistência de auditorias independentes.
Estudos do National Institute of Standards and Technology (NIST) mostram que sistemas de reconhecimento facial têm taxas de erro até 100 vezes maiores para pessoas negras, indígenas e asiáticas em comparação a pessoas brancas. No Brasil, segundo o CESeC, 90% das pessoas presas por reconhecimento facial em 2019 eram negras, majoritariamente acusadas de crimes sem violência.
A DPU também destaca o aumento de casos em que cidadãos são presos, processados ou investigados a partir do compartilhamento de dados biométricos entre diferentes órgãos, muitas vezes sem critérios claros para acesso, revisão ou contestação. "O uso dessa ferramenta vem ocorrendo de forma fragmentada, com diferentes padrões entre os entes federativos e sem garantias institucionais quanto à proteção de direitos", afirma Carolina Castelliano, defensora nacional de Direitos Humanos (DNDH) da DPU.
Os pontos críticos da adoção das TRF no Brasil
- 1. Problemas relacionados à transparência
- 2. Falta de padronização no uso da tecnologia
- 3. Descumprimento às normas de proteção de dados
- 4. Incompatibilidade com princípios administrativos
- 5. Ausência de supervisão e monitoramento
- 6. Integração ineficiente com sistemas nacionais
- 7. Falta de delimitação geográfica e temporal das operações de reconhecimento
- 8. Falta de critérios para a formação e utilização da lista de procurados
Recomendações e medidas urgentes
O relatório propõe a abertura de um debate público qualificado, com a participação ativa da sociedade civil, academia, órgãos de controle e organismos internacionais. Entre as recomendações estão:
- Criação de uma legislação federal específica para regulamentar o uso da tecnologia;
- Padronização de protocolos que respeitem o devido processo legal;
- Realização de auditorias independentes e regulares;
- Transparência em contratos e bases de dados utilizados;
- Capacitação de agentes públicos e garantia de informações claras à população.
Também é sugerida a obrigatoriedade de autorização judicial prévia para uso em investigações, a limitação temporal para armazenamento de dados biométricos e o fortalecimento do controle sobre empresas privadas que operam esses sistemas.
“Esperamos que esses achados possam não apenas orientar e subsidiar a tramitação do PL 2338 na Câmara dos Deputados, mas também servir de alerta para que órgãos reguladores e de controle estejam atentos ao que ocorre no Brasil. O relatório evidencia tanto os vieses raciais no uso da tecnologia quanto problemas de mau uso de recursos públicos e falta de transparência na sua implementação”, afirma Pablo Nunes, coordenador-geral do CESeC.
Metodologia e parcerias
A pesquisa foi realizada entre julho e dezembro de 2024, por meio de pedidos de informação enviados a todos os estados e ao Distrito Federal. Foram analisados contratos, valores investidos, empresas envolvidas e práticas de transparência.
O relatório é resultado da parceria entre DPU e CESeC no âmbito do projeto ‘O Panóptico’, que monitora o uso de tecnologias de vigilância no Brasil. Também contribuíram os grupos de pesquisa ‘Ética em Direitos Humanos e Inteligência Artificial’ (Escola Nacional da DPU) e o ‘Politicrim’ (PUCRS).
“Com uma equipe especializada em segurança pública e justiça, organizamos as evidências, produzimos visualizações acessíveis e estruturamos o documento para incidir no debate público e influenciar práticas institucionais”, explica Thallita Lima, coordenadora de pesquisa do Panóptico.
Para o CESeC, a parceria reforça o compromisso com a defesa dos direitos humanos. “A parceria CESeC–DPU mostra como a produção de dados qualificados pode e deve estar a serviço da defesa de direitos”, conclui Lima.
Projeto de Lei 2338/2023
O Projeto de Lei 2338/2023, de autoria do senador Rodrigo Pacheco (PSD/MG), estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico. No momento, ele aguarda a criação de uma Comissão Especial para analisar a matéria.
Com informações, Defensoria Pública da União.
@dpuoficial
Acesse ‘O Panóptico’- Monitor de Novas Tecnologias na Segurança Pública do Brasil>>
Acesse o Relatório ‘Mapeando a Vigilância Biométrica’>>
Acesse o Projeto de Lei 2338/2023>>