Filmando agora
Programa Vigia Mais MT — Cuiabá e todo o estado

9 em cada 10
pessoas presas
a partir de câmeras
eram negras.

Essa câmera reconhece seu rosto. Compara com bancos de dados policiais. Pode chamar a polícia — sem que você saiba, sem que tenha feito nada.

▼   continue lendo
O que essa câmera faz

Não é só uma câmera.

Parte das câmeras do governo de Mato Grosso tem reconhecimento facial por inteligência artificial. Ela vê seu rosto, extrai dados matemáticos e compara com centenas de milhares de fichas policiais — tudo em segundos, enquanto você caminha.

Você não autorizou. Você não sabe. Não tem como recusar.

Se o sistema achar que você parece com um foragido — mesmo que seja engano — a polícia pode ser acionada ali mesmo. Sem explicação. Sem aviso.
Leitura de placa de carro 59%
Reconhecimento facial 41%

Fonte: balanço oficial SESP-MT. Nenhuma auditoria independente confirma esses números.

O sistema erra — mas não com todos do mesmo jeito

Quem paga o preço dos erros?

Pesquisadores do mundo todo testaram sistemas de reconhecimento facial. O resultado é sempre o mesmo: a tecnologia erra muito mais com pessoas negras — especialmente mulheres negras. Isso acontece porque esses sistemas são treinados com mais imagens de pessoas brancas.

10–100×
mais erros com rostos negros do que com rostos brancos
Instituto Nacional de Tecnologia dos EUA — NIST, 2019
90%
Pessoas negras presas por câmeras no Brasil
Demais
Rede de Observatórios da Segurança, 151 prisões monitoradas — 2019

Casos reais de prisão injusta no Brasil

Rio — confundida com foragida que estava presa há 4 anos 2019
São Paulo — aposentado de 80 anos detido em unidade de saúde 2025
Sergipe — mulher abordada 2 vezes na mesma festa por erros diferentes 2024
Rio — servidora confundida durante evento sobre igualdade racial 2025
O Superior Tribunal de Justiça cassou 78 decisões judiciais baseadas em reconhecimento facial em apenas um ano. 83% das vítimas identificadas pela Defensoria do Rio eram negras.
O que vem depois do primeiro erro

O efeito não para no erro.

Quando um sistema de vigilância funciona mal para pessoas negras e pobres, o dano não fica no momento da abordagem. Ele se expande — como ondas numa poça.

01
O erro acontece
Direto e imediato
Abordagem violenta baseada em códigoVocê é parado porque o algoritmo disse que seu rosto parece com o de um procurado. A polícia não questiona a máquina. Você precisa provar quem é — ali, na calçada, na frente de todo mundo.
Seus dados biométricos ficam — mesmo depois do erroSeu rosto foi capturado, convertido em dados matemáticos e armazenado em servidores dos Estados Unidos. Sem consentimento. Sem prazo claro de apagamento.
02
A cidade muda
Dias e semanas depois
Você começa a mudar de rotaNotícias de prisões indevidas se espalham. Pessoas evitam certas praças, terminais, áreas monitoradas. O resultado: você deixa de usar partes da sua própria cidade.
O racismo ganha uma armadura tecnológicaQuando uma abordagem truculenta acontece, o policial diz: "o sistema apitou". A máquina virou escudo. O racismo institucional fica mais difícil de provar e combater — porque se esconde dentro de uma caixa preta.
Quem pode pagar advogado resolve em horas. Você, não.Um falso positivo pode significar dias no sistema prisional para quem depende da Defensoria Pública. Nesse tempo: risco de violência, perda do emprego, separação da família. O erro da máquina tem um preço que só a base da pirâmide paga.
03
A cidade se parte
O dano de longo prazo
Bairros ricos, bairros pobres — duas cidades dentro de umaCâmeras se concentram onde vivem pessoas negras e pobres. Mais câmeras geram mais alertas (pelo viés do algoritmo), que geram mais policiamento, que geram mais prisões, que "justificam" mais câmeras. O ciclo se repete. Periferias viraram postos de controle invisíveis.
Uma empresa privada decide quem é suspeitoO poder de prender alguém foi entregue a um algoritmo de empresa privada cujo código é segredo industrial. Você é julgado por linhas de código que ninguém auditou.
O teatro de segurança se instalaEvidências de São Paulo e Bahia mostram que esses sistemas não reduzem o crime. Mas custam dezenas de milhões. Quem paga sem ver o benefício? A população pobre. Quem embolsa o contrato? Empresas de R$5.000 de capital controladas por holdings milionárias.
A analogia histórica mais honesta não é o "Grande Irmão" de ficção científica — que vigiava a todos igualmente. É mais parecida com as antigas Leis de Vadiagem, feitas sob retórica de ordem pública, aplicadas cirurgicamente sobre corpos negros e pobres. A diferença é que agora o instrumento é um algoritmo.
O contrato por trás das câmeras

Quem ganhou o contrato?

O governo pagou R$1.525.000 por reconhecimento facial. A empresa contratada: FacePass Soluções de Acesso Ltda. O que encontramos nos documentos públicos:

Capital social da empresa: R$5.000
Uma empresa com cinco mil reais de capital recebeu 1,5 milhão de reais do governo para tratar a biometria de toda a população de Mato Grosso.
Reestruturada 24 horas antes do contrato
Em 08/04/2025 — exatamente um dia antes da assinatura — a empresa ganhou um novo sócio e uma nova holding. No dia seguinte, o contrato foi assinado. Isso está no Diário Oficial.
O negócio principal dela é controlar acesso em shows
A empresa declarou ao regulador federal que usa reconhecimento facial com consentimento dos usuários — em eventos e condomínios. No contrato com o governo, usa sem o consentimento de ninguém.
Câmeras fabricadas na China, dados armazenados nos EUA
O hardware é da Hikvision, empresa chinesa listada pelo governo americano por fornecer vigilância usada contra minorias étnicas na China. Os dados são processados pela Amazon (AWS), nos Estados Unidos.
O programa custa muito e não comprova que funciona
Em São Paulo, estudo independente mostrou que programa similar não reduziu o crime. Na Bahia, a própria Secretaria de Segurança admitiu que o sistema "não tem efeito direto nos índices de violência". Em Mato Grosso, nunca houve avaliação independente.
Se você for abordado

O que você pode e não pode ser forçado a fazer

Não
Você não é obrigado a desbloquear o celularO Superior Tribunal de Justiça consolidou: a polícia precisa de ordem judicial para acessar o conteúdo do seu celular. Recusar não é crime.
Atenção
A revista do corpo precisa de suspeita concretaPergunte: "Qual é a suspeita concreta?" Um alerta de câmera sem confirmação humana pode não ser suficiente. Se não houver resposta, a abordagem pode ser ilegal.
Pode
Você pode filmar a abordagemDesde que não interfira. Anote: hora, local, nome e matrícula do policial, placa da viatura.
Pode
Você pode exigir saber o motivoNome e matrícula visíveis na farda são obrigatórios. Você tem o direito de saber por que está sendo abordado.
Atenção
Não resista fisicamente, mesmo que a abordagem seja ilegalCeda na hora. Documente tudo. Depois busque a Ouvidoria da PM-MT ou o Ministério Público.
O que precisa mudar

Três pedidos simples.

Para o governo de MT
Publique o relatório de impacto sobre os dados biométricos coletados. Divulgue quantas abordagens resultaram de erros. Faça uma auditoria independente antes de expandir.
Para a ANPD — reguladora federal
Investigue a contradição: a empresa declara que usa reconhecimento facial com consentimento, mas no contrato com o governo usa sem o consentimento de ninguém.
Para o Tribunal de Contas de MT
Audite como uma empresa de R$5.000 de capital ganhou um contrato de R$1,5 milhão e foi reestruturada 24 horas antes de assinar.