Um sistema que não funciona continua crescendo. Por quê?
Nas páginas 1 e 2 mostramos o que o sistema faz e a lei que o permite. Aqui vamos mais fundo — e vamos ser honestos sobre onde as respostas terminam e onde as tensões começam.
▼ continue lendo
Antes de continuar — uma advertência necessária
Esta página não resolve o que apresenta.
As páginas 1 e 2 trabalharam com fatos verificáveis: documentos públicos, dados do Diário Oficial, pesquisas com metodologia. Aqui entramos em outro território — o da interpretação estrutural. Diferentes pesquisadores, ativistas e teóricos que trabalham com vigilância, racismo e poder chegam a conclusões diferentes sobre o que o Vigia Mais MT significa e o que fazer com ele.
Vamos apresentar essas tensões sem hierarquizá-las. Não porque não tenhamos posições — mas porque a divergência é real e você merece avaliá-la.
Uma advertência metodológica: os conceitos teóricos desta página foram desenvolvidos principalmente na Europa e nos Estados Unidos, para analisar realidades que não são idênticas à de Cuiabá ou de Mato Grosso. Usamos essas ferramentas porque são úteis — não porque são perfeitas. Onde elas não encaixam, dizemos que não encaixam.
Conceito 1 — Acumulação por despossessão
Seu rosto vale dinheiro. Você não recebe nada.
O economista David Harvey cunhou o conceito de acumulação por despossessão para descrever como o capitalismo contemporâneo cresceu não só produzindo coisas novas, mas tomando o que já existia e transformando em mercadoria. Terra comunal virou propriedade privada. Água pública virou concessão corporativa. Conhecimento ancestral virou patente.
Com dados biométricos, a lógica é a mesma. Seu rosto — que é seu, que sempre foi seu — é capturado, convertido em dados matemáticos, processado em servidores de uma empresa americana, integrado a um sistema gerenciado por uma empresa de Várzea Grande, alimentado por câmeras de uma empresa chinesa, e tudo isso com dinheiro público. Em nenhum momento você foi consultado. Em nenhum momento você recebeu algo em troca.
01
Você passa pela câmera
Seu rosto é capturado. Nenhum custo para o sistema. Nenhum benefício para você que não seja prometido.
02
Hikvision (China) processa a imagem
A câmera converte seu rosto em dados. A Hikvision vende câmeras ao estado com tecnologia de reconhecimento facial embarcada. Cada câmera instalada é receita para a empresa.
03
FacePass (Várzea Grande) integra e processa
R$1.525.000 em contrato público. Capital social da empresa: R$5.000. A diferença entre esses dois números é o que o Estado transferiu de dinheiro público para uma rede societária privada pelo direito de usar os seus dados.
04
Amazon Web Services (EUA) armazena
Seus dados biométricos são processados em infraestrutura americana. A Amazon cobra pelo serviço. Você não escolheu isso. Não há tratado internacional que proteja esses dados especificamente.
05
SESP-MT centraliza tudo no CIOSP
O Estado acumula poder de vigilância sobre 142 municípios. Sem despesa orçamentária aparente. Sem votação legislativa específica. Sem auditoria dos resultados.
O economista Evgeny Morozov descreve como empresas de tecnologia constroem o que chama de "cerca invisível de arame farpado" — transformando privacidade em mercadoria e o cidadão em fornecedor involuntário de matéria-prima. No Vigia Mais MT, quem constrói a cerca é o próprio Estado. Mas a lógica de extração é a mesma.
Limite desse conceito
Harvey desenvolveu acumulação por despossessão pensando em terra e recursos naturais. Dados biométricos são diferentes: não são finitos, não se esgotam com o uso, e podem ser replicados infinitamente. Alguns pesquisadores argumentam que isso os torna mais perigosos — outros, que a analogia com extração tradicional distorce o fenômeno. A tensão existe e não vamos escondê-la.
Conceito 2 — Do panóptico ao controle pós-panóptico
Não é mais "te estão vendo". É "te estão classificando."
O filósofo Michel Foucault descreveu, nos anos 1970, como o poder moderno opera através da vigilância. Sua referência era o panóptico — uma arquitetura de prisão onde um único guarda pode observar todos os presos sem que eles saibam quando estão sendo observados. O efeito: os presos passam a se vigiar, internalizando o olhar do guarda.
A câmera de segurança clássica funciona assim. Você sabe que ela está lá. Você muda de comportamento porque pode estar sendo observado.
O reconhecimento facial com inteligência artificial é diferente em natureza, não só em grau.
Vigilância tradicional
Você sabe que está sendo visto
A câmera registra. Alguém pode assistir. O poder opera pelo medo da observação. Você muda o que faz porque pode estar sendo observado.
Reconhecimento facial algorítmico
Você não sabe como está sendo classificado
A câmera identifica, compara, pontua, alerta. O poder opera pela classificação opaca. Você não muda o que faz — porque nem sabe que foi categorizado como suspeito até a polícia chegar.
A pesquisadora Shoshana Zuboff chamou esse novo modelo de capitalismo de vigilância — um sistema onde dados comportamentais são extraídos e usados para prever e modificar comportamento. O Estado aprende com cada câmera, cada alerta, cada prisão, e o sistema se torna mais eficiente em classificar pessoas.
A diferença não é de grau. É de natureza.
Num regime de vigilância tradicional, você pode sair da câmera. Na vigilância algorítmica, o problema não é ser visto — é que os dados sobre você existem, circulam e produzem efeitos mesmo quando você não está mais na frente da câmera. Seu template biométrico — os dados matemáticos que descrevem seu rosto — continua em servidores da Amazon depois que você foi pra casa.
Uma crítica interna — e honesta
Evgeny Morozov criticou Zuboff argumentando que sua análise trata o capitalismo de vigilância como um desvio do capitalismo "normal" — quando, para a tradição marxista, extração, exploração e controle sempre foram o núcleo do capitalismo, não a exceção. Essa não é uma disputa acadêmica menor: ela determina se o problema é consertar algumas empresas ou enfrentar uma lógica sistêmica. Não vamos resolver isso aqui.
Conceito 3 — Vidas baratas e colonialidade
Isso não é uma falha. É o custo calculado.
Os pesquisadores Raj Patel e Jason Moore desenvolveram o conceito de vidas baratas para descrever uma estratégia central do capitalismo histórico: certos grupos humanos são sistematicamente desvalorizados não por acidente, mas porque sua desvalorização reduz o custo de operação do sistema.
Aplicado à vigilância: quando um sistema de reconhecimento facial erra 10 a 100 vezes mais com rostos negros, e quando 90,5% das pessoas presas por esses sistemas no Brasil são negras, a pergunta não é "como corrigir o algoritmo". A pergunta é: por que esse erro é considerado aceitável?
Aceitável.
Essa é a palavra que o sistema usa implicitamente quando opera sem auditoria, sem relatório de impacto e sem responsabilização pelos erros. Um erro que custa pouco politicamente é um erro aceitável. E o custo político de um erro depende de quem paga por ele.
O filósofo camaronês Malcom Ferdinand, pensando a partir da tradição decolonial, argumenta que a constituição colonial da modernidade brasileira — construída sobre escravidão, desapossamento territorial e hierarquias raciais — não foi superada. Ela foi modernizada. As Leis de Vadiagem do século XIX usavam linguagem de ordem pública para controlar corpos negros recém-libertos. A Lei 11.766/2022 usa linguagem de "funções analíticas de inteligência artificial". O resultado documentado é o mesmo: 90% de presos negros.
Isso não é uma hipótese sobre intenção. Ninguém precisa ter planejado discriminar para que discriminação aconteça. Um sistema construído sem considerar o custo de errar sobre certos corpos vai errar mais sobre esses corpos — porque nunca foi otimizado para não errar sobre eles. O algoritmo não é racista porque seus criadores são racistas. Ele é racista porque foi treinado num mundo racista e implementado sem que ninguém fosse obrigado a medir o dano.
Limite honesto desse argumento
A análise de "vidas baratas" e colonialidade é poderosa para descrever padrões históricos. Ela é mais fraca como ferramenta de ação imediata — porque nomear uma estrutura não necessariamente indica como transformá-la. E há pesquisadores que argumentam que enquadrar tudo como colonialidade pode obscurecer as especificidades do caso concreto e as possibilidades reais de intervenção. Esse debate continua aberto.
A divergência que não vamos resolver
Reformar por dentro ou questionar a lógica?
Esta é a tensão mais importante desta página — e a mais honesta. Apresentamos as duas posições da forma mais forte possível para cada uma. Não vamos hierarquizar. Você decide.
Duas posições sobre o que fazer
Posição 1 — Reforma institucional
Os instrumentos legais existem e têm dentes. A ausência de RIPD, a contradição entre o que a FacePass declarou à ANPD e o que faz na prática, a reestruturação societária às vésperas do contrato — são irregularidades documentadas com base em fontes primárias públicas. Representações ao TCE, à ANPD e à Defensoria Pública podem forçar publicidade, suspender contratos e criar precedentes. Existem casos em que isso funcionou — a suspensão do reconhecimento facial na EBC por falta de RIPD é um exemplo real. Mudanças concretas são possíveis dentro do sistema, e desprezá-las é um luxo que as vítimas de falsos positivos não têm.
Posição 2 — Crítica sistêmica
A ANPD, o TCE e os instrumentos regulatórios foram construídos dentro do mesmo sistema que produziu o problema. A lei foi redigida com cláusulas de imunidade preventivas. O modelo de financiamento externaliza custos para escapar de fiscalização. O TCE já emitiu nota elogiosa ao programa. Usar as ferramentas do sistema para reformar o sistema pode produzir resultados pontuais sem alterar a lógica que vai gerar o próximo programa igual. O problema não é a FacePass — é um modelo que entrega vigilância de populações a interesses privados, externaliza os riscos para quem tem menos poder e cresce sem debater democrático. Corrigir irregularidades contratuais não muda essa lógica.
Honestidade sobre as lacunas
O que as teorias não explicam.
Seria desonesto usar estruturas teóricas como se elas dessem conta de tudo. Três lacunas precisam ser nomeadas.
A teoria veio de outro lugar
Harvey, Zuboff, Moore/Patel, Ferdinand — Europa, EUA, academia global
As ferramentas teóricas que usamos nesta página foram construídas para analisar realidades europeias, norte-americanas e, no caso de Ferdinand, caribenhas. Cuiabá, Várzea Grande e o Cerrado têm especificidades que nenhuma dessas teorias endereça diretamente.
Isso não invalida o uso dessas ferramentas. Mas exige cuidado. Quando a teoria não encaixa na realidade local, a prioridade é a realidade local — não a teoria.
A teoria é melhor no diagnóstico do que na ação
Um problema comum da crítica estrutural
Dizer que o capitalismo de vigilância é a estrutura do problema não diz o que a mãe de um filho preso injustamente por falso positivo deve fazer amanhã de manhã. A análise sistêmica tem poder descritivo e analítico — mas não substitui estratégia concreta de ação.
A teoria e a prática regulatória precisam coexistir. Quem age dentro das instituições e quem questiona as instituições por fora podem ser aliados — não adversários.
Não sabemos o que o sistema aprende
Uma lacuna empírica real
As teorias de vigilância assumem que o sistema acumula poder ao longo do tempo. Mas no Vigia Mais MT específico, não temos dados sobre como o CIOSP usa os dados acumulados, se há cruzamento com outros bancos, ou se o sistema melhora ou piora sua precisão ao longo do tempo. Essas são perguntas empíricas sem resposta pública disponível.
A opacidade que criticamos no relatório OSINT se reproduz aqui: não podemos analisar o que não conseguimos ver.
O que você faz com o que sabe agora.
Você leu sobre câmeras que identificam seu rosto sem consentimento. Sobre 90% de presos negros. Sobre uma empresa de R$5.000 que recebeu R$1,5 milhão para tratar a biometria de todo o estado. Sobre uma lei que autorizou câmeras mas nunca votou reconhecimento facial. Sobre algoritmos treinados sem considerar o custo de errar sobre certos corpos.
Isso não é informação abstrata. Acontece hoje, em Cuiabá, em Várzea Grande, em todos os 142 municípios do estado. O totem onde você escaneou esse QR code é parte desse sistema.
Apresentamos tensões sem resolvê-las porque são tensões reais. Pesquisadores sérios discordam sobre se o problema é regulatório ou estrutural. Ativistas sérios discordam sobre se a reforma institucional avança ou legitima. Essa divergência não é fraqueza — é honestidade sobre a complexidade do que está em jogo.
O que não está em disputa: o programa opera sem transparência, sem auditoria, sem RIPD publicado, com um algoritmo de viés desconhecido, administrado por uma rede societária opaca, financiado com dinheiro público, sobre populações que nunca foram consultadas. Isso é verificável. Está documentado. Está no Diário Oficial.
Você pode pedir documentos via Lei de Acesso à Informação. Pode registrar abordagens que sofreu. Pode levar o argumento jurídico à Defensoria Pública ou à OAB. Pode questionar por que a Assembleia Legislativa nunca votou sobre reconhecimento facial. Pode simplesmente conversar com quem não sabe disso ainda.
O que fazer com isso é sua decisão. Não a nossa. Nós fizemos o que estava ao nosso alcance: pesquisa documental honesta, tensões nomeadas, limites reconhecidos. O resto pertence a você.