Lei 11.766/2022
Vigia Mais MT — A lei por trás das câmeras

A câmera faz
algo que a lei
que a criou
nunca autorizou.

A Assembleia Legislativa de Mato Grosso votou câmeras. Nunca votou reconhecimento facial. A diferença entre essas duas coisas é onde você entra.

▼   continue lendo
O que a lei diz — e o que ela não diz

Uma palavra que não existe.

A Lei Estadual 11.766/2022 criou o programa Vigia Mais MT. Esse é o documento fundador de todo o sistema — câmeras, reconhecimento facial, banco de dados biométrico da população. É a lei que a Assembleia Legislativa aprovou.

Procure a palavra "biométrico" nessa lei. Você não vai encontrar.

0
vezes que a palavra "biométrico" aparece na Lei 11.766/2022
"Reconhecimento facial" também não aparece. Nenhuma vez.

A lei fala em "imagens". No direito brasileiro, imagem e dado biométrico são coisas radicalmente diferentes. Imagem é protegida como direito de personalidade. Dado biométrico — como o mapeamento matemático do seu rosto — é dado sensível, com proteção muito mais rigorosa pela lei federal de proteção de dados pessoais.

Art. 9º, §3º — Lei 11.766/2022 — o único trecho que menciona inteligência artificial
"As imagens poderão ser utilizadas em funções analíticas de inteligência artificial."
O reconhecimento facial não está autorizado na lei. Está num vácuo que a lei deixou aberto com uma vírgula. "Poderão" — condicional, não obrigatório. Sem especificação de salvaguarda. Sem limite de uso. Sem menção a biometria. O programa opera identificação biométrica de toda a população que passa pelas câmeras. A lei que o autoriza nunca previu, nunca debateu e nunca votou isso.
Os cinco pontos cegos da lei

A lei não foi descuidada.
Foi assim por design.

Quando você lê a Lei 11.766/2022 inteira, cinco ausências se destacam. Cada uma, sozinha, poderia ser descuido. Juntas, formam um padrão: uma arquitetura legal construída para expandir o sistema ao máximo e responsabilizar o Estado ao mínimo.

01
Biometria não existe na lei
O mais grave — e o mais invisível
O programa faz o que a lei não previuReconhecimento facial transforma a imagem do seu rosto em dados matemáticos permanentes — uma "assinatura biométrica". Isso é qualitativamente diferente de uma câmera de segurança comum. A lei que criou o programa nunca fez essa distinção, nunca a debateu publicamente e nunca criou salvaguardas específicas para ela.
O argumento jurídico diretoO uso de reconhecimento facial pelo Vigia Mais MT excede o objeto da lei que o instituiu. Ele opera em zona de ausência de autorização legal específica — o que, no direito brasileiro, viola o princípio de que só se pode restringir direitos fundamentais com lei clara que o autorize. Esse é o argumento disponível para a Ordem dos Advogados ou para a Defensoria Pública, sem necessidade de processo judicial imediato.
02
A imunidade que protege o Estado, não você
Art. 2º, §3º — a cláusula mais perigosa
O que a lei diz"A cooperação não enseja a responsabilidade das partes por falhas técnicas ou operacionais por ocorrências de crimes." Essa frase foi escrita para proteger o Estado se o sistema falhar em prevenir um crime.
O que essa frase pode fazer a vocêA mesma cláusula pode ser usada para argumentar que o Estado não responde por falsos positivos — afinal, também são "falhas técnicas ou operacionais". Se você for preso por engano por causa de um erro do algoritmo, a lei já foi escrita para que ninguém responda formalmente por isso. Você precisa construir seu argumento de responsabilidade civil do zero, contra uma arquitetura jurídica que o legislador já estruturou para proteger o Estado.
03
O custo que não aparece em nenhuma conta pública
Art. 2º, §1º — o modelo de financiamento oculto
A lei proíbe repasse de recursos — e isso não é proteção ao cidadão"Caráter permanente de não onerosidade à fazenda pública estadual." O Estado não gasta. Municípios, empresas e entidades parceiras arcam com instalação e manutenção. O Estado expande sua capacidade de vigilância sem que isso apareça no orçamento estadual como linha de despesa.
Por que isso importaO Tribunal de Contas do Estado audita despesas estaduais. Se o Estado não gasta, o Tribunal não tem entrada natural para fiscalizar. Em Várzea Grande, a Câmara de Dirigentes Lojistas instalou cerca de 340 câmeras integradas ao sistema estadual. Esse custo nunca apareceu no debate público sobre quanto o programa realmente custa — e quem realmente paga.
04
Iguais na lei, diferentes na cidade
Art. 3º — a simetria fictícia
A lei trata todos como iguaisPrefeituras, shoppings, associações comunitárias, universidades, pessoas físicas — todos são "entes proponentes" que aderem ao programa com o mesmo instrumento jurídico: o termo de cooperação.
Mas não são iguaisUma grande empresa com departamento jurídico próprio e capacidade de negociar os termos da cooperação não é igual a um conselho de moradores de bairro periférico. A câmera de um shopping integrada ao sistema estadual e a câmera de uma associação comunitária têm o mesmo valor operacional para o Estado — mas os riscos recaem de formas completamente diferentes sobre cada população monitorada. Quem pode pagar advogado resolve um erro em horas. Quem depende da Defensoria Pública pode perder dias no sistema prisional.
05
Quem não tem como sair da câmera
A ausência mais cruel da lei
A lei não previu populações em situação de ruaPara quem tem casa, vigilância em espaço público significa, no limite, evitar certas praças e rotas. Para quem vive na rua, o espaço público é o único espaço que existe. Não há "sair da área monitorada". A lei não criou nenhuma salvaguarda para populações que habitam permanentemente o espaço vigiado — e que são também as mais vulneráveis a violência policial.
Migrantes com documentação em processoEm Cuiabá e Várzea Grande há migrantes bolivianos e paraguaios com documentação em regularização. Para eles, ser confundido com alguém num banco de dados policial pode ter consequências muito além de horas numa delegacia. A lei não mencionou isso nenhuma vez.
Os cinco pontos formam um padrão: a lei foi redigida para maximizar a capacidade de expansão do sistema e minimizar os pontos de responsabilização. Isso não é hipótese — é o que o texto da lei produz quando lido integralmente.
A simetria fictícia com endereço

A universidade e o shopping no mesmo parágrafo.

A Universidade Federal de Mato Grosso, em Cuiabá, e o Shopping, em Várzea Grande, tem câmeras do programa Vigia Mais MT em funcionamento. É também um dos locais com maior concentração de abordagens policiais ativadas pelo sistema.

No mesmo instrumento jurídico que autorizou essa instalação está a Câmara de Dirigentes Lojistas de Várzea Grande, que instalou cerca de 340 câmeras integradas ao sistema estadual. O Art. 3º da lei os chama, a ambos, de "entes proponentes".

Uma universidade pública federal
Espaço de formação intelectual e circulação de jovens. Câmeras do Vigia Mais em funcionamento. Alta concentração de abordagens documentadas. Nenhuma consulta pública à comunidade acadêmica sobre a adesão ao programa.
Uma câmara de dirigentes lojistas
Cerca de 340 câmeras instaladas e integradas ao sistema estadual. Representa interesses do comércio organizado. Capacidade técnica e jurídica de negociar os termos da cooperação. Custo pago pelos associados — não pelos moradores das periferias monitoradas.
O que a Lei 11.766/2022 enxerga
Dois "entes proponentes" iguais perante o Art. 3º. Mesmo instrumento jurídico. Mesmos direitos e obrigações formais. A lei não vê a diferença entre eles — e é exatamente isso que a torna estruturalmente problemática.

Não há mapa público de pontos de instalação das câmeras em Cuiabá ou Várzea Grande. Essa ausência não é acidente técnico — é padrão nacional documentado por pesquisadores independentes em programas similares.

O que a Assembleia Legislativa votou — e o que não votou

A Assembleia nunca votou isso.

Em 2022, os deputados estaduais de Mato Grosso votaram a Lei 11.766. O que estava em pauta: câmeras para monitoramento de vias e espaços públicos. O que não estava em pauta — porque o texto da lei nunca previu, porque o debate nunca aconteceu:

Coleta de dados biométricos faciais de toda a população não votado
Armazenamento em nuvem americana (Amazon Web Services) não votado
Hardware de empresa chinesa com restrições geopolíticas internacionais não votado
Contrato com empresa de R$5.000 de capital para tratar biometria da população não votado
Ausência total de auditoria de viés racial do algoritmo não votado
Tudo isso foi instalado por decreto executivo, por termos de cooperação e por atas de registro de preços — sem nenhum retorno ao Legislativo. A democracia representativa funciona quando os representantes sabem o que estão votando. Em 2022, ou não sabiam — ou não quiseram saber. O resultado é o mesmo para você.
O que uma lei mal desenhada produz — além do que parece

A lei como catalisador.
Não como causa.

A Lei 11.766/2022 não criou o racismo, a desigualdade ou a violência policial. Ela os acelerou, automatizou e imunizou. O que vem a seguir não é o que o legislador intencionou. É o que estruturas mal desenhadas produzem quando encontram realidades que nunca foram ao seu encontro.

01
O que a lei produz diretamente
Consequências da arquitetura legal — não do programa
A cláusula de imunidade protege erros futuros, não só passadosO Art. 2º, §3º foi escrito no presente para exonerar o Estado de responsabilidade por falhas. Mas no momento em que uma pessoa é presa injustamente por um falso positivo — esse momento ainda não tinha acontecido quando a lei foi votada — a cláusula já estava lá, esperando. Não como descuido. Como blindagem preventiva. O Estado se protegeu antes que houvesse o que proteger.
O custo externalizado cria expansão sem freio políticoComo o programa não aparece no orçamento estadual, não existe linha no Legislativo para cortar. Não existe votação sobre ampliar ou reduzir. Cada câmera adicionada por um município ou empresa parceira expande a vigilância do Estado sem qualquer debate democrático. A lei criou um mecanismo de crescimento que não passa por aprovação — só por adesão.
A lacuna biométrica cria zona de impunidade regulatóriaComo a lei não menciona dados biométricos, nenhum órgão fiscalizador tem entrada jurídica clara para intervir. A autoridade federal reguladora de dados pessoais pode emitir notas técnicas. O Tribunal de Contas pode questionar contratações. Mas nenhum deles tem um artigo específico de uma lei estadual como base de atuação. O silêncio legislativo foi, na prática, uma licença.
02
Como a sociedade se adapta à lei
Reações que o legislador não previu
A adesão "voluntária" cria obrigação de fatoO Art. 6º diz que a habilitação é voluntária. Mas quando o Ministério Público de Mato Grosso emitiu notificação recomendatória forçando um município a instalar câmeras já entregues, a voluntariedade acabou. O que a lei chama de cooperação opcional está se tornando obrigação por pressão institucional. A palavra "voluntária" no texto da lei não corresponde mais à realidade da operação.
O silêncio sobre biometria é reproduzido pelos parceirosComo a lei não menciona dados biométricos, os termos de cooperação assinados por prefeituras e entidades também não mencionam. Uma associação comunitária que aderiu ao programa nunca votou, nunca debateu e nunca comunicou a seus membros que estaria coletando e transmitindo dados biométricos de quem passa na rua. O silêncio se propaga para baixo na cadeia de adesões.
A simetria jurídica fictícia é explorada pelos mais fortesA Câmara de Dirigentes Lojistas de Várzea Grande instalou 340 câmeras com capacidade de negociar os termos. Uma associação de moradores do CPA aderiu sem essa capacidade. Mas nos registros do CIOSP, ambas são "entes proponentes". A lei tratou desiguais como iguais — e quem soube usar isso foi quem já tinha poder para negociar.
03
O que isso produz em 5, 10 anos
Transformações que a lei tornou possíveis — e irreversíveis
A infraestrutura se torna impossível de desmontarCâmeras instaladas, contratos de manutenção assinados, hardware amortizado, sistemas integrados ao CIOSP. Cada ano de operação cria dependência técnica, burocrática e financeira que torna o programa mais caro para encerrar do que para continuar. A lei criou um mecanismo de adesão — mas não criou nenhum mecanismo de saída. Uma vez dentro, municípios e entidades ficam.
A ausência de responsabilidade cria impunidade algorítmica permanenteSe nenhum caso de falso positivo gerar responsabilização — porque a cláusula do Art. 2º, §3º e a opacidade do sistema dificultam o processo —, o programa aprende que pode errar sem consequências. Esse aprendizado institucional é o mais perigoso: sistemas que erram sem pagar o custo do erro não têm incentivo para parar de errar.
O modelo se torna template para outros estadosO Vigia Mais MT já foi apresentado como referência para estados da Amazônia Legal. A lei estadual que ele usa é um modelo replicável — incluindo todas as suas lacunas, imunidades e ausências. Cada estado que replica o modelo sem corrigir as brechas jurídicas multiplica a zona de impunidade regulatória. O problema não fica em Mato Grosso.
A analogia histórica que não deveria ser necessáriaNos anos seguintes à abolição, legislaturas brasileiras aprovaram Leis de Vadiagem com linguagem neutra de "ordem pública". Aplicadas cirurgicamente sobre corpos negros e pobres, produziram exatamente os resultados que a linguagem neutra permitia negar. A Lei 11.766/2022 não menciona raça. Não menciona classe. Usa linguagem técnica de "entes proponentes" e "funções analíticas de inteligência artificial". O resultado — documentado em 90,5% de pessoas negras presas por esses sistemas no Brasil — não precisa que a lei mencione raça para produzi-lo.
Uma lei que não menciona biometria mas autoriza reconhecimento facial. Uma cláusula de imunidade escrita antes dos danos acontecerem. Um modelo de financiamento que torna o crescimento invisível. Um mecanismo de adesão sem mecanismo de saída. Esses não são bugs da Lei 11.766/2022. São features — e elas funcionam exatamente como foram desenhadas.
Uma tensão que não vamos resolver por você

Duas leituras honestas.

Pesquisadores, advogados e ativistas que trabalham com esse tema não concordam sobre o que fazer com o que você leu até aqui. Apresentamos as duas posições sem hierarquizar — porque a divergência é real e você merece avaliá-la.

Leitura 1 — Os instrumentos existem e devem ser usados
A lei federal de proteção de dados pessoais, a autoridade federal reguladora, o Tribunal de Contas, a Lei de Acesso à Informação — esses instrumentos existem com precedentes reais de resultado. A ausência de relatório de impacto publicado, a contradição entre o que a empresa declarou ao regulador e o que faz na prática, a reestruturação societária às vésperas do contrato — são irregularidades documentadas em fontes primárias. Usar essas ferramentas pode forçar publicidade, suspender contratos e criar precedentes. Mudanças concretas são possíveis dentro do sistema.
Leitura 2 — A lei foi desenhada para não ser responsabilizada
A imunidade por falhas técnicas, o custo externalizado aos municípios, a ausência de menção a biometria, a simetria fictícia entre entes — não são descuidos. São design. Usar as ferramentas de responsabilização dentro de um sistema construído para resistir a elas pode produzir resultados pontuais sem alterar a lógica. O problema não é uma empresa de R$5.000 de capital ou um contrato mal redigido. É um modelo que entrega a vigilância de populações a interesses privados e externaliza os custos e os riscos para quem tem menos poder de resistir. Reformar por dentro pode ser necessário e insuficiente ao mesmo tempo.

As duas leituras podem ser verdadeiras ao mesmo tempo. Não vamos resolver essa tensão aqui. Ela é real. Você decide o que fazer com ela.

Caminhos concretos — com seus limites reais

O que é possível fazer agora.

LAI
Peça o mapa de instalação das câmeras Via Lei de Acesso à Informação, solicite à Secretaria de Segurança Pública de MT a lista de pontos de instalação em Cuiabá e Várzea Grande. A posição de uma câmera pública e ostensiva não é segredo de inteligência. Limite honesto: O órgão pode negar alegando segurança pública. Essa negativa, por si, já é dado público relevante que pode ser contestado.
LAI
Exija o Relatório de Impacto à Proteção de Dados A lei federal de proteção de dados pessoais exige que tratamentos de alto risco — como reconhecimento facial em massa — sejam precedidos de relatório de impacto publicado. O Vigia Mais MT não publicou nenhum. Você pode pedir formalmente à SESP-MT e à autoridade federal reguladora de dados pessoais. Limite honesto: Processos regulatórios são lentos. O programa continuará operando durante toda a apreciação.
TCE
Representação ao Tribunal de Contas do Estado Questione como uma empresa de R$5.000 de capital ganhou um contrato de R$1,5 milhão e foi reestruturada societariamente 24 horas antes de assinar. Esses fatos estão no Diário Oficial — são documentos primários públicos e verificáveis por qualquer pessoa. Limite honesto: O Tribunal de Contas já emitiu nota elogiosa ao programa. A postura institucional atual é favorável ao sistema, não fiscalizatória.
OAB / DP
Leve o argumento jurídico à Ordem dos Advogados ou à Defensoria Pública A distância entre o texto da lei e a operação real — o programa faz o que a lei nunca autorizou — é o argumento mais direto disponível e não requer formação jurídica para entender. Essas instituições podem avaliar a viabilidade de questionamento formal. Limite honesto: Não existe decisão do Supremo Tribunal Federal ou do Superior Tribunal de Justiça sobre reconhecimento facial em espaços públicos estaduais. O programa opera na zona de maior ambiguidade jurídica possível.
Documente
Registre se você foi abordado por esse sistema Anote: data, horário, local, nome e matrícula do policial, placa da viatura, o que foi dito. Casos documentados constroem o argumento empírico que falta — porque o sistema não registra seus próprios erros publicamente. Limite honesto: A subnotificação é sistêmica e intencional. Registrar não garante resultado. Mas a ausência de registros garante invisibilidade permanente.