DOSSIÊ: CONDENAÇÕES E ACUSAÇÕES INJUSTAS
Recepção: 15 Maio 2022
Revised document received: 17 Maio Maio Junho Junho Junho 2022
Aprovação: 17 Junho 2022
DOI: https://doi.org/10.22197/rbdpp.v8i2.720
Resumo: The overall complexity of the subject matter and the required high level of expertise make environmental crime investigations quite a challenging task for law enforcement. The clandestine nature of environmental offences combined with the environmental law’s intricacy is among the reasons behind prosecutorial failures. The authors analyze a criminal case regarding illegal deforestation, which eventually ended up in an acquittal. By retracing the steps that led to wrongful prosecution and accusations in this criminal case, the authors reflect on some legal and practical challenges concerning environmental crime investigations in Europe and in Poland, including the problem of timely detection of environmental infringements, the use of proper evidence-gathering procedures, as well as the issues related to the methodology of environmental damage assessment. In this regard, the authors analyze the provisions of the Environmental Compliance Assurance Guidance “Combating environmental crimes and related infringements” adopted by the EU Commission in 2021.
Palavras-chave: Reconhecimento fotográfico, Reconhecimento pessoal, Falsos reconhecimentos, Falsas memórias.
Abstract: A complexidade geral do tema e o alto nível de especialização exigido tornam as investigações de crimes ambientais uma tarefa muito desafiadora para a aplicação da lei. A clandestinidade das infrações ambientais combinada com a complexidade da lei ambiental está entre as razões das falhas de persecução. Neste artigo, analisa-se um processo criminal sobre desmatamento ilegal, que acabou em absolvição. Ao reconstituir os passos que levaram a persecuções e acusações injustas neste caso criminal, os autores refletem sobre alguns desafios jurídicos e práticos relativos às investigações de crimes ambientais na Europa e na Polônia, incluindo o problema da detecção em tempo de infrações ambientais, o uso de procedimentos adequados de obtenção de provas, bem como as questões relacionadas à metodologia de avaliação de danos ambientais. Nesse sentido, os autores analisam as disposições da Orientação de Garantia de Conformidade Ambiental “Combating environmental crimes and related infringements” adotada pela Comissão da UE em 2021.
Keywords: Photographic recognition, Personal recognition, False Recognition, False memories.
Sumário: Introdução; 1. Digital surveillance: as câmeras com reconhecimento facial; 2. Securitização pandêmica e proliferação do reconhecimento facial: medo, necessidade e inimigos; 3. Erros judiciários em reconhecimentos pessoais; 4. Reconhecimento facial por algoritmos: um novo capítulo nos erros judiciários; Considerações Finais; Referências.
Introdução
O aumento intensivo e extensivo das técnicas de controle e vigilância populacional, característico das estratégias securitárias3, proporcionado por drones, câmeras de vigilância interligadas a redes neurais profundas (deep learning) e outras das chamadas “novas tecnologias”, criadas no contexto da Revolução 4.0, produziu uma era de digital surveillance na qual são produzidos e reproduzidos discriminação, insegurança e erros judiciários4.
Este texto parte desse contexto para tomar uma posição crítica aos usos desses aparelhos, sobretudo em relação aos erros judiciários decorrentes do digital surveillance durante a quarentena estabelecida para reduzir a propagação da pandemia de coronavírus.
O objetivo geral é indagar como o reconhecimento facial pode produzir novos erros judiciários. Para tanto, aborda-se o uso de câmeras de monitoramento com reconhecimento facial para vigilância digital, analisa-se alguns aspectos do incremento das medidas securitárias durante a pandemia, investiga-se os erros judiciários em reconhecimentos de pessoas e explica-se como os erros judiciários podem ocorrer durante o uso dessas câmeras.
Questiona-se: como o reconhecimento facial por algoritmos pode produzir novos erros judiciários? A hipótese da qual se parte é que essa tecnologia, por um lado, não pode cumprir condições mínimas de avaliação de confiabilidade probatória, e, por outro, ao ser aplicada a imagens, não passa de uma atualização, em muitos casos bastante malfeita, dos problemáticos reconhecimentos fotográficos. Mais do que isso, vale-se de uma atualização das teorias constitutivas da criminologia etiológica individual, sobretudo da antropologia criminal de Cesare Lombroso5.
Tem-se como pressuposto que o uso das “novas tecnologias” para controle dos indivíduos, justificado, em tempos de pandemia, pela necessidade de combater o vírus – como se uma estratégia de guerra pudesse conter a proliferação da pandemia –, além de possibilitar a criação de uma total surveillance, tende a escamotear os erros analógicos no reconhecimento pessoal.
O estudo e o trabalho foram realizados pelo método hipotético-dedutivo, partindo-se da hipótese para confirmá-la ou refutá-la. Utilizou-se a técnica de pesquisa bibliográfica, com consulta a fontes documentais secundárias.
1. Digital surveillance: as câmeras com reconhecimento facial
As chamadas “novas tecnologias” surgiram no contexto da Revolução 4.0. A primeira revolução industrial foi impulsionada pela mecânica. A segunda, pela energia elétrica. A terceira, pela automação, possibilitada, dentre outros fatores, pela computação. A quarta, pelas “novas tecnologias”: inteligência artificial, big data, internet das coisas, impressão em três dimensões, bioengenharia e outras6.
Por surveillance, entende-se o conjunto de “práticas voltadas à vigilância, segurança e manipulação de dados” que “fazem parte do conjunto de ações dispostas no sentido de gerenciar comportamentos, dados e segurança”7, algo que foi “implantado no lugar dos meios de confinamento disciplinares”8 durante a crise das instituições, entendida como “implantação progressiva e dispersa de um novo regime de dominação.”9 Nesse sentido, as práticas de gerenciamento de comportamentos, dados e segurança estabelecidas a partir das “novas tecnologias” constituem a digital surveillance.
A digital surveillance não pode ser pensada em um eixo de fragmentação completa dessas novas tecnologias, tampouco pode sê-lo o problema das câmeras com reconhecimento facial. Isso porque não é possível obter o reconhecimento facial apenas com câmeras (hardware). É imprescindível o desenvolvimento de uma rede neural profunda (software), alimentada a partir de um grande conjunto de dados (big data) para realizar atividades de inteligência artificial fraca10.
A inteligência artificial (artificial intelligence) é fruto da tentativa de ensinar uma máquina (hardware) a simular a inteligência humana, ou seja, uma das técnicas de aprendizagem de máquina (machine learning)11. As redes neurais profundas (deep learning) são estruturas algorítmicas criadas em múltiplas camadas, cada qual formada por múltiplos pontos (chamados neurônios) que identificam partes de imagens, textos ou áudios, que, a partir dos dados (big data) utilizados no processo de treinamento, realizam inferências (predições12). Ademais, um amplo sistema de vigilância, no qual milhões de câmeras de vigilância estão integrados é impossível sem o uso da internet das coisas (internet of things).
A identificação facial é feita por meio da comparação entre os rostos dos indivíduos cujas imagens são capturadas e as imagens que alimentam os algoritmos (big data)13. Um algoritmo de inteligência artificial é treinado com fotos de milhões de rostos humanos e visa, a partir da identificação de pontos localizados nos rostos, encontrar convergências para poder predizer se a pessoa observada pela câmera é a mesma cuja imagem integra o banco de dados.
Ainda que existam esforços para melhoria dos já identificados baixos índices de precisão nos resultados dessas análises algorítmicas, mesmo a implementação de métodos diversos, como o uso de sensores LiDAR14, para acrescentar informações de profundidade à leitura bidimensional, mantém essencialmente a lógica de funcionamento da comparação entre imagens digitais a partir de uma base de dados predefinida, pois mesmo a leitura de profundidade com laser não faz mais do que criar outras imagens.
Inúmeros algoritmos com essa finalidade foram desenvolvidos e comercializados na indústria securitária. Dentre essas iniciativas está uma do Ministério da Justiça e Segurança Pública15. Mas o que aparentemente funcionaria muito bem, na verdade, funciona muito mal. Grande parte do trabalho ainda é realizado manualmente, por pessoas cujos microtrabalhos são invisíveis – ou propositalmente invisibilizados16.
A identificação facial por câmeras se choca com uma multiplicidade de limites, dentre os quais, destaca-se o direito à privacidade17 e a baixa acurácia dos algoritmos18 – cuja consequência é a proliferação de falsos positivos. Em razão desses falsos positivos, diversas iniciativas foram e continuam a ser tomadas contra a difusão dessa técnica de identificação pessoal no âmbito da segurança pública19, com efeitos potenciais no processo penal, seja porque os elementos de investigação continuam sendo utilizados, ainda que parcialmente, como provas (tanto porque o art. 158 do CPP autoriza o “cotejo” com elementos do inquérito, quanto porque a determinação de não apensamento dos autos da investigação ao processo, prevista no art. 3º-C, § 3º, do CPP, está com eficácia suspensa indefinidamente devido à medida liminar deferida na ADI 6.299), seja porque o reconhecimento facial pode vir a ser erroneamente considerado prova antecipada e/ou o relatório do reconhecimento facial pode vir a ser apresentado como “prova documental”.
2. Securitização pandêmica e proliferação do reconhecimento facial: medo, necessidade e inimigos
A rápida propagação do coronavírus, a baixa capacidade de atendimento aos contaminados, bem como a redução dos investimentos em saúde nas últimas décadas são alguns dos fatores de insegurança e medo com a disseminação do coronavírus causador de síndrome respiratória aguda grave. O contexto de medo, correlato psíquico da arte governamental chamada liberalismo, serve de justificativa para a edição de medidas securitárias de restrição das liberdades individuais20.
Daí as duras críticas de Giorgio Agamben aos italianos que, de acordo com ele, só se preocupam com a vida nua21 em detrimento da política22. Se, por um lado, essas críticas parecem despreocupadas com a vida, por outro lado, não se mostraram tão equivocadas, pois o estado de exceção se instala sempre a partir de uma necessidade23 – neste caso, de combater o perigo (contágio) que causa medo.
Portanto, o medo do contágio por uma doença serviu de fundamento para demonstrar a necessidade das medidas securitárias que gerenciam a liberdade e transformam, permanentemente, a exceção em regra geral24. A análise de Byung-Chul Han acerca da profusão do uso de câmeras de vigilância, interligadas a redes neurais, para atividades de reconhecimento facial e punição dos violadores da quarentena, contém indicativos de uma modificação relevante das estratégias de controle social utilizando novas tecnologias25:
Na China existem 200 milhões de câmeras de vigilância, muitas delas com uma técnica muito eficiente de reconhecimento facial. Captam até mesmo as pintas no rosto. Não é possível escapar da câmera de vigilância. Essas câmeras dotadas de inteligência artificial podem observar e avaliar qualquer um nos espaços públicos, nas lojas, nas ruas, nas estações e nos aeroportos. [...] Na China e em outros Estados asiáticos como a Coreia do Sul, Hong Kong, Singapura, Taiwan e Japão não existe uma consciência crítica diante da vigilância digital e o big data. A digitalização os embriaga diretamente. Isso obedece também a um motivo cultural. Na Ásia impera o coletivismo. [...] Ao que parece o big data é mais eficaz para combater o vírus do que os absurdos fechamentos de fronteiras que estão sendo feitos nesses momentos na Europa. Graças à proteção de dados, entretanto, não é possível na Europa um combate digital do vírus comparável ao asiático. Os fornecedores chineses de telefonia celular e de Internet compartilham os dados sensíveis de seus clientes com os serviços de segurança e com os ministérios de saúde. O Estado sabe, portanto, onde estou, com quem me encontro, o que faço, o que procuro, em que penso, o que como, o que compro, aonde me dirijo. É possível que no futuro o Estado controle também a temperatura corporal, o peso, o nível de açúcar no sangue etc. Uma biopolítica digital que acompanha a psicopolítica digital que controla ativamente as pessoas26.
Apesar dos exageros de Han com a acurácia das tecnologias de reconhecimento facial, trata-se de constatações oportunas acerca da conformação de um complexo tecnológico de controle e vigilância dos corpos (corpo-indivíduo e corpo-espécie27), a partir das quais é possível compreender o interesse crescente no reconhecimento facial.
Das promessas de salvação e resolução de todos os problemas28 (solucionismo tecnológico29), as novas tecnologias, em geral, e a inteligência artificial, em particular, foram transpostas ou, em todo caso, adaptadas para o controle penal da população30. O reconhecimento facial pode ser utilizado não somente para fiscalizar o cumprimento de confinamentos, mas, com muito mais eficácia, para patrulhamento de locais abertos, mas com baixa efetividade, não raro atingindo alvos errados, tanto por conta dos vieses algorítmicos subjacentes31, quanto por causa da alta taxa de erros32.
No caso específico do governo federal brasileiro, a transposição se deu diretamente, sem passagem pelos aspectos sanitários33. Apesar da pouca preocupação com o número de doentes no país durante a pandemia34, houve bastante interesse na implementação de novas estratégias de digital surveillance, escancaradamente voltadas não para a contenção do vírus, mas para a caça de opositores políticos35: comunistas, antifas e outros grupos taxados de (pré-)terroristas36. Medidas securitárias implementadas a fim de combater um inimigo ilusório37 – ou real, se a democracia puder ser chamada de “inimiga”.
3. Erros judiciários em reconhecimentos pessoais
A preocupação com os erros judiciários produziu, como um de seus principais efeitos, a criação da presunção de inocência, isto é, de “uma opção garantista de civilidade”38. A possibilidade de erros judiciários é inerente ao julgamento, um ato judicial a ser realizado diante de uma dúvida que se abre ao julgador: inocente ou culpado?39 Daí que alguns afirmam a inevitabilidade de erros40, em muitos casos parecendo esquecer-se da possibilidade democrática de escolha de preferências41.
A principal causa apontada para os erros judiciários (rectius: o principal erro judiciário) é a equivocada identificação de suspeitos por testemunhas42. Inúmeros fatores que podem influenciar nesses erros: (a) ausência de documentação do procedimento investigatório; (b) apresentação, pela polícia, da foto de um único suspeito; (c) formação de linhas de identificação com pessoas sem características físicas semelhantes; (d) identificação de voz pela testemunha (earwitness identification); (e) sugestão, pela polícia, do suspeito a escolher; (f) confirmação, pela polícia, de que o suspeito escolhido foi o correto; (g) informação, pela polícia, de que o suspeito está na linha de identificação ou de que sua foto está entre as fotos apresentadas; e (h) utilização, pela polícia, de técnicas de hipnose43.
Como se pode ver, a polícia desempenha um papel fundamental no desencadeamento dos erros judiciários, ou na sua evitação. Por isso, frequentemente estão presentes, em um mesmo caso, mais de uma das tradicionalmente chamadas “causas”. Há, nesse sentido, uma relação de complementação e reforço entre os erros, a qual resulta, ao fim e ao cabo, na paradoxal produção de um acertamento do caso penal44 a partir de erros45. Isso é possível devido às presunções de não erro operantes no sistema penal: além de presumirem que não erram, os atores do sistema penal presumem que eventuais erros praticados serão corrigidos adiante. Aliás, a tendência é que a existência de instituições com finalidades de garantir direitos seja interpretada como garantia mesma de que erros não existem ou, se existirem, serão corrigidos46.
Assim é que policiais assumem que eventuais erros serão corrigidos pelos promotores ou juízes, promotores assumem que policiais não erraram, mas que, se tiverem errado, o judiciário poderá corrigir, e o judiciário assume que ninguém errou, mas, se houver erro, as instâncias superiores corrigirão. As instâncias superiores, contudo, tendem a também presumir que ninguém errou47.
Daí advém dois grupos de consequências. Primeiro, as preocupações com a qualidade da memória. Nos Estados Unidos, o caso Neil v. Biggers (1976), no qual a Suprema Corte dos Estados Unidos cunhou critérios de avaliação da confiabilidade dos depoimentos testemunhais48. No Brasil, mais recentemente, foram julgados pelo Superior Tribunal de Justiça o habeas corpus 598.886, no qual a observância do art. 226 do Código de Processo Penal se tornou compulsória49, e, em seguida, o habeas corpus 652.284, em sede do qual a Corte decidiu pela invalidade da substituição do reconhecimento pessoal por reconhecimento fotográfico50. Segundo, as preocupações com as coincidências de erros51 em um mesmo caso penal, principalmente com sugestionabilidade52 criadora das falsas memórias53 (correlato testemunhal da cross-contamination dos vestígios54), efeito multiplicador (multiplying effect)55 e efeito bola de neve (snowball effect)56.
4. Reconhecimento facial por algoritmos: um novo capítulo nos erros judiciários
Em meio aos profundos problemas nos quais a identificação pessoal57, em particular, e o depoimento testemunhal, em geral, estão imersos, a tecnologia novamente desponta como candidata a salvadora do sistema penal58. Não somente em relação às testemunhas, mas aos meios de prova em geral59.
Assim é que as apostas em aparelhos tecnológicos para realizar a identificação facial se deve, dentre outros motivos, aos recorrentes casos de má-identificação de suspeitos pelas testemunhas, os quais figuram, há décadas, entre os principais erros judiciários60. Num primeiro momento a iniciativa parece importante e acertada. Mas essa impressão é desfeita facilmente. Basta acompanhar as várias notícias sobre o fracasso da identificação facial por meio de inteligência artificial para que se perceba que o remédio é pior que o veneno61.
Uma das iniciativas mais invasivas e preocupantes é a chinesa. Não se trata somente do monitoramento, mas da implementação e operacionalização de um sistema de pontuação social, com aplicação de recompensas e punições por um algoritmo de inteligência artificial. Ações como a compra de bebidas, infrações de trânsito e outros comportamentos considerados prejudiciais são punidos com a redução da pontuação social. As pessoas com baixa pontuação são impedidas de frequentar determinados lugares, de viajar, de obter determinados empregos etc. Um dos casos que colocam em xeque o sistema envolveu Hu, que teve o score social reduzido e ficou impossibilitado de realizar diversas atividades rotineiras62.
Apesar de não parecer existir aí uma relação direta com o sistema penal, tanto tal sistema pode ser adaptado para a persecução penal, quanto a não adaptação implica em evasão da presunção de inocência por meio de ordens civis de fiscalização sem aplicação de pena63 (equivalente ao monitoramento eletrônico, previsto no art. 319, IX, do Código de Processo Penal, mas desvinculado da “inconveniente necessidade” de fumus comissi delicti – cautelaridade sem cautela, sem acessoriedade e ilimitada). Dito de outro modo, o sistema é customizável e a mera existência já implica em um tratamento de todos como criminosos em potencial64.
Além dos problemas que podem envolver esses sistemas de pontuação social, com punições desproporcionais e técnicas invasivas, tem-se os recentes casos de fracasso do sistema para a identificação facial e de escândalos de privacidade – decorrentes do vazamento de dados de milhões de usuários em todo o mundo.
Na China, o algoritmo de identificação facial confundiu uma mulher com a foto de uma celebridade, estampada na parte de trás de um ônibus, e aplicou uma punição a alguém que nunca esteve fisicamente no local65. Em Londres, o sistema de monitoramento utilizado para capturar fugitivos identificou erroneamente pessoas em 81% das vezes66. Em São Francisco, a identificação facial por sistemas de câmeras foi banida pelo legislativo municipal67. Na Nova Zelândia, um sistema da ClearView IA foi utilizado pela polícia sem aprovação, bem como foi constatado que o sistema não funciona68.
Para agravar esse quadro, a pandemia de coronavírus parece ter justificado quaisquer medidas. A digital surveillance perpassa as relações sociais, econômicas, jurídicas e políticas, aparentemente conduzindo as sociedades contemporâneas rumo a uma total surveillance, para a qual o rigoroso controle biopolítico dos indivíduos, inicialmente justificado a pretexto da necessidade de conter a circulação do vírus69, começa a se manifestar no sistema penal70. As chances de erros judiciários são elevadas em razão do incremento das iniciativas de surveillance e podem legitimar sanções desproporcionais a quem for confundido com descumpridor das medidas securitárias da quarentena, assim como a persecução penal de quem for confundido com um suspeito ou foragido. Os drones podem ser determinantes para isso, mas têm potencial para produção de um complexo maquínico de extermínio71.
Por fim, tendo em vista os recentes julgados do Superior Tribunal de Justiça acerca do reconhecimento pessoal, há que se reconhecer que, por um lado, o art. 226 do Código de Processo Penal (descrição do suspeito pela testemunha/vítima72, formação de linha de identificação com outras pessoas com características físicas semelhantes, providenciar que a testemunha/vítima não seja vista, caso se sinta ameaçada, e lavratura de auto de identificação pormenorizado) não pode ser cumprido por inteligência artificial, e, por outro, os algoritmos só podem funcionar com base em fotografias e vídeos (imagens individualizadas ou agrupadas), de modo que se trata sempre de reconhecimento fotográfico inválido73.
Considerações finais
O uso das “novas tecnologias” produz e reproduz incertezas. Há quem diga que os humanos serão substituídos pelas máquinas, bem como quem negue essa possibilidade74. Muitos cientistas de dados permanecem otimistas quanto ao futuro, apostando numa contribuição dessas tecnologias para que os humanos possam ter tempo livre a dedicar para atividades criativas – pressupondo uma bondade imanente aos proprietários das empresas tecnológicas75.
Durante a pesquisa aqui relatada, constatou-se que vários eventos destoam das supostas potencialidades, sobretudo da inteligência artificial, no campo da identificação facial. Mas não se cogita de uma via de acesso reformista que permita “ajustar” os algoritmos para que labutem melhor. Por um lado, é verdadeiro que se trata de uma tendência nas medidas securitárias que, possivelmente, se tornará preponderante nos próximos anos. Por outro, não parece possível substituir o trabalho humano, tampouco evitar os erros algorítmicos.
Não se parte da ingenuidade. Sabe-se que não se está a tratar do futuro, mas do presente. Contudo, é possível criar estratégias de resistência76, bem como de redução de erros judiciários daí decorrentes. Também é imprescindível que se o faça, pois as falhas do presente não impedirão a atualização e a reapresentação da proposta no futuro77. Por tudo isso, pensa-se que a hipótese de pesquisa foi confirmada, bem como que os algoritmos de reconhecimento facial não podem ser admitidos como meios de obtenção de fonte de prova no processo penal.
Acknowledgement
Agradecemos aos avaliadores A e C pelas considerações e sugestões.
Referências
AGAMBEN, Giorgio. A propósito de Tiqqun. In: TIQQUN. Contribuição para a guerra em curso. São Paulo: n-1 edições, 2019.
AGAMBEN, Giorgio. Chiarimenti. Quodlibet, 17 mar. 2020. Disponível em: <https://www.quodlibet.it/giorgio-agamben-chiarimenti>. Acesso em: 06 jun. 2020.
AGAMBEN, Giorgio. Estado de exceção. Trad. Iraci D. Poleti. São Paulo: Boitempo, 2004.
ASHWORTH, Andrew. Four threats to the presumption of innocence. The international jornal of evidence & proof, v. 10, p. 241-279, 2006. https://doi.org/10.1350/ijep.10.4.241
AMARAL, Augusto Jobim do. A governamentalidade em tempos securitários. In: SILVEIRA, Clovis Eduardo Malinverni; GRAZIANO SOBRINHO, Sergio Francisco Carlos. (Org.). Direito, risco e sustentabilidade: abordagens interdisciplinares. Caxias do Sul: EDUCS, 2017.
AMARAL, Augusto Jobim do. O dispositivo inquisitivo: entre a ostentação penal e a estética política do processo penal. 2014. 499 f. Tese (Doutorado em Ciências Criminais). Pontifícia Universidade Católica do Rio Grande do Sul, Porto Alegre, 2014.
AMARAL, Augusto Jobim do; DIAS, Felipe da Veiga. Surveillance e as “novas” tecnologias de controle biopolítico. Veritas, Porto Alegre, v. 64, n. 1, e-33427, 2019. https://doi.org/10.15448/1984-6746.2019.1.33427
BALSAMINI, Dean. NYC facial-recognition software company sued over privacy, civil liberties issues. New York Post, 16 maio 2020. Disponível em: <https://nypost.com/2020/05/16/clearview-ai-sued-over-privacy-civil-liberties-issues>. Acesso em: 13 maio 2022.
BENJAMIN, Walter. Sobre o conceito da história. In: BENJAMIN, Walter. Magia e técnica, arte e política. Obras escolhidas. 3. ed. Trad. Sergio Paulo Rouanet. São Paulo: Brasiliense, 1987.
BIG Brother Watch. Big Brother Watch briefing on facial recognition surveillance. Londres: Big Brother Watch, 2020.
BRASIL. Ministério da Indústria, Comércio e Serviços. Indústria 4.0. Disponível em: <http://www.industria40.gov.br>. Acesso em: 06 jun. 2020.
BRASIL. Ministério da Justiça e Segurança Pública. Ministério entrega aos estados primeiras ferramentas de Big Data e Inteligência Artificial para combater a criminalidade. Disponível em: <https://www.justica.gov.br/news/collective-nitf-content-1566331890.72>. Acesso em: 13 maio 2022.
BRASIL. Superior Tribunal de Justiça. Sexta turma. Habeas corpus 598.886. Rel. Min. Rogério Schietti Cruz, j. em 27 out. 2020. Disponível em: <https://processo.stj.jus.br/processo/revista/documento/mediado/?componente=ITA&sequencial=1996943&num_registro=202001796823&data=20201218&formato=PDF>. Acesso em: 13 maio 2022.
BRASIL. Superior Tribunal de Justiça. Quinta turma. Habeas corpus 652.284. Rel. Min. Reynaldo Soares da Fonseca, j. em 27 abr. 2021. Disponível em: <https://processo.stj.jus.br/processo/revista/documento/mediado/?componente=ITA&sequencial=2048532&num_registro=202100769343&data=20210503&formato=PDF>. Acesso em: 13 maio 2022.
BYLER, Darren. Cómo la COVID-19 popularizó las tecnologías de vigilancia china. Trad. Ana Milutinovic. MIT Technology Review, 18 out. 2021. Disponível em: <https://www.technologyreview.es/s/13722/como-la-covid-19-popularizo-las-tecnologias-de-vigilancia-china>. Acesso em: 13 maio 2022.
CANI, Luiz Eduardo; MORAIS DA ROSA, Alexandre. Guia para a mitigação dos erros judiciários no processo penal. Florianópolis: EMais, 2022.
CARNELUTTI, Francesco. As misérias do processo penal. Trad. José Antonio Cardinalli. São Paulo: Conan, 1995.
CARNEY, Matthew. Leave no dark corner. China is building a digital dictatorship to exert control over its 1.4 billion citizens. For some, “social credit” will bring privileges – for others, punishment. ABC News, Sidney, 17 set. 2018. Disponível em: <https://mobile.abc.net.au/news/2018-09-18/china-social-credit-a-model-citizen-in-a-digital-dictatorship/10200278>. Acesso em: 13 maio 2022.
CHAMAYOU, Grégoire. Teoria do drone. Trad. Célia Euvaldo. São Paulo: Cosac Naify, 2015.
CLIFTON, Judith; GLASMEIER, Amy; GRAY, Mia. When machines think for us: consequences for work and place. Social Europe, 14 maio 2020. https://doi.org/10.1093/cjres/rsaa004
COHEN, Stanley. Convicting the innocent. Death row and America’s broken system of justice. Nova Iorque: Skyhorse, 2016.
COUTINHO, Jacinto Nelson de Miranda. A lide e o conteúdo do processo penal. Curitiba: Juruá, 1998.
DELEUZE, Gilles. Post-scriptum sobre as sociedades de controle. In: DELEUZE, Gilles. Conversações (1972-1990). Trad. Peter Pál Pelbart. São Paulo: Editora 34, 2013.
DRISHTI. The big picture: facial recognition - uses & concerns. Disponível em: <https://www.drishtiias.com/loksabha-rajyasabha-discussions/the-big-picture-facial-recognition-uses-concerns>. Acesso em: 13 maio 2022.
ESTADOS Unidos da América. Supreme Court. Neil v. Biggers (1972). Disponível em: <https://caselaw.findlaw.com/us-supreme-court/409/188.html>. Acesso em: 13 maio 2022.
FOUCAULT, Michel. História da sexualidade 1: a vontade de saber. Trad. Maria Thereza da Costa Albuquerque e José Augusto Guilhon de Albuquerque. 9. ed. São Paulo: Paz e Terra, 2019.
FOUCAULT, Michel. Nascimento da biopolítica. Curso dado no Collège de France (1978-1979). Trad. Eduardo Brandão. São Paulo: Martins Fontes, 2008.
GARRETT, Brandon L. Autopsy of a crime lab: exposing the flaws in forensics. Oakland: California University Press, 2021.
GARRETT, Brandon L. Convicting the innocent. Where criminal prosecutions go wrong. Cambridge: Harvard University Press, 2011. https://doi.org/10.4159/harvard.9780674060982
GIVELBER, Daniel. The adversary system and historical accuracy. Can we do better?. In: HUMPHREY, John A.; WESTERVELT, Saundra D. (Ed.). Wrongly convicted: perspectives on failed justice. Nova Jérsei: Rutgers University Press, 2001.
GODSEY, Mark. Blind injustice. A former prosecutor exposes the psychology and politics of wrongful convictions. Oakland: California University Press, 2017. https://doi.org/10.1525/9780520962958
HAN, Byung-Chul. O coronavírus de hoje e o mundo de amanhã, segundo o filósofo Byung-Chul Han. El País Brasil, 22 mar. 2020. Disponível em: <https://brasil.elpais.com/ideas/2020-03-22/o-coronavirus-de-hoje-e-o-mundo-de-amanha-segundo-o-filosofo-byung-chul-han.html>. Acesso em: 13 maio 2022.
HARCOURT, Bernard E. Against prediction: profiling, policing, and punishing in an actuarial age. Chicago: University of Chicago Press, 2006. https://doi.org/10.1086/588243
HENRY, Jessica S. Smoke but no fire. Convicting the innocent of crimes that never happened. Oakland: University of California Press, 2020.
INNOCENCE Project. Eyewitness identification reform. Disponível em: <https://www.innocenceproject.org/eyewitness-identification-reform>. Acesso em: 13 maio 2022.
JEE, Charlote. London police’s face recognition system gets it wrong 81% of the time. MIT Technology Review, 04 jul. 2019. Disponível em: <https://www.technologyreview.com/2019/07/04/134296/london-polices-face-recognition-system-gets-it-wrong-81-of-the-time>. Acesso em: 13 maio 2022.
KLINGBEIL, Lars; MEYER, Henning. Robots won’t make us redundant. Social Europe, 14 maio 2020. Disponível em: <https://www.socialeurope.eu/robots-wont-make-us-redundant>. Acesso em: 13 maio 2022.
KNIGHT, Will. IMB’s withdrawal won’t mean the end of facial recognition. Wired, 10 jun. 2020. Disponível em: <https://www.wired.com/story/ibm-withdrawal-wont-mean-end-facial-recognition>. Acesso em: 13 maio 2022.
KO, Kyoungmin; et al. SqueezeFace: Integrative Face Recognition Methods with LiDAR Sensors. Journal of Sensors, v. 2021, 4312245, pp. 1-8, 2021, p. 1-2. https://doi.org/10.1155/2021/4312245
LÁZARO, Natália. Prefeitos recomendam lockdown nacional contra a covid-19. Uol, Brasília, 12 mar. 2021. Disponível em: <https://noticias.uol.com.br/saude/ultimas-noticias/redacao/2021/03/12/fnp-prefeitos-lockdown-nacional-covid-19-governo-federal-criticas.htm>. Acesso em: 13 maio 2022.
LEE, Dave. San Francisco is first US city to ban facial recognition. BBC, 15 maio 2019. Disponível em: <https://www.bbc.com/news/technology-48276660>. Acesso em: 13 maio 2022.
LIAO, Shannon. Chinese facial recognition system mistakes a face on a bus for a jaywalker. The Verge, 22 nov. 2019. Disponível em: <https://www.theverge.com/2018/11/22/18107885/china-facial-recognition-mistaken-jaywalker>. Acesso em: 13 maio 2022.
LOMBROSO, Cesare. L’uomo delinquente in rapporto all’antropologia, alla giurisprudenza ed alla psichiatria. 5. ed. Turim: Fratelli Bocca, 1897.
LUCHINI, Claudio; PEA, Antonio; SCARPA, Aldo. Artificial intelligence in oncology: current applications and future perspectives. British Journal of Cancer, v. 126, pp. 4-9, 2022. https://doi.org/10.1038/s41416-021-01633-1
LYU, Shing. Practical rust projects. Building game, physical computing, and machine learning applications. Nova Iorque: Apress, 2020. https://doi.org/10.1007/978-1-4842-5599-5
MAGALHÃES, Marina Trindade. O reconhecimento pessoal e a psicologia judiciária: falibilidade do testemunho como reforço do etiquetamento e violação ao in dubio pro reo. Revista Brasileira de Direito Processual Penal, Porto Alegre, v. 6, n. 3, pp. 1699-1731, 2020. https://doi.org/10.22197/rbdpp.v6i3.339
MATIDA, Janaína; CECCONELLO, William Weber. Reconhecimento fotográfico e presunção de inocência. Revista Brasileira de Direito Processual Penal, Porto Alegre, v. 7, n. 1, pp. 409-440, 2021. https://doi.org/10.22197/rbdpp.v7i1.506
MENDES, Lucas. TCU suspende licitação de sistema espião pelo Ministério da Justiça. Poder 360, 10 nov. 2021. Disponível em: <https://www.poder360.com.br/governo/tcu-suspende-licitacao-de-sistema-espiao-pelo-ministerio-da-justica>. Acesso em 15 maio 2021.
MENDES, Paulo de Sousa. Causalidade complexa e prova penal. Coimbra: Almedina, 2018.
MORAIS DA ROSA, Alexandre. A questão digital: o impacto da inteligência artificial no Direito. Revista de Direito da Faculdade Guanambi, v. 6, n. 2, e259, 2019. https://doi.org/https://doi.org/10.29293/rdfg.v6i02.259
MOROZOV, Evgeny. Solucionismo, nova aposta das elites globais. Outras Palavras, 23 abr. 2020. Disponível em: <https://outraspalavras.net/tecnologiaemdisputa/solucionismo-nova-aposta-das-elites-globais>. Acesso em: 13 maio 2022.
NEUFELD, Carmem Beatriz; BRUST, Priscila Goergen; STEIN, Lilian Milnitsky. Compreendendo o fenômeno das falsas memórias. In: STEIN, Lilian Milnitsky et al. Falsas memórias: fundamentos científicos e suas aplicações clínicas e jurídicas. Porto Alegre: Artmed, 2010.
O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. Nova Iorque: Broadway Books, 2016.
REDAÇÃO. Empresa de reconhecimento facial Clearview AI será investigada no Canadá. Veja, 26 fev. 2020. Disponível em: <https://veja.abril.com.br/tecnologia/empresa-de-reconhecimento-facial-clearview-ai-sera-investigada-no-canada>. Acesso em: 13 maio 2022.
REDAÇÃO. Surveillance capitalism meets the coronavirus shock doctrine. The Intercept, 20 maio 2020. Disponível em: <https://theintercept.com/2020/05/20/coronavirus-surveillance-naomi-klein-shoshana-zuboff>. Acesso em: 06 jun. 2020.
ROCHA, Camilo. O trabalho humano escondido atrás da inteligência artificial. Nexo, 18 jun. 2019. Disponível em: <https://www.nexojornal.com.br/expresso/2019/06/18/O-trabalho-humano-escondido-atr%C3%A1s-da-intelig%C3%AAncia-artificial>. Acesso em: 13 maio 2022.
SALVÀ, Peppe. “Deus não morreu. Ele tornou-se Dinheiro”. Entrevista com Giorgio Agamben. Trad. Selvino José Assmann. Blog da Boitempo, São Paulo, 31 ago. 2012. Disponível em: <https://blogdaboitempo.com.br/2012/08/31/deus-nao-morreu-ele-tornou-se-dinheiro-entrevista-com-giorgio-agamben>. Acesso em: 13 maio 2022.
SANTOS, Alexandre. Câmeras de reconhecimento facial acham criminoso no Carnaval de Salvador. Uol, Salvador, 05 mar. 2019. Disponível em: <https://noticias.uol.com.br/cotidiano/ultimas-noticias/2019/03/05/cameras-de-reconhecimento-facial-acham-criminoso-no-carnaval-de-salvador.htm>. Acesso em: 08 jun. 2022.
SCHECK, Barry; NEUFELD, Peter. DNA and innocence scholarship. In: HUMPHREY, John A.; WESTERVELT, Saundra D. (Ed.). Wrongly convicted: perspectives on failed justice. Nova Jérsei: Rutgers University Press, 2001.
SMITH, Mackenzie. Police searched for suspects in unapproved trial of facial recognition tech. RNZ, 15 maio 2020. Disponível em: <https://www.rnz.co.nz/news/national/416697/police-searched-for-suspects-in-unapproved-trial-of-facial-recognition-tech-clearview-ai>. Acesso em: 13 maio 2022.
VARON, Joana. Bem na sua cara: a ilusão do reconhecimento facial para segurança pública. Coding Rights, 04 maio 2019. Disponível em: <https://medium.com/codingrights/bem-na-sua-cara-a-ilus%C3%A3o-do-reconhecimento-facial-para-seguran%C3%A7a-p%C3%BAblica-47c708b34820>. Acesso em: 13 maio 2022.
ZAFFARONI, Eugenio Raúl. La estructura inquisitorial. In: ZAFFARONI, Eugenio Raúl. La cuestión criminal. Buenos Aires: Planeta, 2012.
Notas
Autor notes
Luiz Eduardo Cani: conceptualization, methodology, data curation, investigation, writing – original draft, validation, writing – review and editing, final version approval.
João Alcantara Nunes: conceptualization, methodology, data curation, investigation, writing – original draft, validation, writing – review and editing, final version approval.
Editor-in-chief: 1 (VGV)
Associated-editor: 2 (MC KF)
Reviewers: 2
luiz@acaz.lawjoao@acaz.law
Declaração de interesses