Em Pauta/Agenda
Corpo-drone: Governamentalidade algorítmica e a modulação espaço-imagética
Drone-body: Algorithimic governmentality and the imagery-space modulation
Corpo-drone: Governamentalidade algorítmica e a modulação espaço-imagética
Matrizes, vol. 15, núm. 1, pp. 147-168, 2021
Universidade de São Paulo
Recepción: 06 Diciembre 2020
Aprobación: 19 Marzo 2021
Resumo: Este texto trata da modulação espaço-imagética por meio dos algoritmos. Seguimos em quatro movimentos. O primeiro apresenta as lentes de Realidade Aumentada como dispositivos capazes de reconectar duas linhagens tecnológicas: a imagética e a locomotiva. O segundo discute transversais entre a cibernética e a Inteligência Artificial, a abrangência ilimitada da ação algorítmica e a renovação dos anseios por uma ultrapassagem do homem. O terceiro aborda os algoritmos como armadilhas cognitivas. Por último, são buscadas pistas em sistemas de biometria facial e carro autônomo para discutir a incorporação dos sistemas visuais de digitalização do espaço. Da somatória desses tópicos é proposta a noção de corpo-drone.
Palavras-chave: Corpo, drone, algoritmos, imagem, espaço.
Abstract: This text deals with space-imagery modulation by means of algorithms. We followed in four movements. The first presents Augmented Reality lenses as devices capable of reconnecting two technological lines: the imagery and the locomotive. The second discusses cross-cutting between cybernetics and Artificial Intelligence, the unlimited scope of algorithmic action and the renewal of longings for an overtaking of man. The third addresses the algorithms as cognitive traps. Finally, clues are sought in facial biometrics and autonomous car systems to discuss the incorporation of visual space digitization systems. From the sum of these topics, the notion of body-drone is proposed.
Keywords: Body, drone, algorithms, image, space.
INTRODUÇÃO
O presente artigo se interessa por acompanhar os vetores de subjetivação capitalística em aproximação com o que nos idos dos anos 1970 Michel Foucault chamou de governamentalidade. Se o pensador francês, falecido em 1984, foi pródigo em mapear alguns modos desta dinâmica microfísica do poder junto à disciplina e ao biopoder, é preciso fazer com que essa espécie de método analítico por ele erigido persista em direção aos novos diagramas sociopolíticos, os quais ele não experienciou. Gilles Deleuze já havia antevisto essa necessidade no curso que ministrou no Centro Universitário de Vincennes em homenagem ao amigo recém-falecido, ao anunciar as sociedades de controle. Nesse sentido, seguindo a analítica foucaultiana e levando-a para além de Foucault, torna-se impossível não investigar de perto a força com que os algoritmos têm modulado o capitalismo e a subjetividade contemporânea – e nos parece que os caminhos cruzados da tecnologia, das ciências humanas, dos jogos de visibilidade e da gestão das existências nos conduzem àquilo que, de um modo ainda tateante, chamamos aqui de um corpo-drone.
***
Em junho de 2020, cinco anos após declarar o abandono do projeto GoogleGlass (Bilton, 2015), a Google anunciou a compra da North, empresa pioneira no desenvolvimento de dispositivos de Realidade Aumentada (RA)1. Rick Osterloh, responsável pelo setor de hardwares da Google, diz que a nova aquisição será fundamental para o avanço da computação ambiental2: distribuição das funções computacionais pelo espaço de modo que sua ação se torne constante e imperceptível ao mesmo tempo. Essa fusão empresarial parece ser o indício de um vetor3 de diluição das funções algorítmicas no espaço e de uma sofisticação daquilo que Antoinette Rouvroy e Thomas Berns (2018) conceituaram como governamentalidade algorítmica.
A governamentalidade algorítmica se caracteriza pela operação simultânea de quatro mecanismos: captação, armazenamento e processamento automáticos e massivos de dados e intervenção automatizada e personalizada sobre os comportamentos. Se consideradas estritamente em sua função de coleta de dados, as máquinas algorítmicas parecem estar em estado já bastante avançado de dissolução espacial – câmeras inteligentes, sistemas de localização, dispositivos vestíveis, sensores de presença, medidores biométricos, sistemas de cartão, superfícies sensíveis e drones vigilantes são alguns exemplos. No entanto, como interface relacional imediata, cotidiana e automatizada sobre as condutas, ainda parecem bastante restritas ao enquadramento imagético das telas4.
Ainda que ofereçam um sem-número de possibilidades operacionais, que tenham ganhado autonomia energética, mobilidade e estejam cada vez mais espalhadas pelos espaços, as telas opacas não permitem atividades visuais sincrônicas: rivalizam visualmente com o entorno espacial imediato e, portanto, com o deslocamento do corpo. A tela exige uma operação atencional de anulação do entorno (Crary, 2013). Com as lentes de RA, porém, ela deixa de ser a interface algorítmica privilegiada de conexão entre o olho e a imagem e torna-se possível a realização das duas pontas da governamentalidade algorítmica – captura e resposta – de modo completamente distribuído e móvel – e não pela proliferação das telas como ocorre desde o surgimento dos smartphones. Essa novidade dispara uma inflexão radical sobre a história das tecnologias modernas – reorganiza-a, ajustando seus formatos tradicionais aos vetores contemporâneos.
As lentes de RA são uma novidade porque criam condições para conservar e distribuir imagens e corpos sem passar pelas tradicionais estratégias domésticas, institucionais e urbanísticas de confinamento e massificação, e de modo mais eficiente e sofisticado que elas. Disparam, assim, uma outra política de estabilização subjetiva e social – algorítmica, cibernética – que não quer mais fazer moldagem ou fixação da forma. Moventes e moduladoras, operam não prescritivamente, mas simultânea e preditivamente ao movimento sensorial e cognitivo, antecipando-o ou conduzindo-o por meio do afunilamento das possibilidades ou mesmo intervindo na imediatez de sua manifestação. É por meio de questões referentes às lentes de RA e o consequente aprofundamento de alguns aspectos da governamentalidade algorítmica que propomos a noção ainda experimental e temporária de corpo-drone.
Segundo o vocabulário das forças armadas estadunidenses, o drone é um transporte não tripulado: um “veículo terrestre, naval ou aéreo, controlado à distância ou de modo automático” (Chamayou, 2015, p. 19). Podemos pensar a dronização, no entanto, por estágios: uma coisa é mais ou menos dronizada à medida que as decisões necessárias à sua movimentação se tornam mais ou menos capazes de serem tomadas à distância, por humanos ou – eliminando por completo a agência humana – por algoritmos. O drone, portanto, é aquilo que teve seu processo de dronização realizado por inteiro, e um corpo-drone é um corpo que perdeu para os algoritmos a capacidade de decidir sobre seu deslocamento.
Valentin Rauer (2016) recorre à noção de drone para pensar a mobilização algorítmica das coisas; a ação organizadora dos algoritmos sobre o espaço. Por outro lado, Lucas Introna (2016) discute os efeitos performativos dos algoritmos na cognição a partir da organização telemática do sensível. Para ele, no momento em que o computador, no fim dos anos 1990, deixa de ser uma máquina meramente administrativa de cálculo para ser uma importante interface pessoal, animada e interativa, as telas luminosas tornam-se elementos centrais na organização social e progressivamente passam a oferecer experiências impressionáveis, direcionadas à captura, aprisionamento e condução atencional – uma coreografia ao mesmo tempo massiva, personalizada e automatizada das funções cognitivas: percepção, atenção e memória.
A discussão do corpo-drone que propomos busca uma intersecção entre as duas abordagens: se Rauer discute a mobilização algorítmica das coisas e Introna, a condução algorítmica da atenção, aqui, através das lentes de RA, da computação ambiental e do consequente aprofundamento da governamentalidade algorítmica, queremos pensar a modulação algorítmica da trajetória ou, de outro modo, a condução do corpo no espaço a partir da atração atencional.
A discussão se desenvolve em quatro tópicos. No primeiro, pensamos as lentes de RA como um dispositivo que reconecta duas linhagens tecnológicas historicamente separadas na modernidade: a imagética e a locomotiva. No segundo, discutimos como a governamentalidade algorítmica, por meio da automação, opacidade, dividuação e predição, renova os anseios por uma objetividade científica. No terceiro, tratamos da guinada captológica para abordar os algoritmos como armadilhas cognitivas. E, por último, trazemos o LIDAR, sistema comum a alguns sistemas de biometria facial e aos projetos mais avançados do carro autônomo, para discutir a incorporação dos sistemas de digitalização do espaço. É a partir da somatória desses tópicos que propomos a noção de corpo-drone.
O IMAGÉTICO E O LOCOMOTIVO
Se entendemos, com Foucault (1999), que a modernidade é inaugurada pela lacuna aberta por Kant entre as supostas essências do mundo e do sujeito cognoscente – o nascimento do homem enquanto um problema científico –, é importante levarmos em conta que o naturalismo cartesiano permaneceu ativo. A novidade kantiana é, portanto, objetal, e não tanto metodológica. E é a psicologia, essa estranha ciência nascida no fim do século XIX, que, ignorando o veto kantiano, assumirá para si a tarefa de dar uma métrica à subjetividade.
Passos (1992) apresenta a história das tentativas sempre insuficientes de objetivar a subjetividade. A solução vencedora surgiu do modelo behaviorista: conhecer a subjetividade pela quantificação das periferias sensório-motoras do corpo biológico a partir de estímulos e respostas controlados5. Crary (2013) mostra que o rosto, e mais especificamente o olho, foi a interface privilegiada deste processo, tanto como zona de estimulação quanto como representação da atividade atencional. Com a prevalência do comportamentalismo e da visualidade, uma série de aparelhos ópticos de medição e mobilização da atividade visual ocupa os laboratórios de psicologia – do mesmo modo que os pressupostos behavioristas passam a aparelhar as máquinas de visão (Virilio, 1994) – e é principalmente pela aparelhagem e condução normativa dos olhos e, assim, da atenção que a subjetividade moderna passa a ser teórica e tecnologicamente estabilizada e mobilizada (Latour, 1989)6.
É curioso que Foucault (2004) tenha ignorado os dispositivos midiáticos e privilegiado a vigilância. Aparentemente, ele estava mais preocupado com os olhos do poder e seus efeitos corpo-espaciais, e não tanto com a visualidade geral. Quem, no mesmo período, discute a visualidade é Guy Debord (1997), de quem Foucault diverge. Debord, ainda bastante alinhado à dialética marxiana, problematiza as imagens publicitárias e televisivas, que para ele são um outro modo, junto ao trabalho, de força alienante do capitalismo. Crary (2011) reconcilia as duas discussões quando pensa genealogicamente – e não dialeticamente – o olho: por um lado, considera o espaço arquitetônico e os dispositivos de imobilização7 que condicionam o observador: uma arquitetônica do olho; por outro lado, pensa as políticas visual e atencional que incidem sobre o corpo disciplinado: o olho dócil. Se Foucault considerou principalmente as clivagens espaciotemporais e a anátomo-política do detalhe, Crary (2011), dentro da mesma matriz genealógica, vai pensar a produção tecnológica – institucional e imagética – da clivagem olho-corpo: ao invés de oposição entre disciplina e espetáculo, vigilância e visibilidade, propõe um circuito sociotécnico único em que a mobilização visual é, além de condicionante, diretamente proporcional à imobilização corporal.
Tim Ingold (2004), de modo semelhante, discute a modernidade a partir de dois hemisférios corporais: olho-mão (máquinas visual) e perna-pé (máquina locomotiva)8. Nessa trilha, pensamos dois vetores de progresso tecnológico: um imagético e o outro locomotivo. Como Crary (2011) e Ingold (2004), entendemos que esses vetores são complementares e intercambiáveis. Entretanto, o imagético imobiliza o corpo para intensificar a imersão visual, enquanto o locomotivo o faz para realizar uma travessia veloz do espaço. Em ambos os casos, trata-se de estabilizar e distribuir (Latour, 1989). Mesmo que as condições visual e corporal sejam análogas nos dois casos – mobilização visual e imobilização corporal –, no primeiro, o olho está em função da imersão, e, no segundo, em função da travessia.
Os dispositivos modernos de imagem bloqueiam a luz, estancam uma parte do fluxo luminoso do ambiente para que o contorno e as cores da imagem digital se revelem: são dispositivos opacos. A locomoção, diferentemente, exige dispositivos visuais translúcidos para que o olho possa se conectar com o espaço ao redor e decidir sobre as possibilidades do deslocamento. Apesar da redundância na esquematização corpo-visual, a experiência imagética rivaliza com a experiência locomotiva em seu caráter de conexão com o espaço. A manutenção do foco atencional sobre um dispositivo imagético, seja ele um texto, uma fotografia ou uma tela, requer, além de uma imobilização corporal, uma desconexão perceptiva dos arredores imediatos. O olho que olha atento para uma imagem, em algum grau, está alheio ao espaço que lhe circunscreve, e, quanto maior for sua desconexão com ele, mais profunda será a imersão na imagem – as cabines óculo-sonoras de Realidade Virtual (RV) são exemplos de tecnologias que levam essa tendência ao limite9.
Por outro lado, as máquinas locomotivas – sobretudo na experiência do condutor – imobilizam o corpo para que o olho possa se conectar ao entorno, não para imergir nele ou contemplá-lo, mas para ultrapassá-lo, para sair dele o quanto antes. O esquema oculomotor do motorista, assim, está em função da evasão espacial: quanto mais estável está o corpo que se movimenta – quanto mais confortável e silencioso o interior de seu veículo, quanto mais reto, ordenado e pavimentado o solo e o fluxo nos quais ele se move – mais veloz pode ser sua travessia e menor será seu contato com a intensidade potencialmente desestabilizadora da cidade. Os vetores imagético e locomotivo, assim, formam um único circuito tecnológico de conservação e mobilidade no qual o corpo sempre está imobilizado, e o olho variando entre deslizamentos superficiais no espaço pavimentado das cidades e terminais de imersão imagética.
É nesse desacordo no trato com o entorno imediato que as tecnologias imagéticas e locomotivas se bifurcam, e é na zona de intersecção entre elas que a Google parece querer intervir com as lentes de RA. Ou seja, a partir do momento em que as múltiplas possibilidades iamgéticas acumuladas no perímetro estreito das telas somam-se à translucidez das janelas na forma de uma lente, surge uma tecnologia capaz de oferecer uma experiência imagética em que a imersão não guarda mais proporcionalidade direta com a desconexão sensorial do entorno. Em vez de uma imersão do olho na imagem, esse dispositivo oculomotor opera uma imersão profunda da própria imagem no espaço, de modo que já não há como saber se estamos diante de uma imagem espacial ou de um espaço imagético.
As lentes de RA permitem uma mobilização do olho sem a imobilização correlata do corpo. O corpo está livre para se mover não para fora da imagem, mas para dentro dela; o corpo se liberta não da imagem, mas na imagem. Ou melhor, com as lentes de RA já não existe fora da imagem, pois os limites das plataformas imagéticas passam a coincidir com os limites do próprio espaço. É a própria a-topia incorporal da rede mundial de computadores que perde suas margens. Se o cinema é a plataforma da imagem em movimento, as lentes de RA são as plataformas do movimento na imagem.
Entendemos que há uma radicalidade profunda em jogo aqui, pois trata-se de uma tecnologia – uma tecnologia estatística, é importante dizer – que se interpõe no centro de uma das zonas fronteiriças mais basilares da modernidade: aquela que separa o dentro e o fora, o tempo e o espaço, o extenso e o intenso, o determinado e o indeterminado. Se concordamos que a máquina de guerra (Deleuze & Guattari, 2010) antidisciplinar dos anos 1960-70 abriu poros entre essas fronteiras no sentido de um alargamento do campo de possíveis, a governamentalidade algorítmica é o modo forjado pelo poder para medir e fechar novamente as brechas, agora com linhas flexíveis, elásticas, de um modo que a expansão das lacunas entre o atual e o virtual pareça ao mesmo tempo desnecessária e inexistente.
CIBERNÉTICA, CONEXIONISMO E A ABRANGÊNCIA ILIMITADA DOS ALGORITMOS
Mencionamos acima o naturalismo cartesiano herdado pela psicologia e a solução vencedora do behaviorismo. Passos (1992), contudo, vai mostrar que no fim dos anos 1940, com a chegada dos computadores nos laboratórios de psicologia, emerge um novo anseio, que não é mais aquele de encontrar a natureza extensa do cogito, mas o de replicar artificialmente as funções cognitivas – uma ciência do artificial (Simon, 1981).
O impulso artificialista tem início nos anos 1940 com a cibernética e seu entendimento de que os fenômenos orgânicos e maquinais compartilham uma mesma dinâmica de feedbackinformacional10, variando apenas na qualidade das informações: luminosa, elétrica, térmica, sonora, cinética. A raiz grega do termo proposto por Wiener (2017) – kybernetes – remete analogicamente à função do timoneiro: aquele responsável por reagir às variações do ambiente e governar um movimento. Nota-se que, já em sua raiz, o conceito traz a ideia de um sistema, orgânico ou mecânico, que altera seu movimento se ajustando às contingências ao redor. A partir disso, a cibernética propõe uma leitura quantitativa dos fenômenos interativos na qual tudo que é sensível a variações pode ser reduzido a um sistema simples de entradas, processamentos e saídas. É a soma do mecanismo de feedback com a generalização quantitativa dos fenômenos que permite à cibernética compreender elementos orgânicos e maquinais pelo mesmo fundamento e, assim, imaginar o intercâmbio parcial ou total entre eles.
O ciborgue (cybernetic organism) é um antigo sonho científico e militar de ultrapassagem do homem.Desde a Guerra Fria, projetos como exoesqueletos humanos, braços e asas robóticos, órgãos e glândulas artificiais foram desenvolvidos (Kunzru, 2009). Porém, é o computador, finalmente – já desde Turing (1950), mas sobretudo a partir do surgimento das ciências cognitivas11 –, que dispara tentativas de artificializar algoritmicamente não apenas a mecânica do corpo, mas a cognição. Junto às ciências cognitivas ganha força a ideia de uma Inteligência Artificial (IA), termo forjado em 1956 por John McCarthy.
Historicamente, há duas linhagens rivais de artificialização da inteligência: uma conexionista e outra simbólica (Cardon et al., 2018). A primeira, mais próxima à matriz cibernética, parte de uma codificação informacional elementar do mundo e de uma conexão permanente com o entorno. O que se busca com isso é uma máquina capaz de aprender autonomamente com o contexto do qual participa. Esse processo ficou conhecido como aprendizado de máquina .machine learning). No conexionismo, as informações são esvaziadas de caráter simbólico e a máquina aprende sempre numericamente: em um conjunto de estímulos, isto é, de dados, a definição de maior ou menor relevância ocorre sempre quantitativamente, pela medição das recorrências: após a redução numérica, a variação do mundo é sempre de grau e nunca de natureza. Não existem preconcepções semióticas; a ação preditiva, tanto da máquina cibernética quanto da aprendizagem conexionista, acontece pelo cálculo comparativo entre os índices informacionais que entram e saem do sistema. O sistema preditivo aplicado nos mísseis antiaéreos por Wiener em 1948, por exemplo, funciona a partir da calibragem permanente de sua trajetória, comparando os registros anteriores de sua posição com a posição imediata do alvo. A captação de informações deve ser, portanto, permanente, pois é ela que vai também permanentemente indicar os ajustes. O sistema se retroalimenta e aprende constantemente com a diferença entre os índices registrados anteriormente e os atuais.
O modelo simbólico – que emerge nos anos 1960 com as ciências cognitivas e com a noção de IA, e permanece hegemônico até os anos 1980 –, diferentemente do conexionista, compreende a inteligência como um sistema lógico de leitura de símbolos. Com ele, renovam-se os anseios por uma teoria geral da mente. A IA simbólica quer inserir nos computadores regras prévias que permitem a manipulação de representações. Assim, a máquina só pode interagir com aquilo que seus programadores previram, e do modo como previram. A principal característica das máquinas simbólicas é a de “romper o vínculo com o mundo e abrir espaço de raciocínio autônomo dentro de sua calculadora”12 (Cardon et al., 2018, p. 187), como se fosse possível desvendar uma lógica matemática geral da inteligência e, a partir dela, artificializar todos os processos de interação do humano com o mundo.
Na linhagem simbólica, as variações externas não alteram as condições internas: não há aprendizado. Essa é sua principal diferença em relação à IA conexionista. O que a máquina simbólica sabe lhe foi dado como atributo inato. Esse modelo se opõe à matriz behaviorista ecoada pela cibernética; ignora a fisiologia e o comportamento e se concentra apenas em desvendar os supostos mecanismos lógicos do raciocínio. Trata-se de uma máquina interiorizada, cujo horizonte preditivo é definido a priori, a partir de condições lógicas e simbólicas também prévias.
Esse modelo entra em descrédito nos anos 1980 e, na mesma década, tendo como ponto de inflexão a publicação dos dois volumes de Parallel Distributed Processing: Explorations in the Microstructure of Cognition (Rumechard & Mcclelland, 1986, 1999), uma segunda onda conexionista é disparada, permanecendo até hoje hegemônica. A partir daí, a IA, que surgira como rival da primeira cibernética, absorve seus princípios: adequação (aprendizado) das funções – de entrada, processamento e/ou saída – a partir de uma conexão quantitativa permanente com o meio. Porém, um ponto importante que diferencia os dois momentos conexionistas – ciberneticista e cognitivista – e explica a pujança contemporânea do segundo é o anseio – e as condições materiais para isso – por uma abrangência cada vez mais totalizada de sua operação: a adequação dos softwares e hardwares ao big data. Com esse novo processo conexionista de aprendizagem de máquina, cujas possibilidades de abrangência parecem ilimitadas, se estrutura o que chamamos de governamentalidade algorítmica (Rouvroy & Berns, 2018).
O francês Yann LeCun (http://yannlecun.com/) (Facebook AI, 2020; LeCun, 2019; LeCun et al., 2015)ganhador do Nobel da Ciência da Computação – o prêmio Allan Turing – em 2018, é um dos nomes importantes dessa virada conexionista no aprendizado de máquina. O autor, que atualmente é professor de engenharia da New York University e Diretor de Pesquisas em IA do Facebook, oferece um relato detalhado deste momento histórico, e de sua participação nele, em seu livro mais recente: Quand la Machine Apprend: La Révolution des Neurones Artificiels et de L’apprentissage Profond(LeCun, 2019). Sua contribuição técnica está relacionada principalmente ao desenvolvimento das chamadas redes neurais covoluncionais e ao processo de aprendizado profundo .deep learning)13, modelo de aprendizado de máquina que se proliferou pelo universo digital nos últimos anos, ocupando praticamente todos os mecanismos mais sofisticados de reconhecimento de imagens, palavras, voz, face, bem como os sistemas de autonomia automotiva.
Como dito, muito da renovação conexionista se deve à adequação dos algoritmos aos avanços materiais do universo digital: processadores mais velozes, estoques praticamente inesgotáveis para o armazenamento de dados e novos equipamentos digitais de uso cotidiano. Em uma frase, se deve à evolução dos hardwares: mais pontos de recolhimento de dados resultam em melhoria no processo de aprendizado das máquinas e na ampliação do campo em que os algoritmos podem intervir. Em entrevista recente, LeCun (2020) enfatiza que a história da Inteligência Artificial é inseparável do desenvolvimento de hardwares, e o tipo de hardware que está sendo preparado para a próxima década vai determinar seu rumo.
Entretanto, como vimos, os pontos pelos quais esse sistema pode intervir diretamente no comportamento ainda estão muito reduzidos ao perímetro das telas dos computadores e smartphones, o que acaba por criar um grande intervalo de inoperância do sistema, como o intervalo locomotivo – aquele em que os olhos precisam se voltar para as variações do entorno imediato e não para as projeções imagéticas. As lentes de RA transpõem esse intervalo. É aqui que o vetor conexionista do aprendizado de máquina, que tem como fundamento uma relação de troca com as contingências ao redor, pode ser pensado em relação com óculos de RA e outros dispositivos recentes – aparelhos que permitem à governamentalidade algorítmica abranger um terreno ainda mais largo de atuação.
AUTOMATISMO, OPACIDADE, DIVIDUALIDADE E PREDIÇÃO
Em 1986, durante uma de suas aulas na Universidade de Vincennes, Deleuze (2014) experimenta prolongar a pista deixada por Foucault – seu amigo recém-falecido e homenageado naquela ocasião – de um possível acesso ao fora da linguagem via literatura. Para Deleuze, naquele momento, as novidades da engenharia genética e das máquinas cibernéticas indicariam vetores virtuais de um fora do organismo e do trabalho, respectivamente: os outros dois eixos, junto à linguagem, de sustentação do homem e, portanto, da modernidade (Foucault, 1999). Deleuze vai imaginar os dispositivos do silício como forças de desestabilização da ordem disciplinar. Aparentemente, é nesta aula que o termo sociedade de controle é registrado pela primeira vez, vindo a ser publicizado em tom mais moderado em seu conhecido Post-scriptum Sobre as Sociedades de Controle (Deleuze, 2010).
Curiosamente, também em 1986 estava sendo lançado, na Califórnia, o primeiro volume de Parallel Distributed Processing (Rumechard & Mcclelland, 1986). O diagrama de forças de uma governamentalidade algorítmica, como se pode ver, não emerge sem que uma nova trama de enunciados de saber também se afirme. Neste caso, essa afirmação passa pela renovação dos antigos anseios científicos de objetividade (Daston & Galison, 2007): a crença na capacidade de se produzir conhecimento sem as marcas da contingência. Se o veto kantiano sobre pretensões racionalistas e empiristas faz nascer o problema das condições de possibilidade pelas quais se conhece, é na ultrapassagem dele, isto é, na ultrapassagem da limitação cognoscente propriamente humana, que uma objetividade algorítmica se afirma. A governamentalidade algorítmica tem por objetivo ultrapassar o homem de pelo menos quatro modos: automação, opacidade, dividualidade e predição; e os quatro ao mesmo tempo.
A automação é a substituição do homem pela máquina. Isso ocorre em todas as etapas da governamentalidade algorítmica descrita por Rouvroy e Berns (2018) – captação, armazenamento, processamento e intervenção – e sempre com o álibi da retirada das marcas subjetivas daqueles institucionalmente responsáveis pelas operações – empresários, engenheiros e cientistas (Cardon, 2016). A razão algorítmica, assim, é uma razão que se quer sem sujeito cognoscente.
Além de automáticos, os algorítmicos primam por uma opacidade assimétrica entre aqueles que produzem o conhecimento e seu alvo. Argumenta-se que a opacidade é necessária para se evitar a contaminação dos dados coletados com as intencionalidades subjetivas dos usuários. Velam-se os detalhes do funcionamento tecnológico para que a consciência do uso seja excluída e a manifestação comportamental se realize e seja captada de modo puro. Há, mais uma vez, um fundo behaviorista nesse procedimento: acredita-se que o comportamento se manifesta aquém das intencionalidades; logo, para captá-lo onde sua expressão ocorre de maneira mais natural, deve-se evitar que as ações conscientes interfiram nos processos de captura e previsão. Pela perspectiva behaviorista, quanto menor o conhecimento dos sujeitos sobre os processos que lhe interpretam, melhor esses processos podem prever seus comportamentos.
Os algoritmos também não precisam do fundamento tradicional da individualidade; operam ao largo do sujeito cognoscente por elementos e escalas infra e supraindividuais. Não atuam mais, por exemplo, pela consciência visual, como ocorria na objetividade naturalista, mas pelos padrões pré-visuais, extraídos da fisiologia pura do olho: dilatação das pupilas, rotação do globo ocular, microexpressões faciais, padrões fisiológicos, escaneamento de íris (CNET News, 2017; Crampton, 2019). Também não operam pelas tradicionais categorias coletivas do sujeito moderno, como massa, povo, etnia, sexo, mas por aspectos relacionais, minuciosos e múltiplos, dentre os quais os de caráter emocional e afetivo ganham especial importância (Bruno et al., 2019).
A justificativa aqui é jurídica e científica: respeito ético à privacidade e pureza espontânea do comportamento para fins de objetividade. A objetividade algorítmica, portanto, opera em uma base behaviorista radical (Cardon, 2016), na qual, idealmente, o comportamento é capturado de forma total, minuciosa, constante e em sua manifestação mais natural. A precisão desse procedimento é, assim, diretamente proporcional à atualidade e à quantidade de dados disponíveis, e, portanto, à justeza de sua conexão com a realidade imediata. O horizonte é um ajuste tão refinado aos comportamentos que sua agência operacional pareça nula e não desperte nenhum gesto de inibição vindo da consciência – o avesso do panóptico de Bentham, que quer garantir os efeitos inibidores pela presença virtual, e não atual, do vigilante (Foucault, 2004).
Os algoritmos escapam ao sujeito também pelo mecanismo de predição comportamental. A predição escapa ao sujeito dessa vez no tempo, atuando sobre o que ele ainda não é, ou melhor, sobre o que ele provavelmente será – diferentemente das moldagens disciplinares que operavam a partir do que o sujeito deveria ser. Se na disciplina tentava-se estabilizar os corpos por exclusão do fora (Lazzarato, 2006)14, no controle o fora é assumido para ser monitorado e estabilizado como perfil (Rouvroy & Berns, 2018). Os perfis comportamentais extraídos do aprendizado da máquina são como silhuetas estatísticas, ao mesmo tempo moventes, anônimas e hiperpersonificadas. Apesar de intimamente conectadas às minúcias dividuais da atualidade comportamental, são projetadas para um futuro não teleológico, mas provável, que se estende a curtíssimo prazo e que está ajustado aos contornos imediatos do presente como uma sombra à frente de um corpo que caminha, sugerindo-lhe modos de se executar o próximo passo.
Pasquinelli (2015) recorre ao conceito de apofonia da Gestalt para caracterizar a aprendizagem da máquina e o perfilamento preditivo – que ele sintetizará como olho algorítmico – e questionar sua pretensa objetividade descritiva. A ação apofênica se define pela circunscrição de um padrão imagético tranquilizador que funciona como defesa para uma cognição supostamente incapaz de se confrontar com a indeterminação. Manifesta-se como experiência cognitiva de encontrar formas e conexões lógicas em dados aleatórios. Para o autor, a busca algorítmica por quaisquer padrões estatísticos em meio ao oceano interminável e caótico de dados é análoga a esse fenômeno. Contudo, por se tratar de um olho cibernético, o padrão que se busca não é definido a priori. O que se procura, ao contrário, é dar contorno numérico a padrões de anormalidade que possam indicar vetores que estejam se desprendendo da massa amorfa de dados no momento de seu desprendimento. Há um aspecto quase paranoico nesse mecanismo modulador. E é dessa contração estatística supostamente descritiva que se projetam preditivamente os perfis comportamentais sobre os quais se poderá em seguida intervir. Não se trata mais da normatização disciplinar ou da normação biopolítica, que estavam fundadas em pressupostos ou medianas produtivistas, biológicas ou morais (Foucault, 2008), mas de uma matematização do anormal (Pasquinelli, 2015), para cercá-lo, persegui-lo, estabilizá-lo e distribuí-lo – para antecipar ou acelerar um movimento que supostamente já iria ocorrer.
As lentes de RA parecem permitir aos anseios algorítmicos por objetividade chegarem a limites de espontaneidade e abrangência nunca antes alcançados. Com elas – e isso talvez sirva para os dispositivos vestíveis em geral15 – tende-se a excluir por completo a intencionalidade. Não há mais um objeto em meio a outros a ser escolhido, ativamente manuseado, guardado ou desativado. Com as lentes de RA, o computador passará a ser a condição para percebermos certos elementos do espaço e outros objetos, que, como dito, passam a se confundir com as imagens. Se já em 1998, em sua fundação, um dos objetivos do Page Rank do Google era que os usuários se esquecessem de sua existência (Cardon, 2016), com as lentes esse objetivo parece atingir a dimensão hardware. Além do mecanismo algorítmico que organiza e recomenda informações e ações como se fossem ajustadas à nossa natureza mais íntima, a Google parece querer que os usuários se esqueçam até mesmo que estão conectados à infraestrutura que torna isso possível. Pelo texto de Osterloh (2020) citado no início, essa parece ser a definição mesma de computação ambiental.
ARMADILHA ALGORÍTMICA E CAPTURA COGNITIVA
Até aqui consideramos a governamentalidade algorítmica como um sistema de objetividade descritiva que, ainda que frágil, se apoia em álibis jurídicos e científicos. Contudo, talvez estejamos já em um momento em que os desenvolvedores de algoritmos e aplicativos buscam declaradamente a intervenção nos comportamentos, e não para encaminhá-los preditivamente para onde supostamente já iriam, mas para alterá-los, redefini-los ou produzi-los. Estaríamos, assim, saindo de um paradigma que busca correspondência e legitimidade em uma realidade supostamente pura ou mais provável para outro, que assume de partida a interferência ativa como objetivo. Trata-se, segundo Seaver (2018), de um paradigma captológico ou persuasivo, que opera sobretudo pelo design de arquiteturas algorítmicas e recomendação de conteúdos.
O termo Captology é uma sigla para Computers as Persuasive Technologies, proposta por Brian Jeffrey Fogg, professor da Universidade de Stanford e fundador, em 1998, do Laboratório de Tecnologias Persuasivas16. Fogg, que se autodeclara behavior designer, define a persuasão como uma “tentativa não coercitiva de mudar atitudes ou comportamentos”17 (Fogg citado em Seaver, 2018, p. 424). Se o paradigma preditivo buscava excluir o sujeito cognoscente do processo para captar o comportamento em sua manifestação mais pura, a captologia, ao contrário, se fundamenta eticamente no voluntarismo do comportamento para defender que as recomendações algorítmicas não são autoritárias: se há respeito à autonomia da decisão individual do usuário, não há coerção, mas persuasão.
Saímos de um pressuposto naturalista da subjetividade – que, desde o behaviorismo, compreende o comportamento como uma ação puramente fisiológica alheia à consciência –para uma consciência individual alheia à contingência. Dito de outro modo, saímos de um deslocamento dos pressupostos comportamentais que vai do instinto mecânico essencial para o livre arbítrio neoliberal. Entretanto, do mesmo modo que não nos parece haver uma natureza pura dos processos subjetivos, também não há uma cognição não condicionada, fora de condições prévias à sua manifestação. E é justamente neste ponto das condições de possibilidade da decisão que a captologia declaradamente atua para criar arquiteturas digitais de recomendação em que determinados comportamentos decisórios sejam facilitados em detrimento de outros. Criam-se as condições para que um determinado comportamento tenha mais chances de se manifestar, mas justifica-se a não coercividade do processo por meio da autonomia do sujeito. O constrangimento da virtualidade se apoia na escolha individual.
Seaver (2018) recorre à antropologia da caça de animais – sobretudo à obra clássica de Otis Mason – para discordar de que a persuasão seja um processo relacionado apenas à consciência. Ele define os processos captológicos como ações de captura algorítmica, e os algoritmos como verdadeiras armadilhas cognitivas. Para o autor, as armadilhas tradicionais, tais como alçapões, ratoeiras e redes, são sistemas subjetivos e contextuais. O gesto derradeiro de aprisionamento de uma presa não está separado do conhecimento previamente acumulado pelo caçador sobre os hábitos de seu alvo nem das estratégias de artificialização do ambiente. Antes de ser uma ação física, qualquer armadilha é uma interação estratégica mental, sutil e persuasiva que visa conduzir os movimentos de um corpo, justamente como atua o behavior design. A diferença entre as armadilhas tradicionais e as algorítmicas, portanto, está apenas no fato de que, enquanto as primeiras oferecem etapas decisórias comportamentais que levam à morte e/ou a imobilização dos corpos, as segundas querem segurar a atenção, sobretudo os olhos, de seus usuários em um circuito dinâmico e automatizado de estímulos e recomendações.
Uma das características que marcam a guinada captológica é a mudança dos indicadores de eficiência algorítmica – cada vez mais fundamentais às startups na atração de investidores (Seaver, 2018). No processo preditivo, o sucesso de um algoritmo é medido pelos sinais explícitos de confirmação dos usuários: o aumento de cliques, curtidas, compartilhamentos e compras. Para serem consideradas precisas, as previsões, ainda que veladas aos usuários, devem aguardar a confirmação da manifestação prevista. No processo captológico, diferentemente, a métrica da eficiência passa a ser a continuidade do uso: o tempo de permanência na experiência oferecida. Desde que os usuários permaneçam engajados, atencionalmente aprisionados, pouco importa o que sentem ou expressam. Ao invés de antecipar uma realidade que supostamente já estaria na iminência de se manifestar, a captologia quer criar situações aderentes para reter cognitivamente o usuário, independentemente de qualquer parâmetro de aprovação ou reprovação.
Apesar de se apoiar eticamente na decisão consciente do sujeito persuadido, a operação captológica tem por objetivo exatamente criar ambientações imperceptíveis – opacas e dividuais – para que determinadas decisões sejam não apenas mais prováveis, mas preferencialmente inevitáveis. Bentes (2019) discute alguns pontos de Hooked: How to Build Habit-Forming Products – livro de Nir Eyal, behavior designer e ex-aluno de Fogg em Stanford – e nos dá uma noção prática de como as armadilhas captológicas podem operar. Como Fogg, Eyal compreende o comportamento como a soma de três elementos: motivação, ação e gatilho (Fogg, 2003). É dessa base que Eyal parte para desenvolver o modelo do gancho .hook), cuja promessa é produzir serviços que formem hábitos: “comportamentos automáticos desencadeados por pistas situacionais: coisas que fazemos com pouco ou nenhum pensamento consciente” (Eyal citado em Bentes, 2019, p. 228). O desenvolvimento do enganchamento, e portanto o hábito, se dá, assim, por quatro etapas: a) gatilho, isto é, elementos internos (memórias, sentimentos) ou externos (imagens, botões, cores) que disparam ações; b) ações, que, segundo o autor, devem ser simplificadas ao máximo – “o agir deve ser mais fácil que pensar” (Eyal citado em Bentes, 2019, p. 230); c) recompensas imprevisíveis, que reforçarão a motivação que desencadeou a ação; d) investimento por parte do usuário, que, de acordo com o autor, produz expectativas e um enganchamento de longo prazo.
Nota-se que o objetivo jamais é estancar ou finalizar o fluxo de um movimento, mas estimulá-lo e inseri-lo em um circuito, em uma tubulação de microssequências comportamentais. Trata-se, como escreveram Jiménez e Nahum-Claudel (2019), de uma armadilha infraestrutural ambiental, como um cenário que pouco a pouco vai sendo montado, recebendo discretamente pequenos elementos e nos envolvendo como parte fundamental de seu enredo sem que nos demos conta.
Como uma infraestrutura que funde o imagético e o locomotivo, as lentes de RA podem levar ao extremo a eficiência e a sofisticação dessas armadilhas, aprisionando e conduzindo não apenas a ação atencional pela produção de imagens, mas o próprio deslocamento do corpo pelo espaço.
O ROSTO E A RUA
Se no início tratamos das lentes de RA como uma tecnologia capaz de fundir o imagético e o locomotivo ao somar a translucidez das lentes e as possibilidades imagéticas das telas, é preciso também considerar a ambivalência de sua função vigilante: vigilância e correlação simultâneas do rosto e do espaço. Uma tecnologia especialmente importante para isso é o sistema de detecção de alcance da luz: na sigla em inglês, LIDAR (Light Detection and Ranging). Trata-se de um sistema semelhante ao SONAR dos morcegos e ao RADAR das bases aéreas, mas, ao invés de ondas de som ou de rádio, um LIDAR emite e capta ondas luminosas. Os três são igualmente sistemas de detecção remota que captam propriedades do espaço para obter medidas de distâncias e/ou os volumes.
Sistemas de LIDAR estão presentes tanto no ID Face, que é o mecanismo de biometria facial presente nos iPhones desde o modelo X, quanto no projeto aparentemente mais promissor de carro autônomo, que é o da Volvo (Hawkins, 2020). A Google não divulgou detalhes desuas lentes, mas como se trata de um sistema que promete mediar imageticamente a interação do olho com as dimensões reais do espaço, acredita-se que algum sistema semelhante a este será utilizado, tanto para captar as variações sensoriais do usuário quanto para oferecer uma experiência realista de projeção sobre a materialidade espacial18.
Os carros autônomos são também um tipo de drone, e parecem ser a possibilidade mais iminente de uma tecnologia capaz de deslocar os corpos no espaço abdicando das decisões humanas. A biometria facial, em paralelo, parece ser a possibilidade tecnológica mais propagandeada de tradução algorítmica dos processos subjetivos (Crampton, 2019). Por um lado, ao realizar uma leitura do espaço ao redor, o carro autônomo libera o capital atencional tradicionalmente retido pelas demandas locomotivas. Com isso, permite que a totalidade da atenção interna ao veículo pouse e circule em outros terminais: rua, telas, outros passageiros etc. Por outro lado, quando escaneia e monitora os rostos, a biometria facial oferece informações detalhadas19 sobre as atualidades, históricos e tendências cognitivas, afetivas, sensoriais e emocionais. Nos dois casos estão em jogo plataformas digitais (Srnicek, 2017): plataformas biométricas (Crampton, 2019), que codificam, extraem e interpretam dados do corpo, e plataformas automotivas (Leon, 2019), que extraem dados comportamentais dos corpos transportados, principalmente as redes e os nexos de locomoção, elementos que, assim como as interações nas redes sociais, facilmente podem revelar nosso padrão relacional com o território, com o consumo, com outras pessoas – o que os smartphones já realizam a partir dos dispositivos de localização (Andrejevik, 2015).
São, mais uma vez, dispositivos e processos complementares: a condução do corpo ou da atenção aprimora o monitoramento do espaço e do corpo transportado. A condução automotiva só pode se livrar da agência humana imediata através da interpretação algorítmica contínua e minuciosa dos comportamentos dos motoristas – motorista genérico, que tem por referência comportamental a obediência às leis e normas do trânsito, e motorista perfilado, produzido a partir dos padrões comportamentais dos usuários por meio dos quais será possível projetar ou recomendar trajetórias personalizadas. De outro lado, a biometria facial automatizada tem por promessa uma interpretação detalhada e profunda dos comportamentos, cujo resultado esperado é uma intervenção – vigilante (policial) ou visual (imagética, publicitária) – mais eficiente. As lentes de RA somam essas funções de vigilância e visualidade; respectivamente, a leitura aprofundada do rosto e a liberação da atenção para o espaço ao redor, cujo fluxo liberto pela mediação translúcida das lentes poderá ser prontamente capturado pelos circuitos imagéticos por elas projetados.
É inquietante que expressão, segurança e publicidade – corpo, vigilância e visualidade – estejam profundamente coligados aqui, produzindo um sujeito cuja importância expressiva é diretamente proporcional ao refino de sua vigilância e eficácia de sua indução consumidora (Bruno, 2013). O sistema ID Face oferecido pela Apple desde o iPhone X nos dá uma dimensão disso. Com sistemas de LIDAR instalados em suas câmeras frontais e traseira, esses aparelhos conseguem realizar uma varredura luminosa do espaço, um escaneamento, e digitalizar seus elementos respeitando as variações de tridimensionalidade. Com o LIDAR, a câmera passa a ser uma ferramenta de medição espacial: não apenas registra a luminosidade em uma superfície, como já faziam as câmeras fotográficas, mas também mensuram o comprimento, a intensidade e a frequência dos raios, permitindo uma projeção da imagem sem a fixação do ângulo em que a captação luminosa foi realizada – um registro que, através de uma perspectiva, consegue projetar todas as outras possíveis.
Por meio do LIDAR a câmera frontal do iPhone X é capaz de escanear, mapear e monitorar em profundidade 30 mil pontos dinâmicos do rosto humano (CNET News, 2017). Com isso, pode oferecer uma segurança hiperpersonalizada de acesso ao aparelho e, ao mesmo tempo, a possibilidade de registrar retratos com um enorme poder de edição 3D. Já existem também aplicativos de edição próprios para o uso do LIDAR da câmera traseira dos smartphones, voltados para o escaneamento lúmino-digital do espaço. O aplicativo Home Design 3D, por exemplo, a partir da varredura por LIDAR, consegue digitalizar o interior de espaços domésticos e oferecer imagens tridimensionalizadas dos cômodos (https://www.youtube.com/watch?v=fS3J4V_BgP0). Evidentemente, ao mesmo tempo em que oferecem recursos, esses aparelhos também captam e processam dados que poderão doravante refinar ainda mais os sistemas de previsão e indução comportamental.
As lentes de RA podem ser pensadas como uma síntese das funções oferecidas pela biometria facial e pelo carro autônomo: o máximo de vigilância e o máximo de capacidade interventora em um mesmo dispositivo, simultaneamente sobre a subjetividade e sobre o espaço, para fins de ordenação dos corpos e dos encontros, para fins de governo das trajetórias urbanas.
***
Quais os futuros de uma multidão de corpos-drone, mapeando devires deambulatórios, gerando para si singularidades virtualizadas? A governamentalidade algorítmica age de modo constante e imperceptível. Na computação ambiental, o corpo que atravessa o espaço é, para aquém de tudo, um reservatório de dados. O arranque das tecnologias cibernéticas dá-se de modo inseparado a uma (auto)administração contínua dos processos de subjetivação. Atos de visão convertidos em data, que tanto nutrem o aprimoramento destas tecnologias de controle quanto se modulam numa “forma de valor excedente de um mercado baseado na acumulação de dados sobre o comportamento do usuário” (Crary, 2014, p. 56).
No início dos anos 1990, Virilio (2011) sentenciou que estaríamos apenas a esperar a emergência de máquinas de visão, “capazes de ver, de perceber em nosso lugar” (p. 132). O trabalho imersivo do olhar e do corpo no espaço, a partir das lentes de RA e do LIDAR, parece maximizar as possibilidades de monetização tanto de nossa fisiologia ocular quanto de nossa sociologia corporal, em uma velocidade incompatível com a nossa carga de armazenamento e respostas conscientes, atentas. Nas infraestruturas modernas que ainda fundam o contemporâneo, sustenta-se a impressão de que o multi-tasking, a exemplo – como no usufruto coetâneo de aplicativos, gadgets e dispositivos por uma autogestão burocrática de si mesmo no tempo-espaço –, fortaleceria um “sentimento de engenhosidade individual”, que nos daria a “convicção temporária de que estamos do lado do vencedor” (Crary, 2014, p. 66). Crary pontua se nesta relação não seríamos, nós, os protótipos ideais destas modulações, desejosos e envoltos no rizoma conexionista em sua expansão algorítmica.
Como nos lembra Canevacci (2008, p. 19) nosso olhar, “que de modo nenhum é ingênuo ou manipulável”, sente-se desejoso de selecionar e distinguir, de ser distinguido e selecionado; logo, torna-se condicionado à decodificação. Se o pintor Paul Klee (citado em Virilio, 1994, p. 86) antevê, nos primórdios do século XX, uma paisagem onírica em que os objetos do espaço nos espreitam – “agora os objetos me percebem” –, a ideia de um corpo-drone emergiria a partir da objetificação virtualizada de nosso devir perceptivo, de nossa “vontade de envolver o futuro” (Virilio, 2011, p. 132) comercializada em dados.
CONSIDERAÇÕES FINAIS
O corpo-drone é um corpo teleguiado que, através da captura e condução algorítmica das funções cognitivas, perde, parcial ou totalmente, a autonomia sobre os processos decisórios de seu deslocamento no espaço. Discutimos essa possibilidade por quatro camadas complementares de construção: a) a ressoldagem das máquinas imagéticas e das máquinas locomotivas por meio das lentes de RA – a reconexão do olho e do pé: os dois segmentos sobre os quais foi possível sustentar o corpo moderno; b) a ultrapassagem do homem através de mecanismos automáticos, opacos, dividuais e preditivos que escapam à razão, à consciência e à individualidade como construídos modernamente; c) a captura cognitiva por meio de armadilhas algorítmicas que criam contextos, paisagens e ambiências comportamentais – automatizados, dividuais e opacos – para reduzir e induzir com grande eficiência os processos decisórios individuais desde seus elementos mais germinais; d) a codificação e a correlação digital entre o rosto e o espaço através do sistema LIDAR, comum tanto aos sistemas mais avançados de vigilância biométrica do rosto quanto aos projetos mais promissores de direção autônoma. Nesse tópico recorremos à tecnologia do LIDAR para tentar imaginar como os óculos de RA prometidos pela Google funcionariam em seu procedimento de projetar imagens interativas no olho respeitando as proporções espaciais como se percebidas a olho nu.
O processo de dronização do corpo como aqui buscamos discutir não é um fenômeno recente ou repentino. A automação do corpo, do olho, da cognição e do deslocamento remonta aos anseios mais básicos do saber-poder moderno, seja pelo ponto de vista do olho, que nos leva aos primórdios tecnológicos e científicos da modernidade – perspectiva, mapa, impressora, psicologia, cibernética e ciências cognitivas –, seja pela perspectiva do pé, que encontra seu substrato tanto nos sistemas de transporte quanto no urbanismo (Chun et al., 2019). E é a fusão desses dois campos tecnológicos e epistêmicos, possível por meio da governamentalidade algorítmica e das lentes de RA, que nos parece tornar possível a dronização, total ou parcial, do corpo.
REFERÊNCIAS
Andrejevic, M. (2015). Tornando-se Drones: Vigilância móvel e sensoriamento remoto. Parágrafo, 3(1), 45-54. https://bit.ly/3c4z0vF
Bentes, A. (2019). A gestão algorítmica da atenção: Enganchar, conhecer e persuadir. In F. B. P. Polido, L. C. dos Anjos, & L. C. C. Brandão (Orgs.). Políticas, internet e sociedade. IRIS.
Bilton, N. (2015, 4 de fevereiro). Why Google Glass broke. The New York Times. http://nyti.ms/30XSqMe
Bruno, F. (2013). Máquinas de ver, modos de ser: vigilância, tecnologia e subjetividade. Sulinas.
Bruno, F., Bentes, A., & Faltay, P. (2019). Economia psíquica dos algoritmos e laboratório de plataforma: Mercado, ciência e modulação do comportamento. Revista Famecos, 26(3), e33095. doi: https://doi.org/10.15448/1980-3729.2019.3.33095
Canevacci, M. (2008). Fetichismos visuais: Corpos erópitcos e metropole comunicacional. Ateliê Editorial.
Cardon, D. (2016). Deconstructing the algorithm: four types of digital information calculations. In R. Seyfert, & J. Roberge (Orgs.), Algorithmic cultures: Essays on meaning, performance and new technologies (pp. 95-110). Routledge. https://doi.org/10.4324/9781315658698
Cardon, D., Cointet, J.-Ph., & Mazières, A. (2018). La revanche des neurones: L’invention des machines inductives et la controverse de l’intelligence artificielle. Réseaux, 5(211), 173-220. https://doi.org/10.3917/res.211.0173
Chamayou, G. (2015). Teoria do drone. Cosac Naify.
Chun, W. H. K., Kurgan, L., Brawley, D., House, B., & Zhang, J. (2019, 4 de outubro). Homophily: The urban history of an algorithm. e-flux architecture. https://bit.ly/313c0H8
CNET News. (2017, 12 de setembro). Apple explains Face ID on iPhone X. [Vídeo]. YouTube. https://bit.ly/3vIKmgD
Crampton, J. W. (2019). Plataform Biometrics. Surveillance & Society, 17(1/2), 54-62. https://doi.org/10.24908/ss.v17i1/2.13111
Crary, J. (2011). Técnicas do observador. Contraponto.
Crary, J. (2013). Suspensões da percepção. Cosac Naify.
Crary, J. (2014). 24/7 – Capitalismo tardio e os fins do sono. Cosac Naify.
Daston, L. &, Galison, P. (2007). Objectivity. Zone Books.
Debord, G. (1997). A sociedade do espetáculo (E. S. Abreu, trad.). Contraponto.
Deleuze, G. (2010). Conversações. 34.
Deleuze, G. (2014). El poder: Curso sobre Foucault (Tomo 2). Cactus.
Deleuze, G., & Guattari, F. (2010). Anti-Édipo. Editora 34.
Fogg, B. J. (2003). Persuasive technology: Using computers to change what we think and do. Morgan Kaufmann.
Foucault, M. (1999.) As palavras e as coisas. Martins Fontes.
Foucault, M. (2004). Vigiar e punir. Vozes.
Foucault, M. (2008). Segurança, território, população. Martins Fontes.
Hawkins, A. J. (2020, 6 de maio). Volvo bucks the industry, will sell LIDAR-equipped self-driving cars to customers by 2022. The Verge. http://bit.ly/3cQioqx
Ingold, T. (2004). Culture on the ground: The world perceived through the feet. Journal of Material Culture, 9(3), 314-340. https://doi.org/10.1177/1359183504046896
Introna, L. D. (2016). The algorithmic choreography of the impressionable subject. In R. Seyfert, & J. Roberge (Orgs.), Algorithmic cultures: Essays on meaning, performance and new technologies. Routledge. https://doi.org/10.4324/9781315658698
Jiménez, A. C., & Nahum-Claudel, C. (2019). The anthropology of traps: Concrete technologies and theoretical interfaces. Journal of Material Culture, 24(4), 383-400. https://doi.org/10.1177/1359183518820368
Kunzru, H. (2009). Genealogia do ciborgue. In D. Haraway, H. Kunzru, & T. Tadeu, (Orgs.), Antropologia do ciborgue: as vertigens do pós-humano (pp. 119-126). Autêntica.
Lanier, J. (2017). Down of the new everything: Encounters with reality and virtual reality. Henry Hold and Co.
Latour, B. (1989). Visualisation and cognition: drawing things together. In H. Kuklick, (Ed.), Knowledge and Society: Studies in the sociology of culture past and present, 6, 1-40. https://bit.ly/3f0Quuv
Lawson, S. (2012, 6 de abril, 6). Ten ways your smartphone knows where you are. PCWorld. http://bit.ly/3927EUV
Lazzarato, M. (2006). As revoluções do capitalismo. Civilização Brasileira.
LeCun, Y. (2019). Quand la machine apprend: La révolution des neurones artificiels at de l’apprentissage profond. Odille Jacob.
LeCun, Y. (2020, 16 de janeiro). Reserarch in brief: Yann LeCun on the future of deep learning hardware. YouTube. https://bit.ly/3vKnrl3
LeCun, Y; Bengio, J., & Hinton, G. (2015). Deep learning. Nature, 521, 436-444. https://doi.org/10.1038/nature14539
Leon, L. F. A. (2019). Eyes on the road: Surveillance logics in the autonomous vehicle economy. Surveillance & Society, 17(1/2), 198-204. https://doi.org/10.24908/ss.v17i1/2.12932
Osterloh, R. (2020, 30 de junho). Our focus on helpful devices: Google acquires North. Company Announcements. http://bit.ly/390qjAF
Pasquinelli, M. (2015, 29 de janeiro). Anomaly detection: The mathematization of the abnormal in the metadata society. Matteo Pasquinelli. http://bit.ly/3vV1H6a
Passos, E. (1992). O sujeito cognoscente entre o tempo e o espaço [Tese de doutorado, Universidade Federal do Rio de Janeiro]. Repositório institucional da UFRJ. https://bit.ly/2OLaeb8
Poupyrev, I., Tan, D., Billinghurst, M., Kato, H., Regenbrecht, H., & Tetsutani, N. (2001). Tiles: A mixed reality authoring interface. In Hirose, M. (Ed.), Proceedings 7th Conference Human-Computer Interaction (Interact 2001) (pp. 334-341). IOS Press.
Poupyrev, I., Tan, D. S., Billinghurst, M., Kato, H., Regenbrecht H., Tetsutani, N. (2002). Developing a generic augmented-reality interface. Computer IEEE Xplorer, 35(3), 44-50. https://doi.org/10.1109/2.989929
Rauer, V. (2016). Drones: The mobilization of algorithms. In R. Seyfert, & J. Roberge (Orgs.), Algorithmic cultures: Essays on meaning, performance and new technologies. Routledge. https://doi.org/10.4324/9781315658698
Rouvroy, A., & Berns, T. (2018). Governamentalidade algorítmica e perspectivas de emancipação: O díspar como condição de individuação pela relação? In F. Bruno, B. Cardoso, M. Kanashiro, L. Guilhon, & L. Melgaço (Orgs.), Tecnopolíticas da vigilância: Perspectivas da margem (pp.107-140). Boitempo.
Rumechard, D., & McClelland, J. (1986). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Vol. 1. MIT.
Rumechard, D., & McClelland, J. (1999). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Vol. 2. MIT.
Seaver, N. (2018). Captivating algorithms: Recommender systems as traps. Journal of Material Culture, 24(4), 421-436. https://doi.org/10.1177/1359183518820366
Simon, H. A. (1981). As ciências do artificial. Sucessor.
Srnicek, N. (2017). Platform capitalism. Polity Press.
Turing, A. (1950). Computing machinery and inteligence. Mind, 59(236), 433-460. https://bit.ly/3s7VFwu
Virilio, P. (1994). A máquina de visão. José Olympio.
Virilio, P. (2011). A imagem virtual mental e instrumental. In A. Parente (Org.), Imagem-máquina: A era das tecnologias do virtual (pp. 127-132). Editora 34.
Wiener, N. (2017). Cibernética: Ou controle e comunicação no animal e na máquina. Perspectiva.
Notas
Notas de autor