Secciones
Referencias
Resumen
Servicios
Descargas
HTML
ePub
PDF
Buscar
Fuente


A sociedade contemporânea à luz da ética informacional
The contemporary society from the perspective of information ethics
Acta Scientiarum. Human and Social Sciences, vol. 42, núm. 3, e56496, 2020
Universidade Estadual de Maringá

Filosofia


Recepción: 03 Noviembre 2020

Aprobación: 23 Noviembre 2020

DOI: https://doi.org/10.4025/actascihumansoc.v42i3.56496

Resumo: Qual o lugar da filosofia nos dias atuais? Diante das inúmeras respostas possíveis a esta questão, nos debruçaremos em alguns tópicos que podemos inserir na chamada Ética Informacional, um ramo de investigação filosófico-interdisciplinar relativamente recente que discute problemas oriundos da relação ser humano/tecnologias digitais. Temas como privacidade informacional, arrogância epistêmica e divisão digital serão discutidos e relacionados, com o intuito de ilustrar o papel da filosofia na compreensão da complexidade inerente às dinâmicas sociais no contexto da sociedade da informação. Argumentaremos que pensar o mundo contemporâneo a partir do viés da ética informacional se faz cada dia mais imprescindível para que possamos entrar em sintonia com as rápidas mudanças que a revolução informacional impõe à vida em sociedade e não sermos levados pelas enxurradas informacionais que presenciamos diariamente.

Palavras-chave: Sociedade da informação, tecnologias digitais, privacidade informacional, arrogância epistêmica, divisão digital.

Abstract: What is the present role of philosophy? Given the several possible distinct answers to this question, we turn our attention at some topics related to the so-called Information Ethics, a relatively recent branch of philosophical-interdisciplinary research that discusses problems arising from the relationship between human beings and digital technologies. Themes such as informational privacy, epistemic arrogance and digital divide will be discussed and related, in order to illustrate the role of philosophy in understanding the structural complexity of social dynamics in the context of the information society. We argue that thinking about the contemporary world from the perspective of Information Ethics is becoming more and more essential to account the rapid changes that the information revolution imposes on life in society and so that we are not flooded by information excess that we witness in our everyday life.

Keywords: Information society, digital technologies, informational privacy, epistemic arrogance, digital divide.

Introdução

Ao apresentar e relacionar alguns problemas contemporâneos pela ótica da Ética Informacional pretendemos fornecer alternativas possíveis para um diagnóstico dos caminhos atuais da sociedade contemporânea, que aqui nos referimos como sociedade da informação. O desenvolvimento das tecnologias digitais – aquelas conectadas à internet – e sua rápida e crescente inserção na vida cotidiana dos indivíduos iniciaram uma revolução na dinâmica da sociedade de modo que os indivíduos passaram a ter formas inéditas de se relacionar entre si e com o ambiente, alterando noções como a própria compreensão em relação a ‘tempo’ e ‘espaço’, configurando as relações sociais a partir do ‘instantâneo’ e do ‘próximo’. Tal alteração impacta nas expressões social, política, econômica e educacional da vida humana, promovendo a reformulação de problemas tradicionais da vida em sociedade, além do surgimento de novos. É precisamente acerca deste conjunto de problemas que a Ética Informacional se constitui enquanto uma área recente da Filosofia.

Em linhas gerais, a Ética Informacional se estabelece a partir da investigação de questões éticas resultantes da inserção de tecnologias digitais na vida humana, e de princípios que possibilitem a avaliação moral de tais ações, considerando seu grau de novidade. Tendo em vista tal caráter de novidade, o conjunto de questões que emergem no contexto da sociedade da informação extrapola as abordagens fornecidas pelas teorias éticas tradicionais (Moraes, 2019). Neste contexto, inspirados em teorias clássicas, mas também reconhecendo seus limites, estudiosos como Rafael Capurro, Luciano Floridi, Maria Eunice Gonzalez, entre outros, têm se debruçado na investigação dos impactos da crescente presença das tecnologias digitais na sociedade, auxiliando na identificação das fronteiras dessa nova área de investigação filosófico-interdisciplinar.

Dentre a gama de problemas que compõem a agenda de investigação da Ética Informacional, objetivamos pensar a sociedade da informação analisando a inter-relação entre três problemas centrais, quais sejam: ‘privacidade informacional’, ‘arrogância epistêmica’ e ‘divisão digital’. Em linhas gerais, argumentaremos que a constituição do problema da privacidade informacional impacta a dinâmica da vida humana de modo a contribuir para a ocorrência do fenômeno da arrogância epistêmica e, assim, promover e/ou agravar a situação da divisão digital. Entendemos que este trabalho contribui para a compreensão do cenário complexo que caracteriza a sociedade da informação, e ressalta a importância da Filosofia e, em especial, da Ética Informacional enquanto ferramenta de análise.

Sociedade da informação

O rótulo ‘sociedade da informação’ tem sido frequentemente utilizado para denotar os dias atuais. No âmbito do senso comum, diz-se da imensa quantidade de informação com a qual os indivíduos se deparam, da grande quantidade de informação produzida e da ocorrência corriqueira da palavra ‘informação’ no dia a dia dos indivíduos. Na literatura acadêmica, há também uma diversidade de definições acerca desta expressão, das quais se destacam cinco: (i) tecnológica – as inovações tecnológicas que surgiram a partir de 1970 produziram uma reconstrução do mundo social em função de seu impacto (Toffler, 1980; Angel, 1995); (ii) econômica – ocorreu o aumento do valor econômico das atividades informacionais (Jonscher, 1999); (iii) profissional – houve um crescimento das oportunidades de trabalho informatizadas (Bell, 1976; Perkin, 1990); (iv) espacial – o poder das redes informacionais para conectar diferentes localidades geográficas afetou as organizações sociais em seu tempo e espaço, assumindo alcance global e instantâneo (Castells, 1996); e (v) cultural – o conteúdo informacional gerado tem alterado os rumos da moda, literatura, cinema, entretenimento televisivo, entre outras expressões culturais. Embora cada uma delas enfoque um cenário específico da vida humana, elas compartilham do pressuposto segundo o qual a informação está produzindo alterações quantitativas na dinâmica dos indivíduos, promovendo também um tipo de organização social qualitativamente nova (Webster, 2006).

O sentido de sociedade da informação que assumimos reúne aspectos de tais definições, mas possui um olhar mais profundo acerca do processo de digitalização da sociedade, de modo a analisar a relação íntima entre indivíduos e tecnologias digitais, a qual culmina na reformulação do entendimento que os indivíduos possuem de si e de suas interações com outros indivíduos e com o ambiente. Destacamos o caráter de novidade oriundo da mudança na estrutura das interações sociais e das organizações política, econômica e educacional. Neste sentido, denominamos sociedade da informação uma sociedade que se organiza a partir de interações sociais essencialmente mediadas por tecnologias digitais (Moraes, 2019).

Entende-se por tecnologias digitais principalmente aquelas relacionadas à internet, promovendo, por essa razão, as mudanças que o surgimento da internet carrega consigo na sociedade. Enquanto que as tecnologias pré-digitais, como rádio, televisão e jornal impresso faziam com que seus os usuários fossem, em sua grande maioria, apenas receptores de informação, as tecnologias digitais tornam estes mesmos usuários capazes de contribuir com informação para o ambiente online (conectado-em-rede) (Floridi, 2014). Tais usuários podem, então, gerar e compartilhar informação em tempo real para qualquer local do planeta que possua acesso à internet, ao invés de estarem apenas passivos à informação disponível e restrita localmente.

O desenvolvimento de uma relação de dependência presente entre os indivíduos e as tecnologias digitais gera quase que uma impossibilidade de viver em sociedade urbana sem que seja necessário utilizar algum tipo de tecnologia digital em expressões básicas da vida humana. Entretenimento (Instagram, Netflix, Twitter, Facebook, WhatsApp, Youtube), trabalho (Internet das Coisas, Indústria 4.0, Computação Ubíqua), educação (Google Classroom, Google Meet, Moodle, Microsoft Teams), relações íntimas (Tinder, Happn), atividades físicas (NRC+, Runkeeper, Strava), entre outros, se tornaram ações digitalmente mediadas. Em outras palavras, ações que eram realizadas sem a necessidade de mediação tecnológica algumas décadas atrás agora são desempenhadas digitalmente, apresentando um rápido crescimento no número de usuários. Tais expressões da vida humana são reduzidas aos aplicativos digitais que mediam sua efetivação, constituindo um caminho no qual sem tal utilização não seria possível interagir em sociedade, corroborando, assim, para a relação de dependência do indivíduo com tais tecnologias e a imersão do indivíduo no ambiente online.

O cenário de dependência das tecnologias digitais pelos indivíduos, concebido como um processo de digitalização da vida humana, viria a produzir a constituição de uma vida online, uma onlife (Capurro, 2008; Floridi, 2014, Moraes, 2019). Conforme argumenta Capurro (2008, p. 201, tradução nossa), uma característica fundamental da onlife é que “[...] a concepção dos computadores como sendo ‘outra’ coisa está desaparecendo”[1]; ou seja, as tecnologias digitais deixam de ser meramente uma ferramenta, um aparato, algo existencialmente alheio ao indivíduo, e passam a ser uma extensão da expressão da vida humana. Como consequência do desenvolvimento da onlife e da rapidez com a qual sociedade se torna imersa neste contexto, temos o surgimento e a coexistência de diferentes gerações em uma mesma era, como as Gerações Y (millenials), Z e @alpha.

A divisão da mesma era por gerações diferentes promove um choque de visões de mundo, de resultados distintos dos comportamentos diante de um mesmo contexto tecnológico. A Geração Y, por exemplo, ao nascer na década de 1980 viveu a experiência da transição da inserção das tecnologias digitais na vida cotidiana (e.g., a passagem das cartas físicas para o uso de e-mail), sendo necessário aprender como manusear as tecnologias digitais (i.e., frequentaram escolas de informática para aprender a utilizar Office, Internet Explorer, entre outros). Para esta Geração, dado o caráter de novidade das tecnologias digitais, há uma aceitação tácita e um uso não crítico das mesmas por ‘imaturidade’ diante do contexto que surgia. A Geração Z, por sua vez, nascida na segunda metade dos anos 1990, se desenvolve em um mundo no qual as tecnologias digitais já começam a constituir um aspecto ‘natural’ do ambiente, não havendo, por parte destes indivíduos, estranheza na manipulação de tais tecnologias. A Geração @alpha, por fim, nascida nos anos 2010, é situada em um mundo no qual não é possível conceber o que seria um ambiente no qual as tecnologias digitais não estariam presentes.

O crescente grau de imersão e interação tecnológica das Gerações Z, Y e @lpha indica um impacto profundo nas visões de mundo destes indivíduos, alterando a forma como se entendem no mundo e como podem expressar suas relações com ele. Temos, por exemplo, uma passagem da compreensão de mundo na qual a comunicação era realizada por meio de orelhões, telefones com fio, para uma comunicação que ocorre por aplicativos de mensagens, nas quais a própria linguagem tem sido alterada, destacando-se o crescente uso de emojis para significar a realidade. Emojis são imagens digitais utilizadas para expressar uma ideia, ou emoção, e, em 2015, um deles foi escolhido pelo Dicionário Oxford como a ‘palavra do ano’, a qual “[...] reflete os costumes, o humor ou as preocupações do ano que passa, além de ter um potencial duradouro como um termo de significado cultural”[2] (Oxford Languages, 2020a, tradução nossa).

A presença de tecnologias digitais na vida dos usuários também se evidencia no aumento, cada vez mais acelerado, do número de usuários da internet. Em 2020, o número de usuários alcança quase o total de 4,6 bilhões[3], sendo que a população global aproximada é de quase 8 bilhões[4]. Dos 57% da população mundial que está conectada à internet, 52% faz sua utilização por dispositivos móveis[5]. A novidade que se apresenta nos padrões de ação dos indivíduos é a facilidade de imersão digital uma vez que a porta de entrada para tal está na ‘palma da mão’ – há um estímulo para uso uso ‘imediato’, ‘espontâneo’ e ‘em tempo real’, se tornando um hábito com o passar do tempo.

Viver em sociedade urbana tem se tornado sinônimo de viver a partir de tecnologias digitais, ou ainda, de viver online. Os limites entre os ambientes off-line e online têm se tornado cada vez mais difíceis de ser identificados e a ausência de estranheza pelos indivíduos faz com que eles atuem de forma fluída em ambos os ambientes sem maiores dificuldades (Sorj, 2016). Destaca-se, assim, uma das principais características da nova organização da sociedade contemporânea, da constituição de novas expressões dos indivíduos no mundo – em sua autoconcepção e no modo como interage com outros indivíduos e com o ambiente –, as quais subjazem possibilidades de interação que não existiam antes de tais tecnologias.

As tecnologias digitais se desenvolvem no contexto de uma compreensão tácita da natureza e do trabalho humanos. O uso da tecnologia, por sua vez, leva a mudanças fundamentais no que fazemos e, finalmente, no que consiste em ser humano. Assim, conforme argumentam Winograd e Flores (1986, p. xi, tradução nossa): “[...] encontramos as profundas questões de design quando reconhecemos que, ao projetar [design] ferramentas, estamos criando [design] formas de ser”[6]. É neste contexto que a Ética Informacional se configura como uma teoria moral para a sociedade da informação (Floridi, 1999, 2008, 2013; Capurro, 2006, 2008; Quilici-Gonzalez, Kobayashi, Broens, & Gonzalez, 2010, 2014; Moraes, 2014, 2019). Ou seja, esta área recente de Filosofia lida com questões de cunho ético que surgem da relação entre indivíduo e tecnologias digitais, em como podemos compreender tal relação e quais são seus impactos e complexidade e, por fim, em como podemos pensar normativamente acerca dos problemas que compõem a agenda deste novo campo de investigação.

Como indicamos, a superação das distâncias geográficas, a produção de informação descentralizada, o compartilhamento de conteúdo em tempo real e a digitalização das ações são alguns exemplos de fatores que influenciam esta nova organização social. Também são eles que possuem uma relação direta com o surgimento de problemas relacionados à ‘privacidade informacional’, ‘arrogância epistêmica’ e ‘divisão digital’, que argumentamos possuírem uma íntima relação entre si.

O problema da privacidade informacional

Há um ditado popular que diz: ‘você é quem realmente você é quando ninguém está olhando’. Ou seja, haveria privacidade quando o indivíduo possui sua intimidade, sua subjetividade e sua autonomia preservadas. Somando a esta definição comum podemos também mencionar “[...] o estado ou condição de ser livre de observação ou perturbação por outra pessoa”[7](Oxford Lexico, 2020, tradução nossa). Temos, assim, um estado ou condição de preservação do mundo particular do indivíduo ao acesso por terceiros. No escopo dos estudos tradicionais, por sua vez, ela pode ser caracterizada em sua conotação ocidental, de caráter essencialmente individual, como a informação pessoal passível de acesso apenas ao próprio indivíduo ou a quem ele/ela considere confiável (Schoeman, 1984; Decew, 1997; Bennett, 2011; Moraes, 2014).

A privacidade se caracteriza enquanto um problema de cunho ético, inicialmente, por ser declarada um direito fundamental da humanidade reconhecida pelas Nações Unidas no Art. 12 da Declaração Universal dos Direitos Humanos[8]. Mais ainda, se torna relevante e digna de atenção quando a concebemos como intimamente relacionada às noções de liberdade e felicidade humanas (Greenwald, 2015). Sem a garantia de privacidade não há como assegurar a liberdade do indivíduo. Como consequência da ausência de privacidade destacam-se: a diminuição do comportamento espontâneo do indivíduo (resultante do conhecimento de estar sendo vigiado, por exemplo); a possibilidade de ser manipulado por terceiros (a posse de informação sobre o indivíduo dá poder de manipulação sobre suas ações futuras pautadas em situações prévias); a autonomia do indivíduo é colocada em risco (a capacidade de deliberação acerca de vontades próprias é colocada em xeque uma vez que não há garantia sobre a natureza própria do desejo e intenção). O impacto à privacidade do indivíduo está, então, intimamente relacionado a situações de condutas massificadas e alienação moral, além do questionamento sobre a própria existência efetiva do livre-arbítrio.

O tópico da privacidade enquanto um problema ético é bastante claro em situações em que ocorre o acesso e/ou divulgação de informação pessoal de um determinado indivíduo sem o seu consentimento. Exemplos de situações pré-digitais de invasão à privacidade são: verificação do lixo residencial, instalação de grampo telefônico, uso de detetive particular, compra de cupons de sorteio, entre outras. Situações estas que envolvem deslocamento físico e uma grande carga de energia despendida para obtenção de informação pessoal de indivíduos. Atualmente, porém, as características que tornam possível denominar os dias atuais enquanto sociedade da informação aumentam o grau de complexidade do problema da privacidade.

O alto grau de conectividade, o profundo impacto das tecnologias digitais na vida cotidiana dos indivíduos, e a constituição de uma relação de dependência com tais tecnologias para expressão de uma variedade de instâncias da vida humana em sociedade urbana promovem a reformulação do problema da privacidade para o que denominamos ‘problema da privacidade informacional’. O cenário atual é constituído, por um lado, de indivíduos que mergulham no contexto da digitalização das ações de forma deliberada, utilizando a tecnologia para se expressar (como as diversas redes sociais existentes) e, por outro lado, há um contexto preenchido por artefatos de computação ubíqua e internet das coisas que extrapolam o desejo do indivíduo de fornecer informação pessoal.

Os artefatos denominados ‘computação ubíqua’, conforme introduzido por Weiser (1991), são aqueles que estão disseminados na vida diária dos indivíduos, captando, armazenando e transmitindo informação sobre eles o tempo todo. Uma característica deste tipo de artefato é ser espalhada – sem um centro controlador específico e atuando, na maior parte das vezes, sem a consciência atenta dos indivíduos. A ‘internet das coisas’, por sua vez, é um conceito da computação utilizado para descrever a rede formada por artefatos cotidianos que são capazes de se conectar umas com as outras através da internet, fornecendo novos serviços para os usuários e produzindo uma grande quantidade de informação. A novidade desta tecnologia é que tais informações não foram criadas apenas pelos utilizadores que interagem com os dispositivos; elas também são criadas pelos próprios dispositivos de uma forma que não é necessariamente controlada por seus usuários, permitindo a comunicação artefato/artefato sem intervenção humana (Broens, Moraes & Cordero, 2017). Como exemplo de artefato de computação ubíqua podemos citar as câmeras de vigilância – que armazenam informações sobre o que acontece em um determinado ambiente, mesmo sem a atenção do indivíduo que está passando por aquela área –, e da internet das coisas, os crachás que se comunicam com sensores (de rede sem fio) para registrar a frequência do funcionário na empresa, sem a necessidade de o mesmo apresentar o crachá em um artefato específico.

Em outras palavras, o problema da privacidade informacional configura-se quando o tópico da privacidade está situado no contexto de complexidade gerada em situações de invasão e proteção da privacidade, em virtude do potencial de produção e captação de informação das tecnologias digitais (Moraes, 2014; Gonzalez & Moraes, 2014).

O risco à privacidade informacional no contexto da sociedade da informação é exemplificado por Moraes (2019, p. 143) como se segue:

[...] consideremos o seguinte cenário. Um clique e estamos na página inicial do perfil de Pedro no Facebook. Nela temos acesso à informação de que Pedro reside no Rio de Janeiro, estuda Física na Universidade Federal do Rio de Janeiro (UFRJ), é heterossexual, está em relacionamento sério com Maria e possui amizades em comum com Jéssica, Joana e Paula. Mais um clique e é possível saber que Pedro viajou recentemente para São Paulo a trabalho, que possui duas irmãs – Maria e Mariana – e um sobrinho de 2 anos. Outro clique e observamos que Pedro costuma assistir seriados, que tem preferência por música sertaneja (especialmente Michel Teló). Um clique para atualizar a página principal de Pedro e recebemos a informação de que ele acaba de sair para jantar com sua namorada em um restaurante na Lagoa Rodrigo de Freitas.

Diferente do contexto das tecnologias pré-digitais, no exemplo de Pedro com apenas quatro cliques obtém-se uma quantidade significativa de informação pessoal, sendo possível traçar um quadro de seus hábitos particulares. Com posse de tais informações alguém seria capaz de ter sucesso em uma tentativa de determinar ações futuras de Pedro; assim, uma vez que a privacidade de Pedro é colocada em risco, sua liberdade também é afetada.

Considerando que as ações dos indivíduos no ambiente online deixam ‘rastros’, o cenário fica mais complicado quando atentamos para o fato de que o Facebook é apenas uma das redes sociais online utilizadas pelos indivíduos. Destacam-se ainda outras redes sociais como: Twitter (com seu uso para expressar opiniões em postagens de 140 caracteres), LinkedIn (voltado para o mercado de trabalho), o YouTube (para o compartilhamento de conteúdo em vídeos) e Instagram (especialmente voltado para o compartilhamento de fotos); cada uma dessas redes sendo preenchida com um traço da subjetividade do indivíduo. Conforme Moraes (2019, p. 144), o grande número de envolvidos na utilização de tais redes sociais indica não apenas a quantidade de pessoas que as ‘alimentam’ com informação de caráter pessoal, mas também a quantidade de pessoas que podem vir a acessar a informação pessoal de um terceiro. Desse modo, a complexidade do cenário se destaca a partir do cruzamento das informações pessoais fornecidas nas diferentes redes sociais.

É possível ainda que os ‘rastros’ deixados pelos indivíduos no ambiente online não sejam deliberadamente fornecidos por eles, mas frutos de obtenção por tecnologias de internet das coisas ou computação ubíqua. Somando à complexidade do risco à privacidade informacional dos indivíduos, a quantidade de informação captada e armazenada sobre eles pode ser agora processada de forma extremamente eficiente por tecnologias de big data. Tais tecnologias possibilitam a análise de grande quantidade de dados, de modo a identificar padrões e correlações informacionais a partir das quais se infere possibilidades de ações futuras, “[...] cria novas formas de valor, alterando mercados, organizações e relações entre cidadãos e governos”[9] (Mayer-Schonberger & Cukier, 2013, p. 6, tradução nossa). Destaca-se, aqui, outro nível da relevância do problema da privacidade informacional referente à inserção do Estado na discussão sobre vigilância, que extrapola o indivíduo isolado e insere todos os cidadãos em seu potencial de análise.

O problema da privacidade informacional quando analisada a partir da perspectiva do Estado envolve a relação íntima entre privacidade e poder (Bobbio, 2007; Colombo, 2001). O lado do Estado nessa disputa em relação ao direito à privacidade do cidadão será o de defender a total transparência, de modo a promover o aprimoramento da sociedade da vigilância e, com isso, maior controle acerca dos indivíduos. Uma implicação possível de tal entendimento é a concepção de privacidade enquanto um prejuízo ao Estado, uma vez que prejudicaria a manutenção da segurança pública. De posse das informações sensíveis dos cidadãos, de seus hábitos e preferências, e a partir da utilização de tecnologias digitais o Estado é capaz de ampliar sua classificação de perfil pessoal a toda a população. E qual seria a gravidade de tal cenário? Conforme indicamos, sem a garantia da privacidade do indivíduo não há garantia de sua liberdade e autonomia e, neste caso, coloca-se em risco a garantia do Estado democrático de direito. A proposta de ‘transparência’ é apenas dos indivíduos para o Estado, e não o contrário. Assim, situações de liberdade de expressão e de pensamento, em especial as contrárias ao governo vigente, podem sofrer repressão e perseguições, como ocorrido em períodos como a Ditadura Militar (com seu mecanismo de vigilância e controle a partir do sistema nacional de informações - SNI).

De posse de uma quantidade massiva de informações sensíveis sobre seus cidadãos, o Estado constitui uma sociedade da vigilância e, por consequência, uma sociedade do controle (Foucault, 2002; Deleuze, 1992a, 1992b). Denúncias como as de Eduard Snowden, sobre a NSA, e Julian Assange, com o WikiLeaks, revelam situações de violação aos direitos humanos por parte do governo estadunidense, dentre elas à privacidade dos indivíduos. Conforme Greenwald (2015), Estado e empresas de internet colaboraram para a coleta de dados dos usuários sem o consentimento dos mesmos; empresas como Yahoo, Apple, Microsoft, Youtube e Google, sem as quais é praticamente impossível navegar na internet, forneceram tais dados. Se, individualmente, quanto mais informação se possui sobre um indivíduo, maior é a capacidade de influenciar, manipular e controlar seu comportamento, no plano coletivo o mesmo se coloca, se tornando possível a influência, manipulação e controle de toda uma sociedade a partir da perspectiva do Estado (auxiliado por empresas privadas). Constitui-se, assim, uma sociedade de controle em defesa dos interesses do Estado que dissolveriam as liberdades individuais de forma direta ou indireta, especialmente por meio da manipulação das informações a partir das quais se constituem a visão de mundo e as crenças dos indivíduos.

Como argumentamos, entendemos a sociedade da informação como o contexto atual no qual a organização da sociedade, em seus aspectos políticos, econômicos e educacionais, se dá essencialmente por mediação das tecnologias digitais. A dependência tecnológica dos indivíduos para expressar suas ações no mundo os torna mais suscetíveis às situações de invasão da privacidade informacional. O processo de digitalização do cotidiano traz consigo a construção das visões de mundo e das crenças individuais a partir das informações disponíveis na internet. De modo geral, frequentemente os indivíduos se ‘alimentam’ de informação fornecida por redes sociais e aplicativos de comunicação instantânea, como Facebook, Google e WhatsApp. No caso da ocorrência da invasão à privacidade informacional e da manipulação das informações que são apresentadas por esses meios, como garantir a autonomia e o livre-arbítrio na construção de crenças sobre o mundo pelos indivíduos? É justamente este fator inédito na dinâmica social que contribui para ocorrência e fortalecimento do fenômeno que denominamos ‘arrogância epistêmica’.

O problema da arrogância epistêmica

A arrogância epistêmica pode ser caracterizada como o ato de um agente acreditar saber mais do que realmente sabe. Ela pode ser analisada enquanto um problema oriundo da sociedade da informação na qual há um uso massivo de tecnologias digitais para constituição de crenças pessoais – em especial, as redes sociais –, as quais envolvem casos de filtros-bolha e câmaras de eco, fomentando situações de erros indutivos e vieses de confirmação (Moraes & Testa, 2018).

Os sistemas de crença e os processos que envolvem a formação e a dinâmica dos mesmos podem ser entendidos como fundamentais nas discussões contemporâneas em Filosofia da Mente e Epistemologia. Em relação a esta última, as principais questões são, grosso modo, explicar o porquê, quando e como nossas crenças são justificadas ou podem ser entendidas como conhecimento. Recentemente muito da atenção em relação a este debate se voltou aos efeitos epistêmicos das interações sociais. A chamada Epistemologia Social se baseia no fato de que o processo de formação, justificação e dinâmica de crenças dos indivíduos não devem abstrair seu ambiente social, pois a situação epistêmica humana é amplamente moldada pelas relações e instituições nas quais os indivíduos estão inseridos[10].

Segundo algumas vertentes da Epistemologia Social, os indivíduos baseiam suas decisões doxásticas (aquelas relativas à formação, justificação e dinâmica de crenças) no que podemos chamar de ‘evidência social’: enunciados, mensagens, atos ou pensamentos de seus pares e de especialistas em determinada área[11]. Neste caso, às fontes epistêmicas tradicionalmente consideradas tais como percepção, introspecção, memória e raciocínio, podemos também acrescentar a ‘declaração’ (testimony). Em linhas gerais, costuma-se assumir que conhecimento e justificação podem ser adquiridos ao se ouvir e ler sobre aquilo que outros aceitam como verdadeiro. Conforme argumenta Hardwig (1991), muito de nosso conhecimento é baseado na confiança, que deve ser entendida como um conceito ainda mais básico do que os dados empíricos ou argumentos lógicos. Atualmente, tal confiança se expressa também por mediação de tecnologias digitais ao assumir, entre outras, as redes sociais para expressar e justificar suas crenças individuais.

As crenças baseadas na confiança são justificadas ao assumirem as declarações de terceiros como evidência ou simplesmente como uma segurança epistêmica. Neste caso, a justificativa pela declaração se embasa no fato de que o declarante assume responsabilidade pela verdade da asserção (Zagzebski, 2012), o que entendemos envolver questões éticas sobre a responsabilidade epistêmica do mesmo. Além disso, destacamos algumas das questões práticas e lógicas envolvidas no ato de se justificar crenças pela confiança na declaração de outros agentes. As teorias aplicáveis para o enfoque nestas questões, e outras relacionadas tais como consideração de evidências, contextos de um julgamento, além dos critérios racionais para a aceitação ou rejeição de determinadas crenças são abordadas principalmente no campo de estudo chamado de pensamento crítico (Carnielli & Epstein, 2010).

Em linhas gerais, pensamento crítico é a disciplina que estuda o processo de se avaliar argumentos, que se utiliza da lógica para distinguir argumentos válidos dos inválidos, conclusões falsas das verdadeiras e, desta forma, tentar avaliar a força das justificativas das crenças aceitas. Em argumentos dedutivos, a verdade das premissas garante a verdade da conclusão – é impossível um argumento válido, com premissas verdadeiras, ter conclusões falsas. A questão de se aceitar tais conclusões, portanto, recai sobre a aceitação de suas premissas. Em uma regressão de justificativas, a aceitação ou não das premissas de argumentos dedutivos recaem normalmente sobre o escrutínio de justificativas indutivas, a não ser que aquelas sejam tautologias.

Em inferências indutivas, o que se coloca em questão é o suporte que as premissas fornecem para sustentar a conclusão – o sucesso de um argumento indutivo recai na capacidade das premissas de fornecerem evidências para sustentar a conclusão e, portanto, a verdade das premissas apenas garante que a conclusão seja, possivelmente (ou provavelmente), também verdadeira. Novas e relevantes informações a respeito das premissas afetam a confiança de um argumento indutivo, pois fornece evidências para que se mude a aceitação, ou não, de suas conclusões.

Um elemento central para nosso entendimento do problema da arrogância epistêmica é o erro indutivo que podem afetar a força de uma conclusão. Exemplos deste tipo de erro são: (a) indução preguiçosa e (b) apelo à autoridade, que ilustramos resumidamente a seguir:

a) Indução preguiçosa: Quando a conclusão de um argumento é negada, a despeito da evidência a favor da conclusão.

Exemplos:

a.1 Meu vizinho afirma ser um ótimo motorista, mesmo quando bebe. Ele estava bêbado nos últimos cinco acidentes de trânsito que causou, porém afirma ser apenas uma coincidência, e o erro ter sido dos outros – (há evidências suficientes para afirmar que o álcool afeta reflexos fundamentais para a condução).

a.2 Todas as pesquisas apontam para a subida nos índices de desemprego e inflação, porém o presidente afirma que seu pacote econômico é um sucesso – (há uma relação causal entre índices de desemprego, inflação e saúde econômica).

O próximo exemplo está intimamente ligado à justificação de uma crença pela confiança na declaração, anteriormente mencionada.

b) Apelo à autoridade: quando a força de uma conclusão se dá apenas pela palavra ou reputação de algum especialista ou autoridade. Este raciocínio é absurdo, e considerado uma falácia lógica, quando a conclusão se baseia exclusivamente na credibilidade do autor da proposição, e ignora as razões que ele apresentou para sustentá-la.

Podemos dizer que as pessoas cometem erros indutivos não somente quando seletivamente buscam ou lembram-se de informações, mas também quando as interpretam de uma maneira favorável. Assim, os erros indutivos muitas vezes estão relacionados aos chamados ‘vieses de confirmação’: tendência humana de procurar, interpretar ou mesmo lembrar apenas de informações que confirmem e corroboram com crenças previamente aceitas.

Mesmo as investigações científicas podem ser enviesadas e erros indutivos podem ser cometidos (Hempel, 1965). O raciocínio científico busca falsificar ou confirmar determinadas evidências, porém muitas vezes, no decorrer da história, cientistas resistiram a novas descobertas por interpretar seletivamente e ignorar informações desfavoráveis às suas evidências[12]. Mesmo quando critérios de avaliação por pares são aplicados é possível que cientistas avaliem resultados consistentes com suas crenças prévias de forma positiva em detrimento daqueles inconsistentes (Lee, Sugimoto, Zhang, & Cronin, 2013).

Não deveria ser algo surpreendente, portanto, que o fenômeno dos vieses de confirmação ocorra em raciocínios de não especialistas. Segundo a Psicologia, o efeito do viés de confirmação nas pessoas em geral é mais forte quando questões concernentes às suas crenças mais profundas são colocadas à prova, como, por exemplo, ideologias político-partidárias, religião, direitos e deveres individuais, questões de identidade, etc. – isto é, questões que normalmente trazem consigo uma forte carga emocional (Hastie & Dawes, 2009). O fato é que existe uma tendência lógica e psicológica das pessoas seletivamente se exporem àquelas informações que suportam suas crenças prévias, afastando-se daquelas inconsistentes com suas visões de mundo.

A literatura recente sobre o viés de confirmação se voltou, não por acaso, ao estudo da exposição seletiva nas mídias sociais como o Facebook e ferramentas de busca como o Google. Dois fenômenos distintos, porém, intimamente relacionados, têm sido amplamente estudados: as câmaras de eco e os filtros-bolha.

Como a própria metáfora já explica, nas câmaras de eco os sons reverberam e ecoam de forma amplificada. Analogamente, as crenças são ecoadas e amplificadas pela repetição dentro do sistema fechado. Nos filtros-bolha, as pessoas são separadas de informações conflitantes com seus pontos de vista e efetivamente isoladas em suas próprias bolhas ideológicas. Isso pode ocorrer deliberadamente, pois as pessoas apenas seguem páginas e amigos que compartilham sua própria visão de mundo, ou de forma não intencional, tendo em vista que os algoritmos [13] presentes nas redes sociais e ferramentas de busca selecionam quais as informações mostrarão ao usuário, baseados em sua localização, histórico de cliques e de busca (além de postagens impulsionadas financeiramente).

Os filtros dos algoritmos das redes sociais e de mecanismos de busca, porém, não devem ser interpretados como necessariamente ruins – o acesso imediato a todas estas informações é, do ponto de vista humano e também computacional, impossível. Filtros precisam ser programados e, portanto, algoritmos de entrega precisam ser desenhados para garantir uma correta variedade e amplitude de informações relevantes. Assim, por exemplo, o Google identifica quem está fazendo a busca e, por meio de um algoritmo, seleciona as informações consideradas úteis e importantes para cada usuário, conforme cada perfil, ao levar em consideração dados como localização, sistema operacional, histórico de buscas, etc.. Além disso, caso o usuário esteja logado no sistema (o que é o caso na grande maioria das vezes), o algoritmo também acessa informações pessoais como idade, escolaridade, língua, gênero, gostos pessoais, etc.. Esse processo de filtragem é o que personaliza os resultados da busca. Analogamente, o Facebook utiliza algoritmos para escolher quais postagens aparecerão na linha do tempo de seus membros[14].

Entretanto, o critério de relevância assumido pelos algoritmos é aprendido pelo sistema de acordo com as preferências do próprio usuário, o que o leva a erroneamente acreditar que aquelas informações disponíveis, desenhadas para serem compatíveis com sua própria visão de mundo, são de fato as únicas informações úteis e verdadeiras[15]. Os filtros-bolha e as câmaras de eco podem, assim, ser entendidas como estruturas epistêmicas sociais – no sentido de fornecerem justificativas sociais a determinadas crenças, conforme argumentamos. Elas sistematicamente excluem informações inconsistentes com aquelas previamente aceitas pelos seus membros que, na sua maioria, não têm consciência disso. Desta forma, tais estruturas corroboram com as justificativas àquelas crenças já aceitas (ou compatíveis a estas) e, portanto, as entrincheiram de tal forma a exagerar a confiança em relação a suas visões de mundo.

Uma implicação ética deste contexto propiciado pela sociedade da informação é que mesmo que o usuário de uma rede social tenha acesso às informações diferentes daquilo que acredita, o reforço positivo causado pela repetição e popularidade de sua própria visão de mundo fomenta os erros indutivos tais como mencionados. Conforme defende Nguyen (2018), em uma bolha epistêmica deixamos de ter acesso às informações fora dela, enquanto que em uma câmara de eco deixamos de ter confiança em tais informações, apesar de poder, eventualmente, acessá-las. A realidade, portanto, é que a vasta maioria das informações sequer aparecerá à frente deste usuário. Assim, embora as informações sejam filtradas, os usuários não têm a consciência disso. Um estudo de 2015 sugere que mais de 60% dos usuários do Facebook não sabem que as informações presentes em suas linhas do tempo (feeds) são filtradas e, portanto, acreditam que todas as postagens de seus amigos e páginas são apresentadas (Eslami et al., 2015).

As estruturas epistêmicas sociais, agora constituintes da digitalização do cotidiano e do conhecimento dos indivíduos, criam ambientes de exposição seletiva que acarretam comunidades de pessoas cada vez mais polarizadas e segregadoras, nos mais variados temas da vida social. Seus mecanismos de funcionamento se reforçam em um ciclo vicioso – diferente de um ambiente epistêmico saudável, no qual a variedade de informações naturalmente limita a confiança que os agentes depositam nas declarações de seus pares, dentro de tais estruturas não é criada uma rede saudável de informações.

Evidencia-se o fenômeno da arrogância epistêmica, decorrente da falsa impressão de acesso ilimitado à informação, propiciado pelo ambiente online, que alimenta os efeitos danosos dessas estruturas. Isso cria pessoas epistemicamente autoconfiantes, cujas convicções próprias (prontamente compartilhadas pelos membros de uma mesma comunidade), ou confiança em pessoas pretensamente especialistas (cuja falsa autoridade é alimentada exatamente pelo mesmo mecanismo danoso) são suficientes para justificar suas crenças.

O termo, já empregado na literatura por alguns autores como, por exemplo, Taleb (2007) ao descrever o oposto à humildade epistêmica, ilustra o fato de existir uma diferença entre aquilo que um agente acredita conhecer e aquilo que ele realmente conhece. Um agente é epistemicamente humilde quando ele acredita saber menos do que ele realmente sabe – lembremos do célebre exemplo de Sócrates que acreditava não possuir as respostas para suas questões mais fundamentais (sobre o que é virtude, beleza, justiça, etc.). Segundo o filósofo, reconhecer sua própria ignorância, de fato, é o que permitia e o motivava na busca pela verdade. Certamente um argumento análogo pode ser feito em relação à arrogância epistêmica, que impede a busca e aquisição de conhecimento.

Não obstante, certa dose de certeza e autoconfiança epistêmica são ingredientes fundamentais da racionalidade (Duncan, 2005; Baron, 2002; Gertler, 2011). Porém, seria possível a alguém aceitar uma crença mesmo que saiba que ela não é compartilhada por outros indivíduos sobre os quais o mesmo possui nenhuma superioridade epistêmica? E nos casos de crenças explicitamente rejeitada por outros, é racional aceitá-las? Em caso afirmativo, quais critérios de confiança sobre si mesmo e sobre os outros podem ser, racionalmente, assumidos? Independentemente das respostas que se assuma, permitir-se ser discordado é fundamental na busca de justificativas para as próprias crenças (Kelly, 2005). Tal atitude, entretanto, é prontamente ignorada por indivíduos epistemicamente arrogantes – não por má-fé ou irracionalidade, mas sim por estarem sistemicamente desinformados sobre quem confiar as justificativas de suas crenças – situação agravada com a imersão digital também epistêmica.

Impactos na divisão digital: considerações finais

A progressiva e acelerada digitalização da vida humana torna os indivíduos cada vez mais vulneráveis a invasão de suas privacidades. Tendo em vista que estas informações coletadas são justamente aquelas que alimentam os algoritmos das redes sociais, podemos dizer que elas ajudam a fomentar e promover o fenômeno da arrogância epistêmica. A questão se agrava ainda mais ao considerarmos a possibilidade de manipulação deliberada das informações disponíveis no ambiente online com o intuito de controlar as emoções e ações dos indivíduos (no ambiente off-line), seja realizada por parte das empresas privadas, seja pelo governo.

Um exemplo recente é o caso Facebook/Cambridge Analytica que, a partir da política intencionalmente frouxa do Facebook e a falta de leis que regulamentem o uso de big data, coletou informações pessoais de usuários daquela plataforma, possibilitando manipulá-los através da disseminação de fake news – as quais são prontamente aceitas pelos usuários uma vez que são estabelecidos mecanismos de arrogância epistêmica. O termo fake news pode ser entendido como notícias falsas criadas intencionalmente para parecerem verdadeiras, se associando a algum grau de familiaridade ao receptor para que ela se garanta enquanto confiável (Wardle & Derakhshan, 2017). Ainda, as fake news podem ser associadas à noção de ‘pós-verdade’, que, segundo o Dicionário Oxford, é um adjetivo “[...] que se relaciona ou denota circunstâncias nas quais fatos objetivos têm menos influencia em moldar a opinião pública do que apelos à emoção e crenças pessoais”[16] (Oxford Languages, 2020b). Quando consideramos o potencial das tecnologias de big data para identificar padrões informacionais de relações, experiências e humores, dos indivíduos a partir de suas informações pessoais, e a emoção enquanto elemento central em situações de arrogância epistêmica, casos como o experimento realizado pelo Facebook[17] para manipular e reconhecer as emoções dos usuários, sem o consentimento dos mesmos, evidenciam o potencial de controle que as tecnologias digitais podem fornecer às empresas e aos Estados.

Em fevereiro de 2018, Christopher Wylie, analista de dados da consultoria Cambridge Analytica, veio a público denunciar uma operação de coleta indevida de dados pessoais de usuários do Facebook obtidos através de testes e sobre o mau uso dos mesmos. Conforme explica Marcelo Pacheco (2018), a consultoria obteve acesso a dados pessoais de 50 milhões de usuário da rede social via realização de testes psicológicos. Embora 270 mil pessoas tenham realizado o teste, aceitando seus termos de uso – os quais envolviam acesso a informações como e-mail, amigos, páginas curtidas, entre outras relacionadas às suas preferências pessoais – a consultoria também teve acesso aos dados pessoais da rede de amigos daqueles que fizeram o teste, dos quais não houve consentimento.

O caso se agrava em relação à invasão à privacidade informacional, uma vez que os gráficos sociais gerados foram utilizados para traçar perfis de preferência política dos usuários. Tais preferências foram utilizadas em situações como o Brexit (a saída do Reino Unido da União Europeia) e as eleições estadunidenses em 2016, na qual Donald Trump foi vitorioso. Segundo Pacheco (2018), a campanha de Trump contratou os serviços da Cambridge Analytica para identificar os eleitores e direcionar os anúncios de campanha. Conforme exposto por Kaiser (2019), ao propagar mensagens com conteúdo racista e forte difamação dos adversários políticos, a Cambridge Analytica possibilitou a vitória do Brexit e a eleição de Donald Trump como presidente dos Estados Unidos. O que no período eleitoral de Trump, em 2016, era apenas uma denúncia ficou evidenciado com a confissão de Alexander Nix, presidente da Cambridge Analytica, acerca do papel decisivo que a empresa possuiu nesta eleição[18].

Um olhar sobre as eleições brasileiras em 2018 fornece elementos que possibilitam identificar o mesmo padrão de atuação das eleições estadunidenses. Juliana Gragnani (2017), em reportagem da BBC Brasil, torna público que uma investigação revelou a existência de um exército de perfis falsos utilizados para influenciar as eleições no Brasil. No período eleitoral, de 14 a 23 de setembro de 2018, o Facebook informa que 30 milhões de perfis de usuários brasileiros da rede social haviam sido invadidos por hackers. Conforme o ocorrido nos Estados Unidos, dentre as informações roubadas dos usuários estavam nome, endereço de e-mail e número de telefone. Magenta, Gragnani e Sousa (2018) destacam que foi a partir dos números de telefone roubados dos usuários do Facebook que campanhas de disparo em massa de informações começaram no WhatsApp. A este cenário ainda podemos acrescentar a pesquisa realizada no período que indica que apenas 8% das imagens difundidas em meio à batalha eleitoral brasileira de 2018 eram verdadeiras, resultado obtido a partir da análise de 50 imagens em 347 grupos do aplicativo de mensagem[19].

Conforme argumentamos, considerando que, atualmente, os indivíduos constituem suas visões de mundo através das informações obtidas pelas tecnologias digitais, em especial Facebook e WhatsApp, os mesmos estão ‘reféns’ dos filtros controlados por parâmetros desenvolvidos por pessoas em defesa dos interesses específicos de suas empresas. Reféns, pois, conforme indicamos, 60% dos usuários do Facebook não possuem conhecimento que as informações presentes em suas linhas do tempo são filtradas e, portanto, têm sua arrogância epistêmica enrijecida com o falso entendimento de que todas as postagens de seus amigos e páginas são apresentadas (Eslami et al., 2015). A união de situações de invasão à privacidade informacional dos indivíduos e de mecanismos de enrijecimento de arrogância epistêmica tem se mostrado proeminentes em situações de tomada de decisão com alto impacto na sociedade.

A manipulação das crenças dos indivíduos, fomentada e reforçada pela falta de privacidade e transparência sobre o funcionamento dos algoritmos, impactam na chamada ‘divisão digital’.

O tópico da divisão digital estaria relacionado, de modo geral, a situações em que lacunas se constituem entre ‘ter’ e ‘não ter’ no que diz respeito às tecnologias digitais. Porém, ela extrapola o mero ter e não ter tais tecnologias, podendo também ocorrer em relação às diferenças nas possibilidades de acesso à informação, ou acesso a dispositivos apropriados para o uso das tecnologias digitais (hardware e software), níveis de alfabetização, habilidades de manipulação sobre as tecnologias digitais, entre outros (Hacker & Mason, 2003; Himma & Bottis, 2014). Três níveis de análise contextual se destacam neste cenário: global, referente à desigualdade entre nações; nacional, quando há desigualdade entre estados; e local, no caso de desigualdade ser entre pessoas e/ou grupos. Além disso, a caracterização da divisão digital é realizada a partir de fatores como: idade, gênero, status econômico e social, educação, etnia, tipo de família (rural ou urbana), etc..

Himma e Bottis (2014) argumentam que o ponto central da constituição da divisão digital está nas lacunas que surgem da possibilidade, ou não, de um acesso ‘significativo’ das tecnologias digitais, de modo que os indivíduos possam obter vantagens culturais e econômicas a partir de sua utilização (conforme a noção de ‘cidadania digital’ proposta por Mossberger, Tolberg e Mcneal, 2007, e discutida em Moraes e Andrade, 2015). Em outras palavras, considera-se na parte excluída da divisão digital aquela parcela da população que utiliza as tecnologias digitais apenas para entretenimento superficial (e.g., realizar o download de músicas ou assistir vídeos por streaming), no sentido de não ser capaz de utilizar a informação obtida para promoção de conhecimento cultural e/ou bem-estar econômico. A colocação dos autores corrobora o entendimento de Hacker e Van Dijk (2000) que argumentam haver diversos níveis de divisão digital quando a concebemos a partir das ‘habilidades digitais’ dos usuários: acesso, know-how e oportunidade de uso contribuem para a constituição de múltiplos níveis de qualidade, especialmente no potencial de interação, inserção e experiência de vida online.

Ainda acerca das implicações políticas da divisão digital, Himma e Bottis (2014) argumentam que o fato de a parcela mais pobre da população mundial compor a maior parte daqueles que estão excluídos da sociedade da informação, não possuindo acesso às tecnologias digitais e ao seu uso, faz com que um círculo vicioso se mantenha em relação às desigualdades sociais em âmbito mundial. No entanto, podemos ainda ampliar esta análise.

Entendemos que a divisão digital pode ser caracterizada como ‘sistêmica’. É sistêmica, pois (i) está presente em todo o ciclo de vida das tecnologias digitais – com impactos éticos relativos ao desenvolvimento, desenho e uso de tais tecnologias, e (ii) afeta deliberadamente todos os usuários, tendo em vista os mecanismos elaborados pelos desenvolvedores para manter os usuários utilizando as plataformas e se beneficiar econômica e politicamente de tal uso. A ‘divisão digital sistêmica’ é relativa não apenas ao acesso e à alfabetização digital, mas também à habilidade de pensamento crítico sobre os impactos das tecnologias digitais sobre nossa forma de entender e agir nos ambientes online e off-line.

Conforme argumentamos, uma vez inseridos no lado excluído da divisão digital os indivíduos em geral não possuem ferramentas ou habilidades eficazes para reivindicar seu direito à participação na sociedade da informação (classificada pela ONU como um Direito da Humanidade): por um lado, eles têm sua voz menosprezada por aqueles que detêm os recursos tecnológicos e consideram que a divisão digital não é um problema (i.e., empresas desenvolvedoras de tecnologia que se apoiam no avanço tecnológico incessante); por outro, quando considerados no desenvolvimento da sociedade da informação, ficam reféns dos direcionamentos que lhe são impostos, sem a possibilidade de manifestação contrária, nem conhecimento crítico e técnico para isso.

Acreditamos que considerar o acesso significativo do indivíduo às tecnologias digitais, de modo a se desenvolver uma comunidade de indivíduos capazes de interagir com autonomia e pensamento crítico nos ambientes online e off-line, deve ser entendido como o problema central da ‘democracia digital’. Sendo assim, as discussões e análises aqui apresentadas se justificam para a compreensão dos rumos da sociedade da informação e do papel da Filosofia na constante atualização dos assuntos-chave que compõem sua agenda de problemas.

Agradecimentos

Os autores agradecem a Pedro Bravo e Eloísa Benvenutti pela leitura criteriosa e comentários. Rafael Testa é grato ao Projeto SNCT2020: Inteligência Artificial: Lógica e Humanidades, financiado pela chamada conjunta do CNPq e MCTIc.

Referências

Angel, I. (1995). Winners and losers in the information age. LSE Magazine, 7(1), 10-12.

Angwin, J.; Parris Jr., T. (2016, Oct. 28) Facebook lets advertisers exclude users by race. Propublica, 28/10/2016. Recuperado em 24 de outubro de 2020 de https://www.propublica.org/article/facebook-lets-advertisers-exclude-users-by-race

Baron, R. (2002). How to think about fallibilism. Philosophical Studies, 107, 143-157. Doi: 10.1023/A:1014759313260

Bell, D. (1976). The coming of post-industrial society: A venture in social forecasting. Harmondsworth, EN: Penguin.

Bennett, C. J. (2011). In defense of privacy: The concept and the regime. Surveillance & Society, 8(4), 485-496. Doi: 10.24908/ss.v8i4.4184

Bobbio, N. (2007). Estado, governo e sociedade: para uma teoria geral da política (14a ed., Marco Aurélio Nogueira, Trad.). São Paulo, SP: Paz e Terra.

Broens, M. C., Moraes, J. A., & Cordero, A. F. (2017). Technology and society: The impacts of the internet of things on individuals’ daily life. In F. Adams, O. Pessoa Jr., & J. E. Kogler Jr., (Eds.), Cognitive science: Recent advances and recurring problems (p. 151-162). Wilmington, DE: Vernon Press.

Carnielli, W. A., & Epstein, R. L. (2010). Pensamento crítico: o poder da lógica e da argumentação. São Paulo, SP: Rideel.

Capurro, R. (2006). Towards an ontological foundation of information ethics. Ethics and Information Technology, 8(4), 175-186. Doi: 10.1007/s10676-006-9108-0

Capurro, R. (2008). Interpreting the Digital Human. In Thinking Critically: Alternative Methods and Perspectives in Library and Information Studies. Milwaukee, WI: University of Wisconsin. Retrieved on Dec 10, 2020 from http://www.capurro.de/wisconsin.html

Castells, M. (1996). The rise of the network society. Malden, MA: Blackwell Publishers.

Colombo, E. (2001). Análise do Estado: o Estado como paradigma de poder. São Paulo, SP: Imaginário.

Decew, J. (1997). Privacy. In Stanford Encyclopedia of Philosophy. Retrieved on Oct 20, 2020 from http://plato.stanford.edu/entries/privacy/

Deleuze, G. (1992a). Controle e devir. In G. Deleuze,Conversações (p. 208-218, Peter Pál Pelbart, Trad.). Rio de Janeiro, RJ: Editora 34.

Deleuze, G. (1992b) Post-scriptum: sobre as sociedades de controle In G. Deleuze, Conversações (p. 219-226, Peter Pál Pelbart, Trad.). Rio de Janeiro, RJ: Editora 34.

Duncan, P. (2005). Wittgenstein's on certainty and contemporary anti-scepticism. In D. Moyal-Sharrock, D. & W. H. Brenner (Eds.), Readings of wittgenstein's on certainty (p. 189-224). London, UK: Palgrave Macmillan. Doi: 10.1057/9780230505346_11

Eslami, M., Rickman, A., Vaccaro, K., Aleyasen, A., Vuong, A., Karahalios, K., … Sandvig, C. (2015). “I always assumed that I wasn't really that close to [her]”: Reasoning about invisible algorithms in news feeds. In Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems (CHI '15) (p. 153-162). New York, NY: Association for Computing Machinery. Doi: 10.1145/2702123.2702556

Floridi, L. (1999). Information ethics: On the philosophical foundation of computer ethics. Ethics and Information Technology, 1, 33-52. Doi: 10.1023/A:1010018611096

Floridi, L. (2008). Information ethics: Its nature and scope. In J. Van den Hoven & J. Weckert (Eds.), Information technology and moral philosophy (Cambridge Studies in Philosophy and Public Policy, p. 40-65). Cambridge, UK: Cambridge University Press. Doi: 10.1017/CBO9780511498725.004

Floridi, L. (2013). The ethics of information. Oxford, UK: Oxford University Press.

Floridi, L. (2014). The fourth revolution: how the infosphere is reshaping human reality. Oxford, UK: Oxford University Press.

Foucault, M. (2002). Vigiar e punir: nascimento da prisão. Petrópolis, RJ: Vozes.

Gertler, B. (2011). Self-Knowledge. London, UK: Routledge.

Goldman, A., & Blanchard, T. (2016). Social epistemology. In E. N. Zalta, Stanford Encyclopedia of Philosophy (Winter 2016 Edition). Retrieved from https://plato.stanford.edu/entries/epistemology-social/

Gonzalez, M. E. Q., & Moraes, J. A. (2014). Complexidade e privacidade informacional: um estudo na perspectiva sistêmica. In E. Bresciani Filho, I. M. L. D’Ottaviano, M. E. Q. Gonzalez, A. M. Pellegrini, & R. C. S. Andrade (Org.), Auto-Organização. estudos interdisciplinares (Coleção CLE, Vol. 66). Campinas, SP: CLE-Unicamp.

Gragnani, J. (2017, Dec. 8). Exclusivo: investigação revela exército de perfis falsos usados para influenciar eleições no Brasil. BBC News Brasil. Recuperado em 24 de out. de 2020 de https://www.bbc.com/portuguese/brasil-42172146

Greenwald, G. (2015). No place to hide: Edward Snowden, the NSA & the surveillance state. London, UK: Penguim Books.

Hacker, K. L., & Mason, S. M. (2003). Ethical gaps in studies of the digital divide. Ethics and Information Technology, 5, 99-115. Doi: 10.1023/A:1024968602974

Hacker, K. L., & Van Dijk. J. (2000). Digital democracy: issues of theory and practice. London, UK: SAGE Publications Ltd. Doi: 10.4135/9781446218891

Hardwig, J. (1991). The role of trust in knowledge. Journal of Philosophy, 88(12), 693-708. Doi: 10.2307/2027007

Hastie, R., & Dawes, R. M. (2009). Rational choice in an uncertain world: The psychology of judgment and decision making (2nd ed.). London, UK: Sage Publications Inc.

Hempel, C. G. (1965). Confirmation, induction, and rational belief. In C. G. Hempel, (Ed.), Aspects of scientific explanation essays in the philosophy of science. New York, NY: The Free Press.

Himma K., & Bottis M. (2014). The digital divide: Information technologies and the obligation to alleviate poverty. In R. L. Sandler (Ed.), Ethics and emerging technologies (p. 333-346). London, UK: Palgrave Macmillan. Doi: 10.1057/9781137349088_22

Jonscher, C. (1999). Wired Life: Who are we in the digital age?. London, UK: Bantam Press.

Kaiser, B. (2019). Targeted: The cambridge analytica whistleblower's inside story of how big data, trump, and facebook broke democracy and how it can happen again. London, UK: Harper Collins.

Kelly, T. (2005). The epistemic significance of disagreement. In J. Hawthorne & T. Gendler (Eds.), Oxford Studies in Epistemology (Vol. 1, p. 167-196). Oxford, UK: Oxford University Press.

Lakatos, I. (1978). The methodology of scientific research programmes: Philosophical papers (Vol. 1). Cambridge, UK: Cambridge University Press. Doi: 10.1017/CBO9780511621123

Lee, C. J., Sugimoto, C. R., Zhang, G., & Cronin, B. (2013). Bias in peer review, Journal of the American Society for Information Science and Technology, 64, 2-17. Doi: 10.1002/asi.22784

List, C., & Pettit, P. (2011). Group agency: The possibility, design, and status of corporate agents. Oxford, UK: Oxford University Press. Doi: 10.1093/acprof:oso/9780199591565.001.0001

Magenta, M., Gragnani, J., & Souza, F. (2018, Oct. 20) Eleições 2018: Como telefones de usuários do Facebook foram usados por campanhas em 'disparos em massa' no WhatsApp. BBC News Brasil. Recuperado em 24 de outubro de 2020 de https://www.bbc.com/portuguese/brasil-45910249

Mayer-Schönberger, V., & Cukier, K. (2013). Big Data: a revolution that will transform how we live, work and think. London, UK: John Murray.

Moraes, J. A. (2014). Implicações éticas da “virada informacional na Filosofia”. Uberlândia, MG: Edufu.

Moraes, J. A. (2019). O paradigma da complexidade e a ética informacional. Campinas, SP: Coleção CLE.

Moraes, J. A. & Andrade, E. B. (2015). Who are the citizens of the digital citizenship? International Review of Information Ethics, 23(11), 4-19.

Moraes, J. A., & Testa, R. (2018). Social networks and epistemic arrogance: An ethical debate. In X Encontro internacional de informação, conhecimento e ação (Workshop 1: Information, Big Data and Complexity). Marília, SP: Universidade Estadual Paulista.

Mossberger, K., Tolberg, C. J., & Mcneal, R. S. (2007). Digital citizenship. The internet, society, and participation. Cambridge, MA: MIT Press.

Nguyen, C. T. (2018). Cognitive islands and runaway echo chambers: Problems for expert dependence. Synthese, 197, 2803–2821.Doi: 10.1007/s11229-018-1692-0

Oxford Languages. (2020a). Word of the year. Retrieved on Dec 10, 2020 from https://languages.oup.com/word-of-the-year/

Oxford Languages. (2020b). Post-truth. Retrieved on Dec 10, 2020 from https://languages.oup.com/word-of-the-year/

Oxford Lexico. (2020). Privacy. Retrieved on Dec 10, 2020 from https://www.lexico.com/en/definition/privacy

O'Neal, C. (2016). Weapons of math destruction: How Big Data increases inequality and threatens democracy. New York, NY: Crown

Perkin, H. (1990). The rise of professional society: England since 1880. New York: Routledge.

Quilici-Gonzalez, J. A., Kobayashi, G., Broens, M. C., & Gonzalez, M.E.Q. (2010). Ubiquitous computing: any ethical implications?. International Journal of Technoethics, 1(3), 11-23. Doi: 10.4018/jte.2010070102

Quilici-Gonzalez, J. A., Broens, M. C., Gonzalez, M.E.Q., & Kobayashi, G. (2014). Complexity and information technologies: an ethical inquiry into human autonomous action. Scientiae Studia, 12(spe), 161-179. Doi: 10.1590/S1678-31662014000400009

Schoeman, F. D. (1984). Philosophical dimensions of privacy: An anthology. Cambridge, MA: Cambridge University Press.

Sorj, B. (2016). Prefacio. In B. Sorj, & S. Fausto (Orgs.), Activismo politico en tiempos de internet (p. 9-10, Fabio Storino, Trad.). São Paulo, SP: Edições Plataforma Democrática.

Taleb, N. N. (2007). The black swan: The impact of the highly improbable. London, UK: Penguin Books.

Toffler, A. (1980). The third wave. London, UK: Collins.

Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy making. Strasbourg, FR: Council of Europe.

Webster, F. (2006). Theories of the information society (3rd ed.). New York, NY: Routlegde.

Weiser, M. (1991). The computer for the 21st century. Scientific American, 265(3), 94-105. Retrieved from http://www.jstor.org/stable/24938718

Winograd, T., & Flores, F. (1986). Understanding computers and cognition: A new foundation for design. Norwood, NJ: Ablex Publishing Corp.

Zagzebski, L. (2012). Epistemic authority: A theory of trust, authority and autonomy in belief. Oxford, UK: Oxford University Press.

Notas

[1] “ “The view of computers as something ‘other’ is disappearing, i.e., they are less and less ‘some-thing’ or ‘other-than-us’ and permeate the world in which we – or, more precisely: some of us – live”.
[2] “[…] reflect the ethos, mood, or preoccupations of that particular year and to have lasting potential as a word of cultural significance”
[3] Cf. https://www.internetworldstats.com/stats.htm
[4] Cf. https://www.worldometers.info/world-population/#:~:text=7.8%20Billion%20(2020),currently%20living)%20of%20the%20world
[5] https://datareportal.com/global-digital-overview
[6] “We encounter the deep questions of design when we recognize that in designing tools we are designing ways of being”.
[7] “[...] the state or condition of being free from being observed or disturbed by other people”.
[8] Fonte: http://www.un.org/en/universal-declaration-human-rights/
[9] “[...] create new forms of value, in ways that change markets, organizations, the relationship between citizens and governments”.
[10] Há também uma vertente da Epistemologia Social que aborda especificamente agentes coletivos, cujo foco é a possibilidade de se atribuir ações, intenções e representações de estados epistêmicos relativos a grupos de pessoas, tal como introduzido, por exemplo, em List e Pettit (2011).
[11] Apesar de, historicamente, a Epistemologia Social se basear em uma crítica e uma tentativa de se distanciar e rejeitar o foco tradicional em relação aos conceitos como justificação e racionalidade, contemporaneamente esta área de estudo é substancialmente próxima à Epistemologia clássica. Isto porque, como ressalta Goldman e Blanchard (2016), práticas sociais seriam um método a partir do qual pode-se buscar a verdade, uma vez que carregam um histórico de acertos e erros que perpassam tanto o coletivo como o individual.
[12] A reflexão crítica sobre a teoria da confirmação clássica observa que é difícil ou impossível fornecer uma especificação puramente formal do conjunto de consequências dedutivas de uma teoria que serve para reforçar a garantia desta teoria (Lakatos, 1978). Critérios subjetivos podem ser assumidos e, portanto, erros podem ser cometidos.
[13] Para um estudo sobre a subjetividade dos algoritmos e os perigos de sua tácita aceitação (enquanto critério objetivo) ver O’Neal (2016).
[14] Os algoritmos de propaganda, por si só, são outra questão. O Facebook, por exemplo, possibilita a exclusão de divulgação de informação conforme afinidades étnicas, ou seja, segundo a identidade étnica do usuário (Angwin & Parris Jr., 2016). Segundo os autores, seria como se as empresas pudessem decidir colocar anúncios apenas em jornais que fossem entregues as pessoas pertencentes a grupos étnicos associados a uma maior capacidade de consumo, o que é proibido por lei (neste caso, a lei estadunidense). As propagandas, por serem marcadas como tal, não entrariam diretamente no escopo de nosso artigo. Por outro lado, as postagens de propaganda enviesadas, disseminadas por perfis (em sua maioria, falsos), também fazem parte de nossa análise.
[15] Convém lembrar que Facebook e Google são empresas privadas que capitalizam sobre o uso que seus usuários fazem de seus serviços, sendo interessante a geração de lucro pela empresa que os usuários passem cada vez mais tempo em suas plataformas e forneçam cada vez mais dados pessoais; daí a relevância de ser um ‘espaço’ amigável e atraente para permanecer.
[16] “[…] relating to or denoting circumstances in which objective facts are less influential in shaping public opinion than appeals to emotion and personal belief”.
[17] Em 2012, um experimento secreto realizado pelo Facebook com 700 mil usuários utilizou um algoritmo para testar o efeito que o direcionamento de conteúdo pode manipular as emoções do usuário. Cf. https://brasil.elpais.com/brasil/2014/06/30/tecnologia/1404108700_038585.html
[18] Cf. https://www.theguardian.com/uk-news/2018/mar/19/cambridge-analytica-execs-boast-dirty-tricks-honey-traps-elections
[19] Cf. https://www.dw.com/pt-br/estudo-s%C3%B3-8-das-imagens-mais-difundidas-no-whatsapp-s%C3%A3o-verdadeiras/a-45939251

Notas de autor

moraesunesp@yahoo.com.br



Buscar:
Ir a la Página
IR
Visor de artículos científicos generados a partir de XML-JATS4R por