Artigo Original
Recepção: 21 Março 2021
Aprovação: 26 Julho 2022
Publicado: 08 Agosto 2022
DOI: https://doi.org/10.5007/1518-2924.2022.e86628
RESUMO
Objetivo: a retórica antidemocrática relacionada às festividades do dia da Independência do Brasil de 2021 rapidamente se espalhou nas mídias sociais, criando bolhas informacionais suscetíveis à ampla propagação de peças desinformativas. Com foco na produção, na circulação e no uso da informação, este estudo investiga as características dessas bolhas de (des)informação no Twitter.
Método: a análise dos dados foi feita a partir da combinação de Análise de Redes Sociais e Análise de Conteúdo, com levantamento feito via Application Programming Interface (API) do Twitter utilizando o termo de busca “7 de setembro”.
Resultados: partindo da análise de 40.000 tweets, identificou-se que em seis, dos oito dias analisados, uma única bolha apresentou maior influência na rede. Foram identificadas quatro características que contribuíram para isso: (1) a prevalência do uso de bots políticos (77,8% de n = 28) para compartilhamento de assuntos de interesse; o (2) uso intencional de hashtags com maior esforço de coordenação e mobilização; e o (3) uso de fontes e tipos de informação derivadas de meios de comunicação partidários (83,3% de n = 20), que, majoritariamente apelam para estesias coletivas, afetos e paixões.
Conclusões: se por um lado, estratégias de seleção e entrega de informações são fundamentais em um mundo onde a informação é produzida em escala de big data, por outro, a forma intransparente de como essa personalização é feita tem se tornado uma fórmula danosa para a esfera democrática, ao permitir a propagação de desinformação em larga escala, além de reposicionar ideologias extremistas que dantes eram periféricas, ética e moralmente rechaçadas, para o centro do debate.
PALAVRAS-CHAVE: Desinformação, câmaras de eco, filtros-bolha, twitter, exposição seletiva à informação.
ABSTRACT
Objective: The anti-democratic rhetoric related to the 2021 Brazilian Independence Day festivities rapidly spread on social media, creating informational bubbles susceptible to the widespread of disinformative pieces. Focusing on the information production', circulation' and use' this study investigates the characteristics of these (dis)information bubbles on Twitter.
Methods: The data analysis was done using a combination of Social Network Analysis and Content Analysis. The data was collected via Twitter's Application Programming Interface (API) using the search term “7 de setembro”.
Results: Based on the analysis of 40,000 tweets it was identified that in six of the eight days analyzed a single bubble presented the most influence in the network. Four characteristics that contributed to this were identified: (1) the prevalence of the use of political bots (77.8% of n = 28) for sharing issues of interest, in addition to the (2) intentional use of hashtags with higher coordination and mobilization efforts, and the (3) use of sources and types of information derived from partisan media (83.3% of n = 20), which mostly appeal to collective aesthetics, affections, and passions.
Conclusions: If, on the one hand, information selection and delivery strategies are fundamental in a world where information is produced on a massive scale of data, on the other hand, the untransparent way in which this personalization is done has become a formula detrimental to the democratic sphere by allowing the spread of misinformation on a large scale, as well as repositioning extremist ideologies that were once peripheral, ethically and morally rejected, to the core of the debate.
KEYWORDS: Disinformation, echo chambers, filter-bubbles, twitter, selective Exposure to Information.
1 INTRODUÇÃO
“Nós moldamos nossas ferramentas e então nossas ferramentas nos moldam” (John Culkin, 1967, p. 70, tradução nossa)1.
No dia 07 de setembro de 2021 a República Federativa do Brasil completou 199 anos de independência de seu colonizador Portugal. Essa data comemorativa sempre foi associada a festividades institucionais com forte engajamento social, no entanto, em 2021 tais comemorações foram forjadas em torno de um ideal antidemocrático: uma tentativa de golpe de Estado. Em uma dinâmica interacional complexa (FECHINE, 2021), a retórica agressiva da ala ultradireitista no país acendeu um sinal de alerta que rapidamente se espalhou pelo globo (BRAZIL'S…, 2021; WINTOUR, 2021). Esse modus operandi, à medida que age como um catalisador para a desvalorização de discursos democráticos normativos no ciberespaço, também amplia câmaras de eco2, a partir de agora, denominadas aqui por bolhas.
A organização de funções e processos sob a lógica de redes não constitui fato novo - tem perpassado períodos, estendendo-se até o presente (CASTELLS, 2002). Notadamente, a popularização de Sites de Redes Sociais (SRS), no âmbito do uso comercial da internet, oportunizou a expansão de redes, em que pessoas com opiniões ou interesses em comum se auto agrupam3 constituindo-se em comunidades virtuais. É nesse ecossistema, tendo como pano de fundo as particularidades inerentes à ampla interatividade, à curadoria algorítmica e às fracas estruturas de gerenciamento de identidade admitidas pelos Sites de Redes Sociais (SRS), que peças desinformativas são amplificadas atingindo escala considerável (AKERS et al., 2018; BARBERÁ; STEINERTTHRELKELD, 2020; BRADSHAW; HOWARD, 2019; CHOI et al., 2020; NIKOLOV; FLAMMINI; MENCZER, 2021).
Parece ser consensual, na literatura e na vida prática, que a internet e os SRS reconfiguraram o modo de comunicação e do compartilhamento de informações. Estudos anteriores identificaram que pessoas são expostas a informação de diversos pontos de vista no ambiente on-line (BARBERÁ, 2015; DAHLGREN et al., 2019), entretanto, práticas no contexto de um novo regime de informação, majoritariamente centradas na personalização algorítmica via algoritmos de aprendizagem de máquina, têm corroborado para a criação de redes cada vez mais homófilas no ciberespaço (BEZERRA, 2017; BEZERRA; ALMEIDA, 2020; MELLEUISH, 2021; PARISER, 2012; RAPOSO, 2017; SUNSTEIN, 2018). Isso significa que pessoas que pensam em comum são expostas com maior frequência a informações que reforçam seus vieses cognitivos, sejam estas informações genuínas ou desinformação, originando bolhas de (des)informação4.
Como notado por Just e Latzer (2016) e Kaluža (2022), o principal problema da personalização algorítmica para a esfera pública democrática não é por si só o isolamento da informação, mas a adaptação habitual dos usuários e algoritmos, que ora podem atender a interesses públicos, ora a privados. É nessa senda que guerras informacionais5 têm sido frequentemente travadas, seja qual for o assunto de interesse, desde exemplos extensivamente discutidos, como o Brexit e processos eleitorais no globo, aos mais atuais, como o confronto entre Rússia e Ucrânia, no início de 2022.
Nessa conjuntura, como um SRS que possibilita a visualização de conversas públicas, o Twitter tem recebido ampla atenção acadêmica sob várias abordagens (HAUSTEIN et al., 2015; STRUDWICKE; GRANT, 2020; WANG; LIU; GAO, 2016). Devido às suas possibilidades de uso6, tem o potencial de fornecer uma cartografia dos acontecimentos em distintos contextos e assuntos, e em vários domínios, incluindo, mas não se limitando à Ciência da Informação (BARAKAT; DABBOUS; TARHINI, 2021), Ciência da Comunicação (LEE; SOO, 2014) e Ciência da Computação (ATEFEH; KHREICH, 2015). Portanto, parte-se da premissa de que a plataforma pode ser utilizada como uma sonda digital social. Ainda, o Twitter como arena de análise neste estudo justifica-se por mais dois motivos: o primeiro, por ter se tornado um canal de comunicação comum entre figuras políticas e o público, sendo o conteúdo político parte majoritária das discussões da plataforma (HUSZÁR et al., 2021; GIGER et al., 2021). O segundo, por concentrar milhões de usuários ativos em um amplo espectro de audiência, sendo o Brasil o quinto país no ranking dos países com maior número de usuários, concentrando até outubro de 2021, pouco mais de 19 milhões de usuários ativos, atrás apenas dos Estados Unidos da América, Japão e Índia (STATISTA, 2021).
Em outubro de 2021, uma equipe de pesquisadores do Twitter divulgou que tweets postados por contas da direita política têm recebido maior amplificação algorítmica do que a esquerda política quando estudados como um grupo (HUSZÁR et al., 2021), e que para identificar os motivos pelos quais tais padrões ocorrem estudos adicionais se fazem necessários. Muito embora a lógica algorítmica das plataformas funcione como uma caixapreta, como destaca Barberá (2020), alguns comportamentos se mostram na superfície do iceberg, e é nesse contexto que este estudo acrescenta evidências relacionadas ao tema no cenário brasileiro. Aqui, objetivou-se investigar empiricamente o tema em uma tentativa de responder às seguintes perguntas de pesquisa (P.P):
P.P.1: Quais as características das bolhas de (des)informação envolvidas nas conversações sobre o Dia da Independência do Brasil de 2021?
P.P.2: No âmbito dos discursos relacionados ao Dia da Independência do Brasil de 2021, os tweets postados por contas pró-extrema direita política repercutiram mais do que os tweets postados por contas pró-esquerda política? Em caso afirmativo, por quais motivos esses tweets repercutiram mais?
Para tal, em um primeiro momento, no âmbito da cibermetria descritiva (ORDUÑAMALEA; AGUILLO, 2015) e da análise de redes sociais, investigou-se padrões da estrutura social das bolhas de (des)informação envolvidas; por conseguinte, categorizou-se como os discursos são amplificados através da identificação dos (1) atores (players) com maior influência e com maior interação nos discursos políticos, sejam estes, usuários reais ou usuários de comportamento automatizados (bots); (2) das funções de linguagens das hashtags e (3) das fontes e tipos de informação compartilhadas via URL nos tweets.
2. METODOLOGIA
Os dados para a pesquisa foram coletados de 01 a 08 de setembro de 2021 utilizando um crawler7 conectado via Application Programming Interface (API) do Twitter, com o termo de busca “7 de setembro”. Por limitações de ferramenta, foram extraídos 5.000 tweets por dia, resultando em um corpus total de 40.000 tweets. Embora os dados coletados sejam públicos, compreendendo as observâncias relacionadas às questões éticas no âmbito do uso da ARS como técnica de análise (KADUSHIN, 2005; TUBARO et al., 2021), garantiu-se o anonimato dos usuários que compuseram o corpus analisado. Além disso, trechos completos ou parciais de tweets não foram aqui reproduzidos.
2.1 Procedimentos e medidas
No âmbito da cibermetria descritiva, utilizou-se uma combinação de técnicas de análise, a Análise de Redes Sociais (ARS) e a análise de conteúdo. Os dados coletados foram transformados em arquivos de rede, e, a partir da análise de dados relacionais dos usuários, por meio da ARS, foi possível identificar padrões das estruturas sociais. As estruturas relacionais das redes são apresentadas em grafos, em que as contas dos usuários são representadas por nós (nodes) - em função do seu grau de entrada - e suas conexões, que são menções ou retweets, representadas por arestas (edges) - em função de suas interações, unindo os nós. A fim de tipificar os atores com maior influência e interação nas redes foram calculadas três medidas de centralidade de grau (DEGENNE; FORSÉ, 1999; WASSERMAN; FAUST, 1994):
Indegree (grau de entrada): que mede o número de conexões recebidas pelo nó, permitindo a identificação de nós com maior popularidade na rede;
Outdegree (grau de saída): que mede o número de conexões, permitindo a identificação de nós que constituíram mais relações, sejam elas recíprocas ou não.
Eigenvector (centralidade de autovetor): que quantifica a influência transitiva de um nó na rede.
Para representação e análise dos grafos direcionados, utilizou-se o software Gephi (BASTIAN; HEYMANN; JACOMY, 2009) e para a visualização das bolhas8, o algoritmo ForceAtlas2, cujo layout é direcionado por força, simulando um sistema físico em que os nós se repelem e as bordas se atraem, convergindo para um estado de equilíbrio (JACOMY et al., 2014).
Os nós foram coloridos com base na modularidade calculada pelo Gephi: os azuis representam os usuários pró-extrema direita política, os nós vermelhos, os usuários próesquerda política, e os nós cinza foram classificados como usuários neutros. Essa categorização foi feita a partir de análise de metadados do corpus: “pró-extrema direita” refere-se a um grupo que é parte de uma tendência global de extremismo político e que no cenário nacional possui características de populismo autoritário, reacionário, fomentadas em torno de discursos conspiratórios, medo e desinformação, como destacam Azevedo e Robertson (2021), Rocha, Solano e Medeiros (2021) e Kalil et al. (2021); “pró-esquerda” refere-se a grupo antagônico ao anterior, com visão ideológica de esquerda. Em uma comparação, Azevedo e Robertson (2021) destacam que a política de extrema direita que assumiu o poder no país em 2019 reverteu agenda que vinha garantindo direitos de inclusão e justiça social no cenário local. Por fim, usuários classificados como neutros são aqui entendidos como meios de comunicação tradicionais e jornalistas. Outros grupos políticos como, por exemplo, “direita política” não foram identificados em tamanho amostral considerável para que fossem aqui categorizados distintamente.
A fim de diferenciar bots de usuários reais, foram utilizados dois detectores de bots via API e API REST do Twitter - o Pegabot (https://pegabot.com.br) e o Botometer (YANG et al., 2019). Para minimizar riscos de classificações errôneas, dadas as especificidades de detecção de bots via algoritmo de aprendizado de máquina, os metadados (perfil de usuário, rede de seguidores e linguagem utilizada nos tweets) dos dois detectores de bots foram comparados e uma análise manual final foi conduzida. A ponderação das duas ferramentas foi feita com base em metadados de padrões temporais de tweets por hora/dia/semana dos usuários, além de metadados de redes de amigos, considerando também a proporção de padrões de retweets acima de 80%. O uso da análise de conteúdo permitiu mapear as funções de hashtags e tipificar fontes e tipos de informação.
3 RESULTADOS E DISCUSSÃO
A Figura 1 mostra o conjunto das bolhas no período de análise, em que é possível notar a divisão da rede em duas principais bolhas antagônicas - o que Sunstein (2001; 2018) define por “câmaras de eco”, em que grupos políticos têm baixa ou nenhuma interação uns com os outros, sendo a bolha azul, à direita, representada pelas comunidades pró-extrema direita política e a bolha vermelha, à esquerda, pelas comunidades próesquerda política. É possível observar também pequenas comunidades em cor cinza, que são perfis com opiniões neutras, tipicamente jornalistas ou meios de comunicação tradicionais.

Fortalecida pelos filtros-bolha, a radicalização da polarização tem sido notada como característica comum às redes de discussões políticas no Twitter (ARAUJO; OLIVEIRA, 2020; FREITAS; BOAVENTURA, 2018). Estes filtros, baseados em algoritmos de comportamento do usuário frente às informações que consome, favorecem um ambiente personalizado apenas com assuntos de interesse pessoal, reforçando vieses cognitivos (PARISER, 2012; SMITH et al., 2014).
Dos 40.000 tweets que compuseram o conjunto de dados (Tabela 1) da pesquisa, 5.830 (14,6%) foram tweets originais e 34.170 (85,4%) foram retweets (republicação de um tweet). O grafo da Figura 1, que compõe a rede completa dos oito dias analisados, possui um baixo coeficiente de agrupamento (0.001), característica própria das relações antagônicas entre as duas principais bolhas. A rede inteira possui 2.696 componentes fracamente e 25.176 fortemente conectados e grau médio de 1.596.

Os dados mostram que enquanto a bolha pró-esquerda (em vermelho) é mais fragmentada, a bolha pró-extrema direita (em azul) indica maior interconexão dos atores, com isso, concentrando os nós com maiores indegrees. A Tabela 2 a seguir descreve as métricas associadas às redes diárias e aos nós com maior indegree.

O que se observa, portanto, é que estas configurações podem favorecer a disseminação de desinformação e, por extensão, sugerem que os tweets postados por contas pró-extrema direita política repercutiram mais do que os tweets postados por contas pró-esquerda política. Este resultado corrobora com Rocha e Holz (2019), ao constatarem que indivíduos ligados à bolha pró-extrema direita se utilizam de estratégias para criar certa dominância em relação aos seus adversários. Ainda, a bolha pró-extrema direita (em azul), em seis, dos oito dias analisados, é a que possui maior densidade na rede, concentrando também os nós com maior indegree, conforme mostrado na Figura 2 (a), (b), (c), (e), (f) e (h). Já nos grafos da Figura 2(d) e 2(g), os nós com maior indegree se localizam no cluster pró-esquerda (em vermelho).

3.1 Atores influentes
Indo além da identificação da estrutura das bolhas, uma análise qualitativa das interações que nelas ocorrem foi conduzida. Dubois e Gaffney (2014) pontuam que o surgimento de novas tecnologias e plataformas de mídias sociais possibilitou a aparição de novos players nas discussões políticas nas mídias sociais. Desse modo, identificá-los permite caracterizar a qualidade das discussões e das informações compartilhadas.
Seguindo as observâncias relacionadas às questões éticas quanto ao uso da ARS, os atores foram codificados (Tabela 3) com base nas próprias descrições de seus perfis dos usuários no Twitter, em adição a algumas características que servem de base para o entendimento das especificidades associadas a estes players. Sete diferentes categorias para os atores mais influentes nas redes durante os oito dias foram identificadas.
Em síntese, as duas bolhas possuem característica híbrida, com diferentes atores. Identificou-se a prevalência da presença de políticos (n = 7) como players influenciadores em ambas as bolhas.

Tipicamente, esses atores contam com número elevado de seguidores, constituindose de peças-chave para a propagação de informações. A bolha pró-extrema direita preocupa pelas características de seus influenciadores, sendo amplamente conhecidos na mídia por incentivar atos contra instituições democráticas no país (usuários 1, 7, 9, e 15), e disseminar deliberadamente desinformação em massa (usuários 1, 7, 11, 9 e 15), incluindo ator com mandado de prisão expedido por esse motivo e por atacar deliberadamente membros do Supremo Tribunal Federal (usuário 9). Também se observa que os discursos desses players têm se capilarizado em outros meios e plataformas, como colunas de jornais, canais do Youtube e anúncios de cursos baseados em ideologias de extrema direita.
3.2 Mapeando superparticipantes por trás das interações: bots ou usuários humanos?
Olhando para o peso de participação dos usuários no ambiente on-line, Graham e Wright (2013), ao propor a categorização de superparticipants - usuários que participam mais do que a média em um assunto de interesse -, vão além das tipologias já preexistentes, como “trolls”, “especialistas”, “buscadores de informação”, “líderes de opinião” e “replicadores” (WELSER et al., 2007; VIEGAS; SMITH, 2004). Nesse contexto, a fim de tipificar esses superparticipantes, foram selecionados os top 10 usuários com maior outdegree em cada dia analisado (n = 80). Desses, foram identificados 74 diferentes perfis em que 48,6% (n = 36) eram, na verdade, contas automatizadas/semiautomatizadas, conhecidas como bots, enquanto 44,6% (n = 33) eram usuários humanos (Fig. 3). Um percentual de 6,8% (n = 5) das contas já não estava mais disponível, tendo sido suspensas da plataforma.

No que se refere aos superparticipantes identificados como usuários humanos, 32 usuários foram tipificados como sociedade civil e 1 conta como empresarial. Dos 36 bots políticos encontrados, 77,8% (n = 28) eram de comportamento automatizado pertencentes à bolha pró-extrema direita política e 22,2% (n = 8) pró-esquerda política. No geral, a função desses bots políticos se pautava em compartilhar informações tendenciosas de autoria desconhecida e palavras de ordem, além de memes de cunho político. Zago, Recuero e Soares (2018), ao aplicarem o conceito de superparticipants no âmbito da ARS para os usuários com maior outdegree em uma rede, identificaram que estes ajudam a moldar as redes polarizadas em conversações políticas no Twitter e agem intencionalmente para dar visibilidade a tópicos de interesse.
Forelle et al. (2015) pontuam que nem todos os bots são criados para promover causas políticas, mas todos compartilham de um interesse em comum - implantar e replicar mensagens. Em síntese, os papéis desempenhados pelos bots têm sido objeto de discussão frequente na literatura, pois estes podem ser tanto inofensivos, como também podem (1) “manipular o discurso público e influenciar opiniões e comportamentos humanos de forma opaca9” (YANG et al., 2019, p. 48, tradução nossa), (2) atuar como influenciadores de movimentos reacionários, como no movimento antivacina, por exemplo (BRONIATOWSKI et al., 2018; FERRARA et al., 2016), (3) servir de engajamento manipulatório em detrimento de um candidato político (BESSI; FERRARA, 2016; SANTINI; SALLES; TUCCI, 2021), e (4) disseminar propaganda terrorista (BERGER; MORGAN, 2015; YANG et al., 2019).
Devido aos recentes acontecimentos no cenário político global, estudos sobre bots políticos podem ser encontrados na literatura em diferentes cenários de aplicação. Por exemplo, Stukal et al. (2017) investigaram contas automatizadas na twittosfera russa e descobriram que, dentre as contas que tuitavam ativamente sobre conteúdo político, mais de 50% dos tweets eram originários de bots. Kollanyi, Howard e Woolley (2016) identificaram que nas eleições presidenciais norte-americanas de 2016 a atividade estratégica dos bots para produção de conteúdo durante os debates políticos atingiu um recorde histórico. Nas eleições de 2020 o uso de bots políticos seguiu aumentando, com a prevalência para narrativas conspiratórias, como pontuam Ferrara et al. (2020). Já na Venezuela, Forelle et al. (2015) descobriram que os bots promoveram eventos políticos inofensivos, mais do que atacar oponentes ou espalhar desinformação. Dentre os estudos empíricos no tema, um consenso prevalece - contas automatizadas impulsionam intencionalmente discursos antidemocráticos e teorias conspiratórias, incentivando ainda mais a radicalização ideológica do cenário político. No Brasil, a partir da análise de dados secundários de três diferentes cenários - eleições de 2014, impeachment da presidenta Dilma Rousseff em 2016, e eleições de 2018 - Santana, Nunes e Silva (2021) observaram o uso de bots desde o primeiro cenário e constataram sua evolução estratégica ao longo dos anos.
3.3 Estratégias discursivas: mapeando funções das hashtags
De marcadores e indexadores a agregadores de tópicos de conversação no ciberespaço, precedidas pelo símbolo “#”, hashtags podem ser utilizadas para aumentar a visibilidade e o poder simbólico das informações (WANG; LIU; GAO, 2016). Reconhecendo a importância dos papéis desses indexadores nos processos infocomunicacionais, identificou-se que dos 40.000 tweets coletados, 17,3% (n = 6.922) continham pelo menos uma hashtag e 82,7% (n = 33.078) não continham nenhuma. No total, foram identificadas 654 diferentes hashtags, no entanto, para esta análise, foram consideradas aquelas que apresentaram mais de 10 coocorrências no corpus (n = 41). Em síntese, 12 hashtags (37,6% de n = 2.382) pertenciam à bolha pró-extrema direta e 11 hashtags (28,3% de n = 1.797) à bolha pró-esquerda política e 18 eram neutras (34,1% de n = 2.163)10. Do dia 1 até o dia 06 de setembro, se comparadas com as hashtags criadas dentro da bolha próesquerda, as hashtags da bolha pró-extrema direita são caracterizadas por um esforço de coordenação especulativo em torno das festividades do dia 7 de setembro. Em contraste, as hashtags pró-esquerda são mais dispersas e reativas.
Ao extrapolar a condição inicial de mero monitoramento midiático, hashtags tornaram-se “recursos semióticos importantes na representação de posicionamentos comuns” (BICALHO, 2019, p. 250), operando na construção de sentido das mobilizações em rede. Nesta arena, Recuero e Araújo (2012) identificam dois tipos de hashtags: orgânica e artificial, sendo a primeira, criada a partir de uma pauta individual, sem esforço de coordenação, e a segunda, parte de uma ação coletiva impulsionada intencionalmente para atingir os trending topics e ganhar visibilidade. Neste sentido, tópicos artificiais têm sido objeto de estudo em diferentes frentes, dada sua capacidade, maximizada pelo uso de bots políticos, de desinformar e minar a opinião pública em diversos assuntos (BOLSOVER; HOWARD, 2019; BARHATE et al., 2020; FERRARA et al., 2020; STRUDWICKE; GRANT, 2020; KAWCHUK et al., 2020).
Para além da análise quantitativa, o modelo das funções de linguagem de Roman Jakobson (1960) foi aqui utilizado para tipificar as funções dessas hashtags. Recuero et al. (2015), pontuam que a aplicação do modelo das funções de linguagem de Jakobson na análise de hashtags pode ajudar a desvendar como estas são utilizadas na prática, indo além do sentido contextual ou conversacional, uma vez que as hashtags podem assumir diferentes papéis e funções nas mídias sociais. Jakobson (1960) explicita que para que o processo de comunicação ocorra são necessários seis elementos, cujas funções de linguagens estão a eles atrelados: (a) contexto; (b) remetente; (c) destinatário; (d) canal; (e) código e (f) mensagem. Assim, para a categorização das funções das hashtags foram consideradas as seis funções do modelo: (a) Referencial: seu enunciado centra-se no contexto, possuindo sobretudo uma função informativa objetiva; (b) Emotiva: expressa a subjetividade, opiniões, pensamentos e sentimentos do emissor; (c) Conativa: seu enunciado centra-se no receptor da mensagem, com vistas a influenciar ou chamar atenção; (d) Fática: seu enunciado centra-se no canal, com vistas à verificação do funcionamento correto do canal de comunicação; (e) Metalinguística: centra-se no código do enunciado para explicar o próprio código; (f) Poética: o enunciado centra-se na própria mensagem.
Conforme resultados apresentados na Tabela 4 a seguir, identificou-se um esforço coordenado e viral nas hashtags associadas à bolha pró-extrema direita, configurando-se com o maior número de ocorrências (n = 2.382) nos tweets analisados.

Nessa mesma bolha, também foi identificada a prevalência da função conativa (n = 2.164), seguida da função emotiva (n = 218). Os achados quanto ao uso majoritário da função conativa são similares aos de Recuero et al. (2015) ao analisarem as funções das hashtags durante o período de protestos no Brasil em 2013. Para os autores, o uso dessa função tem um papel similar a de um panfleto, com a função de motivar, influenciar e mobilizar. Já nas bolhas pró-esquerda e neutra, cujas hashtags são mais dispersas e reativas, observou-se a prevalência da função emotiva, que se baseia na intenção de compartilhar opiniões, pensamentos e sentimentos.
3.4 Estratégias discursivas de convencimento e autoconvencimento: mapeando meios de comunicação e fontes de informação compartilhadas via URL
Assim como uma hashtag, um Uniform Resource Locator (URL) - endereço virtual de um website - pode ser utilizado de forma estratégica, seja disseminando fontes de informação confiáveis, spam ou qualquer tipo de desinformação (WANG et al., 2013). Partese da premissa de que URLs compartilhadas nos tweets atuam como fontes de informação adicionais, que podem ser utilizadas com a intenção de justificar (convencimento) e/ou validar um enunciado (autoconvencimento). Em uma comparação com o uso de hashtags nos tweets, apesar das diferentes funções, notou-se que o compartilhamento de URL é um recurso mais utilizado do que as hashtags.
Identificou-se que 23,8% (n = 9.508) dos tweets do corpus (n = 40.000) continham algum URL. Desses, 2.262 foram ocorrências únicas. Assim, para a análise qualitativa dos URLs encontrados, utilizou-se uma amostra dos links que apresentaram coocorrências a partir de 10 menções (n = 170 URLs) e para a classificação das fontes de informação compartilhadas nesses links, foram utilizados três tipos de categorização de meios de comunicação:
Meios de comunicação tradicionais: “um sistema social que é formado por organizações de mídia de notícias legadas específicas que são caracterizadas por certas estruturas organizacionais, muitas vezes hierárquicas, e rotinas de publicação tradicionais. Eles cumprem uma função societária ao possibilitar o discurso público por meio da oferta de temas de interesse geral, que são orientados em fatos, selecionados por atores profissionais e publicados de acordo com regras profissionais” (HOLT; FIGENSCHOU; FRISCHLICH, 2019, p. 2, tradução nossa)11.
Meios de comunicação independentes: “inclui uma série de diferentes formas de mídia, incluindo revistas, rádio cooperativa, televisão a cabo comunitária e vários tipos de sites da Internet. O que torna qualquer mídia de notícias independente é que ela é de propriedade, operada e estruturada para permitir reportagens e comentários que compensem e contrariem o consenso da mídia corporativa” (BEERS, 2006, p. 116, tradução nossa)12.
Meios de comunicação partidários: “organizações de notícias da direita e da esquerda políticas que promovem explicitamente pontos de vista partidários ou cuja cobertura tende a se inclinar para quadros conservadores ou liberais” (WEEKS, 2017, não paginado, tradução nossa)13.
Dos 170 URLs analisados, foram identificadas 47 diferentes fontes de comunicação, sendo a prevalência (51,0%) de compartilhamento de informações oriundas de meios de comunicação partidários (n = 24), seguido de 27,6% de fontes de meios de comunicação tradicionais (n = 13) e 21,3% de fontes caracterizadas como independentes (n = 10). Do total de 24 meios partidários, identificou-se que 83,3% (n = 20) eram pró-extrema direita e 16,7% (n = 4) pró-esquerda política. Também se identificou 11 links que direcionavam para a plataforma Youtube (281 coocorrências) - dos 10 diferentes canais direcionados pelos links, nove pertenciam à bolha pró-extrema direita - tipicamente contendo chamadas de ordem para o dia 7 de setembro e análises da conjuntura baseadas em narrativas e manchetes tendenciosas e 1 consistia em mídia independente. Dentre os outros tipos de URLs encontradas estão links de compartilhamento de contas do Twitter (n = 5), links de ingresso em grupos do Telegram (n = 3) e links de Instagram (n = 1).
Por fim, para caracterizar os tipos das informações compartilhadas nesses URLs utilizou-se a categorização de Rubin, Chen e Conroy (2016), tipificada em três facetas:
Notícias genuínas: “reportagens verdadeiras [...] veículos [...] bem estabelecidos (por exemplo, www.nytimes.com, www.bbc.co.uk, www.cbc.ca) ou blogs de jornalistas cidadãos respeitáveis com uma reputação estabelecida. Tais fontes podem ser consideradas genuínas, salvo prova em contrário, retiradas ou corrigidas” (RUBIN; CHEN; CONROY, 2016, p. 3, tradução nossa)14.
Notícias fabricadas: “reportagens fraudulentas” […], a imprensa marrom e os tablóides apresentam um amplo espectro de notícias não verificadas e usam manchetes atraentes (“caça-cliques”), exageros, escândalos ou sensacionalismo para aumentar o tráfego ou os lucros” (RUBIN; CHEN; CONROY, 2016, p. 3, tradução nossa)15.
Embustes: “fabricação deliberada ou falsificação na grande maioria das mídias sociais. Tentativas de enganar o público disfarçadas de notícias, e podem ser coletadas e erroneamente validadas pelos meios de comunicação tradicionais” (RUBIN; CHEN; CONROY, 2016, p. 3, tradução nossa)16.
A Figura 4 a seguir resume os tipos de informação encontradas, associados aos 47 diferentes títulos de meios de comunicação, conforme achados anteriores. Ao todo, foram registradas 4.995 ocorrências. Muito embora o conceito de meio de comunicação tradicional associado ao baixo risco de divulgação de notícias verdadeiras não seja objeto consensual na literatura (TSFATI et al., 2020), identificou-se que 100% das notícias divulgadas por meio de links de meios de comunicação categorizados como tradicionais consistia em notícias genuínas (n = 1.774). No que se refere a análise de notícias publicadas por meios de comunicação independentes, identificou-se que 90% das notícias foram genuínas (n = 410), enquanto 10% foram notícias fabricadas (n = 46).

Já os meios de comunicação classificados como partidários apresentaram 61% de notícias genuínas (n = 1681), 23% de notícias tipificadas como fabricadas (n = 634), e 11% de embustes (n = 312); 5% não estavam disponíveis para consulta, com acesso restrito apenas para assinantes (n = 138). A bolha pró-extrema direita foi a que apresentou maior ocorrência de notícias veiculadas em sites partidários.
Druckman, Levendusky e McLain (2018) apontam que estudos anteriores parecem ter subestimado a impacto dos meios de comunicação partidários na opinião pública e argumentam que a influência destes pode se estender além do seu público direto, alcançando também aqueles que não os assistem ou os leem diretamente. Ao endossar crenças e vieses cognitivos, esses meios expõem os usuários a informações manipuladas ou deliberadamente falsas.
4 CONSIDERAÇÕES FINAIS
A personalização na curadoria e entrega de informações baseada em algoritmos programados para otimizar a experiência do usuário tem moldado a forma como a informação circula no ciberespaço. A epígrafe citada no início desse artigo, publicada por John Culkin ainda em 1967, resume com precisão esse cenário. Em uma aproximação atual: nós moldamos nossos algoritmos e então nossos algoritmos nos moldam.
Se por um lado, estratégias de seleção e entrega de informações são fundamentais em uma era onde a informação é produzida em escala de big data, por outro, a forma intransparente de como essa personalização é feita tem se tornado uma fórmula danosa para a esfera democrática, pois também permite a propagação de desinformação em larga escala, além de reposicionar ideologias extremistas que dantes eram periféricas, ética e moralmente rechaçadas, para o centro do debate.
Em síntese, verificou-se que enquanto a bolha pró-esquerda política apresentou-se mais fragmentada, mais reativa e aleatória na produção, uso, e circulação das informações, a bolha pró-extrema direita concentrou os usuários com maiores indegrees, em seis dos oito dias analisados, indicando maior interconexão dos atores - sugerindo, por extensão, que os tweets postados por contas pró-extrema direita política repercutiram mais do que os tweets postados por contas pró-esquerda política no Twitter. Dentre os motivos - ou pelo menos os que se mostram na superfície desse iceberg - que possibilitaram essa dinâmica podem ser destacados: (1) a prevalência do uso de bots políticos para compartilhamento de assuntos de interesse por essa bolha (77,8% / n = 28), o (2) uso intencional de hashtags com maior esforço de coordenação e mobilização, e o (3) uso de fontes e tipos de informação derivadas de meios de comunicação partidários (83,3%). Esses meios também se utilizaram de informações tendenciosas ou fabricadas e que, de modo geral, apelam para estesias coletivas, afetos e paixões.
Embora possua limitações inerentes à própria delimitação do corpus de análise, incluindo a possibilidade de classificações errôneas e a falta de análises em outros SRS além do Twitter, a coleta de dados amostrais recuperados durante o período analisado, permitiu a identificação de duas principais bolhas envolvidas nas conversações do Dia da Independência.
Por fim, considera-se que uma maior amplificação algorítmica para grupos em que seu modus operandi se baseia na disseminação de desinformação, utilização de bots políticos para criação de tópicos artificiais, e manipulação de opinião e notícias fabricadas, pode trazer sérias consequências para a sociedade. Também, o que se observa, é que essa combinação de táticas tem segregado cada vez mais usuários em bolhas, em temas que têm se extrapolado para além do aqui investigado. Nesse sentido, estudos que explorem diferentes cenários locais, associados a acontecimentos em todo o globo, podem ajudar a detectar padrões de produção, circulação e uso da informação, auxiliando na tomada de decisão de como reagir, ainda que tardiamente, a este novo regime de informação.
AGRADECIMENTOS
Os autores agradecem à Profa. Dra. Yvana Fechine e ao Prof. Dr. Paolo Demuru pelos comentários e sugestões feitos no desenvolvimento do estudo.
REFERÊNCIAS
AKERS, J. et al. Technology-Enabled Disinformation: Summary, Lessons, and Recommendations. arXiv.org, [s. l.], v. 1, 2018. Disponível em: Disponível em: https://arxiv.org/abs/1812.09383. Acesso em: 25 fev. 2022.
ARAUJO, R. F.; OLIVEIRA, T. M. Desinformação e mensagens sobre a hidroxicloroquina no Twitter: da pressão política à disputa científica. AtoZ: novas práticas em informação e conhecimento, v. 9, n. 2, p. 196-205, 2020. DOI: https://doi.org/10.5380/atoz.v9i2.75929
ATEFEH, F.; KHREICH, W. A Survey of Techniques for Event Detection in Twitter. Computational Intelligence, v. 31, p. 132-164, 2015. DOI: https://doi.org/10.1111/coin.12017
AZEVEDO, M. L.; ROBERTSON, S. L. Authoritarian populism in Brazil: Bolsonaro’s Caesarism, counter-trasformismo’ and reactionary education politics. Globalisation, Societies and Education, v. 20, n. 2, p. 151-162, 2022. DOI: https://doi.org/10.1080/14767724.2021.1955663
BARAKAT, A.; DABBOUS, K.; TARHINI, A. An empirical approach to understanding users' fake news identification on social media. Online Information Review, v. 45, n. 6, p. 1080-1096, 2021. DOI: https://doi.org/10.1108/OIR-08-2020-0333
BARBERÁ, P. How social media reduces mass political polarization. Evidence from Germany, Spain, and the U.S. In: American Political Science Association conference, 2015, Proceedings […] San Francisco, CA, 2015.
BARBERÁ, P. Social Media, Echo Chambers, and Political Polarization. In: PERSILY, Nathaniel; TUCKER, Joshua (org.). Social Media and Democracy: The State of the Field and Prospects for Reform, Cambridge: Cambridge University Press, 2020. p. 34-55. DOI: https://doi.org/10.1017/9781108890960.004
BARBERÁ, P.; STEINERT-THRELKELD, Z. How to use social media data for Political Science Research. In: CURINI, Luigi; FRANZESE, Robert (ed.). The SAGE Handbook of Research Methods in Political Science and International Relations.Thousand Oaks, CA: SAGE Publications, 2020. DOI: https://doi.org/10.4135/9781526486387.n26
BARHATE, S. et al. Twitter bot detection and their influence in hashtag manipulation. In: IEEE India Council International Conference, 17, 2020, India. Proceedings […]. India: IEEE, 2020, p. 1-7. DOI: https://doi.org/10.1109/INDICON49873.2020.9342152
BASTIAN, M., HEYMANN, S., & JACOMY, M. Gephi: an open source software for exploring and manipulating networks. Proceedings of the international AAAI conference on web and social media, v. 3, n. 1, 2009.
BRAZIL'S Bolsonaro: Only God will remove me from power. BBC, 2021. Disponível em: Disponível em: https://www.bbc.com/news/world-latin-america-58479028. Acesso em: 18 out. 2021
BEERS, D. The Public Sphere and Online, Independent Journalism. Revue Canadienne de L’éducation, v. 29, n. 1, 2006. DOI: https://doi.org/10.2307/20054149
BERGER, J. M.; MORGAN, J. The ISIS Twitter census: defining and describing the population of ISIS supporters on Twitter. Washington, DC: The Brookings Institution, 2015.
BESSI, A.; FERRARA, E. Social bots distort the 2016 US presidential election online discussion. First Monday, v. 21, n. 11, 2016. DOI: https://doi.org/10.5210/fm.v21i11.7090
BEZERRA, A. C. Vigilância e cultura algorítmica no novo regime global de mediação da Informação. Perspectivas em Ciência da Informação, v. 22, n. 4, p. 68-81, 2017. DOI: https://doi.org/10.1590/1981-5344/2936
BEZERRA, A. C.; ALMEIDA, M. A. Rage against the machine learning: a critical approach to the algorithmic mediation of information. Brazilian Journal of Information Science: research trends, v. 14, n. 2, 2020. DOI: https://doi.org/10.36311/1981-1640.2020.v14n2.02.p6
BICALHO, L. A. G. A função mediadora das hashtags no processo de impeachment de Dilma Rousseff: semiose e transmídia. Tese (Doutorado em Comunicação Social) - Faculdade de Filosofia e Ciências Humanas, Universidade Federal de Minas Gerais. Minas Gerais, 2019.
BOLSOVER, G.; HOWARD, P. Chinese computational propaganda: automation, algorithms and the manipulation of information about Chinese politics on Twitter and Weibo. Information, Communication & Society, v. 22, n. 14, p. 2063-2080, 2019. DOI: https://doi.org/10.1080/1369118X.2018.1476576
BOYD, D. It’s complicated: the social lives of networked teens. New Haven: Yale University Press, 2014.
BRADSHAW, S.; HOWARD, P. Social Media and Democracy in Crisis. In: GRAHAM, M.; DUTTON, W. H. (ed.). Society and the Internet: How Networks of Information and Communication are Changing Our Lives. United Kingdom: Oxford University Press, 2019.
BRONIATOWSKI, D. A. et al. Weaponized health communication: Twitter bots and Russian trolls amplify the vaccine debate. American Journal of Public Health, v. 108, n. 10, p. 1378-1384, 2018. DOI: https://doi.org/10.2105/AJPH.2018.304567
CABALLERO, F. S. Guerra informacional y sociedad-red: la potencia inmaterial de los ejércitos. Signo y Pensamiento, v. XXI, n. 40, 2002, p. 32-41.
CASTELLS, Manuel. A sociedade em rede. 6. ed. São Paulo: Paz e Terra, 2002.
CHOI, D. et al. Rumor Propagation is amplified by Echo Chambers in Social Media. Scientific Reports, v. 10, n. 310, 2020. DOI: https://doi.org/10.1038/s41598-019-57272-3
DAHLGREN, P. M. et al. Reinforcing spirals at work? Mutual influences between selective news exposure and ideological leaning. European Journal of Communication, v. 34, n. 2, 2019. DOI: https://doi.org/10.1177/0267323119830056
DEGENNE, A.; FORSÉ, M. Introducing Social Networks. London: SAGE, 1999. DOI: https://doi.org/10.4135/9781849209373
DRUCKMAN, J. N.; LEVENDUSKY, M. S.; MCLAIN, A. No Need to Watch: How the Effects of Partisan Media Can Spread via Interpersonal Discussions. American Journal of Political Science, v. 62, n. 1, 2018. DOI: https://doi.org/10.1111/ajps.12325
DUBOIS, E.; GAFFNEY, D. The multiple facets of influence: identifying political influentials and opinion leaders on Twitter. American Behavioral Scientist, v. 58, n. 10, 2014. DOI: https://doi.org/10.1177/0002764214527088
EVANS, S. K. et al. Explicating Affordances: a conceptual framework for understanding affordances in Communication Research, Journal of Computer-Mediated Communication, v. 22, n. 1, 2017. DOI: https://doi.org/10.1111/jcc4.12180
FECHINE, Y. Uma dinâmica interacional complexa. Acta Semiotica, v. 1, n. 1, 2021. DOI: https://doi.org/10.23925/2763-700X.2021n1.54179
FERRARA, E. et al. Characterizing social media manipulation in the 2020 U.S. presidential election. First Monday, v. 25, n. 11, 2020. DOI: https://doi.org/10.5210/fm.v25i11.11431
FERRARA, E. et al. The rise of social bots. Communications of the ACM, v. 59, n. 7, p. 96-104, 2016. DOI: https://doi.org/10.1145/2818717
FREITAS, E. C.; BOAVENTURA, L. H. Cenografia e ethos: o discurso da intolerância e polarização política no Twitter. Letras de Hoje, v. 53, n. 3, p. 449-458, 2018. DOI: https://doi.org/10.15448/1984-7726.2018.3.30796
FORELLE, M. et al. Political Bots and the Manipulation of Public Opinion in Venezuela. SSRN, 2015. DOI: https://doi.org/10.2139/ssrn.2635800
GIGER, N. et al. Policy or person? What voters want from their representatives on Twitter. Electoral Studies, v. 74, 2021. DOI: https://doi.org/10.1016/j.electstud.2021.102401
GRAHAM, T.; WRIGHT, S. Discursive equality and everyday talk online: the impact of “superparticipants”. Journal of Computer-Mediated Communication, v. 19, n. 3, 2013. DOI: https://doi.org/10.1111/jcc4.12016
HAUSTEIN, S. et al. Tweets as impact indicators: Examining the implications of automated “bot” accounts on Twitter. Journal of the Association for Information Science and Technology, v. 67, n. 1, 2015. DOI: https://doi.org/10.1002/asi.23456
HOLT, K.; FIGENSCHOU, T. U.; FRISCHLICH, L. Key Dimensions of Alternative News Media. Digital Journalism, v. 7, n. 7, 2019. DOI: https://doi.org/10.1080/21670811.2019.1625715
HUSZÁR, F. et al. Algorithmic Amplification of Politics on Twitter. Proceedings of the National Academy of Sciences, v. 119, n. 1, 2021. DOI: https://doi.org/10.1073/pnas.2025334119
JACOMY, M. et al. ForceAtlas2, a Continuous Graph Layout Algorithm for Handy Network Visualization Designed for the Gephi Software. PLOS ONE, v. 9, n. 6, 2014. DOI: https://doi.org/10.1371/journal.pone.0098679
JAKOBSON, R. Linguistics and poetics. In: SEBEOK, T. (ed.). Style in language. Cambridge, MA: MIT Press, 1960. p. 350-377.
JUST, N.; LATZER, M. Governance by algorithms: reality construction by algorithmic selection on the Internet. Media, Culture & Society, 39, v. 2, p. 238-258. 2017. DOI: https://doi.org/10.1177/0163443716643157
KADUSHIN, C. Who benefits from network analysis: ethics of social network research Social Networks, v. 27, n. 2, 2005. DOI: https://doi.org/10.1016/j.socnet.2005.01.005
KALIL, I.; SILVEIRA, S. C.; PINHEIRO, W.; KALIL, Á.; PEREIRA, J. V.; AZARIAS, W.; AMPARO, A. B. Politics of fear in Brazil: Far-right conspiracy theories on COVID-19, Global Discourse, v. 11, n. 3, p. 409-425, 2021. Disponível em: Disponível em: https://bristoluniversitypressdigital.com/view/journals/gd/11/3/article-p409.xml. Acesso em: 07 jun. 2022.
KALUŽA, J. Far-reaching effects of the filter bubble, the most notorious metaphor in media studies. AI & Soc, 2022. DOI: https://doi.org/10.1007/s00146-022-01399-x
KAWCHUK, G. et al. Misinformation about spinal manipulation and boosting immunity: an analysis of Twitter activity during the COVID-19 crisis. Chiropractic & Manual Therapies, v. 28, n. 34, 2020. DOI: https://doi.org/10.1186/s12998-020-00319-4
KOLLANYI, B.; HOWARD, P. N.; WOOLLEY, S. C. Bots and Automation over Twitter during the US Election. Data Memo 2016.2. Oxford: UK: Project on Computational Propaganda.
LEE, E.-J.; SOO, Y., S. When the Medium Is the Message: How Transportability Moderates the Effects of Politicians’ Twitter Communication. Communication Research, v. 41, n. 8, 2014. DOI: https://doi.org/10.1177/0093650212466407
MELLEUISH, G. Taming the Bubble. M/C Journal, v. 24, n. 1, 2021. DOI: https://doi.org/10.5204/mcj.2733
NIKOLOV, D.; FLAMMINI, A.; MENCZER, F. Right and left, partisanship predicts (asymmetric) vulnerability to misinformation. Harvard Kennedy School (HKS) Misinformation Review, v. 1, n. 7, 2021. DOI: https://doi.org/10.37016/mr-2020-55
OLTMANN, S. M.; COOPER, T. B.; PROFERES, N. How Twitter’s affordances empower dissent and information dissemination: an exploratory study of the rogue and alt government agency Twitter accounts. Government Information Quarterly, v. 37, n. 3, 2020. DOI: https://doi.org/10.1016/j.giq.2020.101475
ORDUÑA-MALEA, E.; AGUILLO, I. F. Cibermetría: midiendo el espacio red. Barcelona: Editorial UOC, 2015.
PARISER, E. The Filter Bubble: What the Internet Is Hiding from You. London: Penguin, 2012. DOI: https://doi.org/10.3139/9783446431164
PEGABOT. https://pegabot.com.br/ Acesso em: 10, set. 2021.
RAPOSO, J. F. Algoritmos, personalização e filtragem do conteúdo. In: SAAD, E. C.; SILVEIRA, S. C. (org.) Tendências em comunicação digital. São Paulo: ECA USP, 2017, 148-167.
RECUERO, R. et al. Hashtags Functions in the Protests Across Brazil. SAGE Open, 2015. DOI: https://doi.org/10.1177/2158244015586000
RECUERO, R.; ARAÚJO, R. On the rise of artificial trending topics in Twitter. In: ACM Conference on Hypertext and Social Media, 23rd, 2012, Wisconsin. Proceedings […]. Wisconsin: Association for Computing Machinery, 2012. p. 305-306.DOI: https://doi.org/10.1145/2309996.2310046
ROCHA, C.; SOLANO, E.; MEDEIROS, J. The Bolsonaro Paradox: The Public Sphere and RightWing Counterpublicity in Contemporary Brazil. Denmark: Springer Cham, 2021.
WANG, S. B. et al. Click traffic analysis of short URL spam on Twitter. In: IEEE International Conference on Collaborative Computing: Networking, Applications and Worksharing, 9th, 2013, Austin. Proceedings […]. Austin: ICST, 2013. p. 250-259. DOI: https://doi.org/10.4108/icst.collaboratecom.2013.254084
ROCHA, N. A.; HOLZ, M. S. A Indústria Bolsonarista de Trending Topics no Twitter: a que se deve a eficiente estratégia Pró-Governo nas Redes Sociais? In: Encontro Nacional de Ensino e Pesquisa do Campo de Públicas, 3., 2019, Rio Grande do Norte. Anais eletrônicos […] Natal, 2019. p. 2137-2147.
RUBIN, V.; CHEN, Y.; CONROY, N. Deception detection for news: three types of fakes. Proceedings of the Association for Information Science and Technology, v. 52, n. 1, 2016. DOI: https://doi.org/10.1002/pra2.2015.145052010083
SANTANA, C.; NUNES, A.; SILVA, F. The role of bots in the disinformation process in brazilian politics between 2014 and 2018. Libri, v. 71, n. 4. 2020. DOI: https://doi.org/10.1515/libri-2020-0071
SANTINI, R. M.; SALLES, D.; TUCCI, G. When machine behavior targets future voters: The use of social bots to test narratives for political campaigns in Brazil. International Journal of Communication, v. 15, 2021.
SANTOS-D’AMORIM, K.; MIRANDA, M. K. F. O. Misinformation, disinformation, and malinformation: clarifying the definitions and examples in disinfodemic times. Encontros Bibli: revista eletrônica de biblioteconomia e ciência da informação, v. 26, 2021. DOI: https://doi.org/10.5007/1518-2924.2021.e76900
SMITH, M. et al. Mapping Twitter Topic Networks: From Polarized Crowds to Community Clusters. Washington: Pew Research Center, 2014.
STUKAL, D. et al. Detecting Bots on Russian Political Twitter. Big Data, v. 5, n. 4, p. 310-324, 2017. DOI: https://doi.org/10.1089/big.2017.0038
STATISTA. Leading countries based on number of Twitter users as of October 2021. 2021. Disponível em: Disponível em: https://www.statista.com/statistics/242606/number-of-active-twitter-users-inselected-countries/. Acesso em: 09 março 2022.
STRUDWICKE, I.; GRANT, W. J. #JunkScience: Investigating pseudoscience disinformation in the Russian Internet Research Agency tweets. Public Understanding of Science, v. 29, n. 5, 2020. DOI: https://doi.org/10.1177/0963662520935071
SUNSTEIN, C. #Republic: Divided Democracy in the Age of Social Media. Princeton: Princeton University Press, 2018. DOI: https://doi.org/10.1515/9781400884711
SUNSTEIN, C. Echo Chambers. Princeton: Princeton University Press , 2001.
TSFATI, Y. et al. Causes and consequences of mainstream media dissemination of fake news: literature review and synthesis, Annals of the International Communication Association, v. 44, n. 2, p. 157-173, 2020. https://doi.org/10.1080/23808985.2020.1759443
TUBARO, P. et al. Social network analysis: New ethical approaches through collective reflexivity. Introduction to the special issue of Social Networks. Social Networks, v. 67, 2021. DOI: https://doi.org/10.1016/j.socnet.2020.12.001
VIEGAS, F. B.; SMITH, M. A. Newsgroup crowds and author lines: visualizing the activity of individuals in conversational cyberspaces. Big Island, HI: IEEE, 2004. DOI: https://doi.org/10.1109/HICSS.2004.1265288
WANG, R.; LIU, W.; GAO, S. Hashtags and information virality in networked social movement: examining hashtag co-occurrence patterns. Online Information Review, v. 40, n. 7, 2016. DOI: https://doi.org/10.4108/icst.collaboratecom.2013.254084
WANG, S. B. et al. Click traffic analysis of short URL spam on Twitter. In: IEEE International Conference on Collaborative Computing: Networking, Applications and Worksharing, 9th, 2013, Austin. Proceedings […]. Austin: ICST , 2013. p. 250-259. DOI: https://doi.org/10.4108/icst.collaboratecom.2013.254084
WASSERMAN, S.; FAUST, K. Social Network Analysis: Methods and Applications. Cambridge: Cambridge University Press , 1994. DOI: https://doi.org/10.1017/CBO9780511815478
WEEKS, B. Why Partisan News-Not Just Fake News-Promotes Political Misperceptions. Learn Speak Act. Michigan, 2017. Disponível em: Disponível em: https://sites.lsa.umich.edu/learn-speakact/2017/04/12/why-partisan-news-not-just-fake-news-promotes-political-misperceptions/. Acesso em: 20. out. 2021.
WELSER, H. T. et al. Visualizing the signatures of social roles in online discussion groups. Journal of Social Structure, v. 8, n. 2, 2007.
WINTOUR, Patrick. Brazil: warning Bolsonaro may be planning military coup amid rallies. The Guardian, 6 set. 2021. https://www.theguardian.com/world/2021/sep/06/brazil-warning-bolsonaromay-be-planning-military-coup-amid-rallies
YANG, K-C. et al. Arming the public with artificial intelligence to counter social bots. Human Behavior & Emerging Technologies, v. 1, n. 1, 2019. DOI: https://doi.org/10.1002/hbe2.115
ZAGO, G.; RECUERO, R.; SOARES, F. Political fandoms and superparticipants in political conversations on twitter. AoIR Selected Papers of Internet Research, v. 18, n. 1, 2018. DOI: ttps://doi.org/10.5210/spir.v2018i0.10514
Notas
Autor notes
Coleta de dados: K. Santos-d’Amorim
Análise de dados: K. Santos-d’Amorim
Discussão dos resultados: K. Santos-d’Amorim e R. N. Macedo dos Santos
Revisão e aprovação: K. Santos-d’Amorim e R. N. Macedo dos Santos
karen.isantos@ufpe.brraimundo.macedo@ufpe.br