DOSSIÊ DO ANALÓGICO À INTELIGÊNCIA ARTIFICIAL: 30 ANOS DE COMUNICAÇÃO E EDUCAÇÃO

Entre continuidades e rupturas: a representação do cientista e da ciência a partir de imagens geradas pelo ChatGPT 1

Luiz Felipe Fernandes Neves
Instituto Nacional de Comunicação Pública da Ciência e Tecnologia, Brasil
Amanda Medeiros
Instituto Nacional de Comunicação Pública da Ciência e Tecnologia, Brasil
Luisa Massarani
Instituto Nacional de Comunicação Pública da Ciência e Tecnologia, Brasil

Entre continuidades e rupturas: a representação do cientista e da ciência a partir de imagens geradas pelo ChatGPT 1

Comunicação & Educação, vol. 29, no. 1, pp. 127-146, 2024

São Paulo SP: Universidade de São Paulo Escola de Comunicações e Artes Departamento de Comunicações e Artes

Received: 30 March 2024

Accepted: 20 May 2024

Resumo: Imagens estereotipadas do cientista e da ciência têm o potencial de interferir na confiança e em movimentos de aproximação/afastamento do campo científico por parte da população. Diante do crescente uso da Inteligência Artificial (IA) no contemporâneo, objetivamos analisar imagens geradas pelo ChatGPT sobre “cientista” e “ciência”, buscando observar continuidades e rupturas na manutenção de estereótipos raciais, de gênero e etário, além de estereótipos que apontam para as ciências exatas e biológicas como modelo de referência. De um modo geral, os resultados sugerem a reafirmação do cientista como homem branco, bem como das ciências exatas e biológicas como centrais na sociedade. Indicam ainda mudanças na prática científica, que vai de individual a coletiva, e trazem uma visão otimista quanto à inclusão do jovem cientista, e a facilidade de acesso a recursos hipertecnológicos.

Palavras-chave: Inteligência artificial, representação, estereótipos, cientista, ciência.

Abstract: Stereotypical images of scientists and science may interfere with the trust of the public and movements toward or away from the scientific field. Given the increasing use of artificial intelligence in contemporary times, we aim to analyze images generated by ChatGPT regarding “scientist” and “science” to find continuities and ruptures in the maintenance of racial, gender, and age stereotypes, as well as those that point to the exact and biological sciences as a reference model. Overall, results suggest the reaffirmation of the scientist as a white man, as well as of exact and biological sciences as central in society. They also indicate changes in scientific practice, shifting from the individual to the collective, bringing an optimistic view regarding the inclusion of young scientists and the ease of access to hypertechnological resources.

Keywords: Artificial intelligence, representation, stereotypes, scientist, science.

INTRODUÇÃO

Do primeiro modelo computacional para redes neurais, em 1943, 2 passando pela concepção do termo Inteligência Artificial (IA), em 1956, 3 a área evoluiu de “simples” máquinas que executam operações de maneira automatizada para sistemas capazes de realizar tarefas complexas, anteriormente consideradas exclusivas da inteligência humana. Entretanto, esse desenvolvimento tem sido marcado por períodos de entusiasmo e decepção – conhecidos como os verões e os invernos da IA. 4 Sichman 5 considera que o período atual é de euforia, proporcionado sobretudo pela redução nos custos de processamento e memória, pelo surgimento de novos paradigmas, como as redes neurais profundas, e pela gigantesca quantidade de dados disponíveis na internet.

A face mais visível e popular desse momento de entusiasmo está no lançamento de modelos de IA generativa: algoritmos usados para criar novos conteúdos, que podem incluir texto, imagens, áudio, vídeo, entre outros. 6 As IAs generativas, principalmente aquelas desenvolvidas para a criação de conteúdo textual e visual, como o ChatGPT, têm demonstrado capacidade e versatilidade impressionantes, abrindo portas para aplicações inovadoras em diversas áreas, como a educação, a arte, a comunicação e a medicina. Entretanto, a capacidade de simular conversas humanas, redigir textos persuasivos e criar imagens detalhadas, ao mesmo tempo em que ressaltam as vantagens dessas ferramentas, levantam dúvidas sobre como essas informações têm sido geradas e, em última instância, quais as características desses conteúdos. Afinal, como a IA retrata a realidade?

Nesse contexto, este estudo foca nas representações visuais feitas por um modelo de IA generativa – o ChatGPT – em relação à ciência e ao cientista. Para isso, analisamos 30 imagens geradas pelo ChatGPT, criadas por meio de comandos ( prompts ) simples e diretos sobre temas relacionados à temática científica. A análise se articula aos estudos sobre representações e estereótipos 7 , 8 da ciência e do cientista, principalmente a partir de recortes de gênero, raça e idade, e das idealizações do fazer científico enquanto atividade social e em relação às diferentes áreas do conhecimento. Nesse sentido, o estudo propõe uma discussão sobre os impactos dessa tecnologia na construção da percepção pública da ciência e de seus praticantes e as possíveis consequências para a educação científica, a comunicação da ciência e a própria prática científica.

1. INTELIGÊNCIA ARTIFICIAL: PROBLEMAS E DESAFIOS

Diversos estudos têm sido realizados para identificar vieses em respostas e dados produzidos por ferramentas automatizadas. Os resultados dessas pesquisas quase sempre apontam para a reprodução de assimetrias, estereótipos e preconceitos, com consequências em diversas áreas. 9 Nos Estados Unidos, um algoritmo de IA utilizado para prever a probabilidade de réus voltarem a cometer crimes classificou erroneamente pessoas negras como de alto risco de reincidência duas vezes mais do que pessoas brancas com o mesmo histórico criminal. 10 Na área da saúde, Vyas et al 11 listaram uma série de algoritmos utilizados na medicina que poderiam orientar decisões de forma a direcionar mais atenção ou recursos para pacientes brancos do que para pessoas de minorias raciais e étnicas. Eles identificaram que algumas ferramentas classificavam pessoas negras com menor risco cardiológico ou renal, por exemplo, dispensando-as de tratamento. Na área do marketing, uma pesquisa observou que o algoritmo usado pelo Facebook direcionava anúncios de carreiras de ciência, tecnologia, engenharia e matemática com mais frequência para homens. 12

As questões se intensificaram com a chamada IA generativa. Em oposição à natureza analítica padrão dos sistemas de IA, modelos generativos criam novos conteúdos baseados em dados existentes. 13 A popularização desse tipo de sistema experimentou um grande impulso em novembro de 2022, quando a empresa de tecnologia OpenAI lançou o ChatGPT. Acessada por qualquer pessoa por meio de um navegador da internet, a ferramenta funciona como uma caixa de diálogo – um chatbot – em que o usuário escreve perguntas, comandos e tarefas ( prompt ) e recebe respostas em linguagem natural. 14 O ChatGPT funciona com base em uma arquitetura de rede neural chamada Transformer. 15 Em linhas gerais, o sistema aprende a prever a próxima palavra em uma sequência de palavras, baseando-se no contexto fornecido pelas palavras anteriores. Sua aparente acurácia se dá pelo fato de ter sido treinado em uma vasta quantidade de dados, justamente para aprender padrões na linguagem, como gramática, uso de palavras, estilo de escrita e uma infinidade de tópicos.

Ainda assim, as respostas geradas pela nova tecnologia continuaram a reproduzir uma realidade enviesada. Uma pesquisa mostrou que histórias geradas pelo ChatGPT tendiam a descrever personagens mulheres com base na aparência e na sua relação com a família, enquanto homens eram descritos como poderosos. 16 Salinas et al 17 testaram a ferramenta para pedir recomendações de emprego com base em descrições de pessoas. Os pesquisadores verificaram que o modelo sugeriu de forma consistente empregos com baixos salários para trabalhadores mexicanos ou funções de secretariado para mulheres. O enviesamento por nacionalidade também ficou evidente em um estudo que mostrou que hispânicos e asiáticos eram sub-representados como populações de risco para determinadas doenças. 18

O mesmo tem sido observado nos modelos de IA generativa que, a partir de um texto, geram imagens. Em um estudo feito com três dessas ferramentas – Dall-E 2, Mid-journey e Stable Diffusion –, prompts como “um retrato de um advogado” resultaram em uma sub-representação de pessoas com pele escura, enquanto o inverso ocorria com o prompt “um retrato de um criminoso”. 19 Um experimento semelhante com a palavra “esquizofrenia” gerou imagens perturbadoras, com feições exageradas, olhos vermelhos, sangue e expressões de horror, 20 chamando a atenção para a representação distorcida da doença mental. Já em relação à ocupação, os experimentos de Bianchi et al 21 observaram maior representação masculina em profissões como bombeiro, motorista e desenvolvedor de software , e feminina em enfermeira e empregada doméstica.

2. REPRESENTAÇÕES E ESTEREÓTIPOS SOBRE O/A CIENTISTA E A CIÊNCIA

Seja no campo científico ou em outras esferas da sociedade, a representação de determinadas imagens reforça estereótipos que contribuem para a manutenção de espaços sociais excludentes. Ao propor o conceito de representação, Hall 22 , 23 parte do ponto de que a realidade seria mediada por linguagens, imagens e símbolos que atuam como representações do mundo, não sendo, assim, diretamente acessível. Essas representações, por sua vez, seriam parte essencial na construção de sentidos – acerca de pessoas, objetos, acontecimentos etc. – em cada cultura específica. O autor explica que, por não serem fixas ou unívocas, as representações estariam sujeitas a negociações e contestações, a depender da interpretação do observador.

No que diz respeito aos estereótipos, Hall 24 , 25 esclarece que estes podem ser vistos como uma forma de construção cultural que representa de modo limitado e até distorcido as características de um grupo/indivíduo ou campo social, simplificando ou mesmo generalizando a sua imagem. Por assim serem, os estereótipos reforçam ideias preconcebidas, diminuindo a possibilidade de que outro tipo de decodificação seja feito por quem acessa, por exemplo, uma imagem padrão de um cientista gerada por tecnologias do contemporâneo, como é o caso do ChatGPT. Para além do potencial crítico de reforçar estereótipos sociais que atravessam a área, 26 , 27 , 28 , 29 vale destacar que a imagem do cientista, quando diversificada, é capaz de gerar opiniões positivas e identificação por parte de quem a consome, além de interferir na confiança pública na ciência. 30 , 31

Diante das consequências possíveis, são vários os trabalhos que se dedicam a pensar a presença/ausência de estereótipos em torno do cientista e da ciência, observando ao longo do tempo e sob diferentes prismas os efeitos da exposição rotineira dessas imagens na sociedade. No final dos anos 1980, Haynes 32 desenvolveu um estudo que aponta para o fato de que, antes mesmo da presença massiva de tecnologias que viabilizam a circulação rápida de informações, já na literatura clássica ocidental havia a representação estereotipada desses sujeitos, notadamente do sexo masculino. O autor identificou estereótipos que vão desde alquimistas malignos, passando por professores distraídos/bobos, cientistas como heróis/salvadores, até profissionais desumanos/desconectados das emoções.

Com foco em um recorte de gênero, os estudos de Flicker 33 também apontam para a reafirmação de estereótipos no campo científico como sendo uma questão que se estende e se renova. Ao examinar a representação do cientista em quase 70 anos da história do cinema – de 1929 a 1997 –, o autor mostrou que além de sub-representadas, as figuras femininas são comumente vinculadas a posições de subordinação que reforçam mitos sobre a incompetência da mulher para a carreira científica. No Brasil, Reznik et al 34 concluíram que, durante 20 anos, nenhuma mulher ou menina negra cientista apareceu nos mais de 100 filmes de animação sobre ciência e tecnologia veiculados no festival Anima Mundi desde a primeira edição do evento.

Já em um estudo recente voltado para a presença feminina no YouTube em canais relacionados à Ciência, Tecnologia, Engenharia e Matemática (em inglês, Stem), Amarasekara e Grant 35 notaram que, dos 50 canais com mais inscritos na amostra, apenas dois contavam com a participação de mulheres e, dos 50 canais com mais visualizações, seis tinham presenças femininas. Os autores perceberam também que os canais com apresentadoras mulheres somaram mais comentários sexuais, hostis e sobre aparência quando comparados com os canais liderados por figuras masculinas.

Em se tratando mais especificamente do jornalismo, 91,1% dos cientistas veiculados entre abril de 2009 e março de 2010 em dois dos principais telejornais brasileiros – Jornal Nacional e Fantástico – eram brancos, 36 reafirmando estereótipos observados na percepção pública da ciência desde estudos clássicos como o Draw-A-Scientist-Test – DAST, realizado por Chambers 37 há mais de quatro décadas. Já sob o pano de fundo da pandemia da covid-19 – quando cientistas foram rotineiramente acionados por veículos de comunicação para tratar de questões relacionadas à crise sanitária – estudos iniciais sugerem que mesmo diante do aumento das fontes científicas acessadas, não houve um aumento de diversidade quanto a gênero e raça desses atores sociais. 38

Um estudo realizado em 2019 sobre percepção pública da ciência e tecnologia no Brasil 39 mostrou que 73% dos entrevistados acreditam que ciência e tecnologia trazem só benefícios ou mais benefícios que malefícios para a sociedade, apontando para a confiança pública no campo científico. Outro dado revelado pelo trabalho mostra que, para 86% das pessoas, a pesquisa científica é essencial ao desenvolvimento industrial, e, para 81% dos entrevistados, a ciência e a tecnologia estão tornando suas vidas mais confortáveis. No entanto, somente 57% acreditam que o desenvolvimento científico e tecnológico levará a uma diminuição das desigualdades sociais do país. Mas de que ciência estamos falando?

Um outro estudo, realizado pelo Instituto Nacional de Ciência e Tecnologia em Comunicação Pública da Ciência e Tecnologia (INCT-CPCT) também em 2019, 40 questionou jovens brasileiros sobre o que eles entendem por ciência. O resultado foi apresentado em uma nuvem de palavras que indica os termos mais recorrentes nas respostas. De um modo geral, os entrevistados relacionam ciência ao estudo de algo, e as ciências da vida, no caso, foram as mais citadas: “corpo humano”, “natureza”, “vida”, “animais” e “plantas”.

Esse dado aparece tanto como sintoma quanto como reflexo da distribuição de orçamentos para as grandes áreas do campo científico no Brasil, reforçando a imagem estereotipada de que ciência diz respeito muito mais aos conhecimentos exatos e biológicos do que àqueles humanos e sociais. O Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) é atualmente um dos principais órgãos responsáveis por fomentar a pesquisa no Brasil. Dentre as estratégias desenvolvidas pela instituição para viabilizar o trabalho dos pesquisadores, a Bolsa de Produtividade em Pesquisa (PQ) se destaca, sendo o programa para o qual é direcionada a maior parte de seus recursos – 25% da verba total. 41 Em 2019, a grande área das Ciências Exatas e da Terra foi a que mais recebeu recursos (21,4%), seguida das Ciências Biológicas (16,8%) e das Engenharias (13,3). 42

Temos, portanto, um quadro de estereótipos associados ao campo científico que se desdobra em duas camadas: a percepção de quem é o cientista e a percepção do que é a ciência. Diante deste quadro e a partir desta divisão esquemática, apresentaremos mais adiante os resultados obtidos por meio do acionamento da IA para a produção de imagens relacionadas ao tema. Em paralelo, discutiremos os resultados buscando refletir sobre causas e consequências da persistente circulação de estereótipos no campo científico de um modo geral, atentando para as particularidades deste campo no contexto brasileiro.

3. METODOLOGIA

Com o objetivo de analisar imagens sobre ciência e cientista geradas por IA, iniciamos nosso desenho metodológico com a escolha do modelo e da ferramenta. Optamos pelo ChatGPT, lançado pela empresa de tecnologia OpenAI em novembro de 2022, levando-se em conta seu pioneirismo e sua popularização. Esse chatbot foi um dos primeiros modelos a disponibilizar para o usuário uma interface conversacional, em que a interação entre o usuário e o sistema é feita em linguagem natural em praticamente qualquer idioma. 43 Essa inovação foi decisiva para o sucesso da plataforma, justamente por não requerer domínio técnico em computação e linguagem de programação. Consequentemente, o ChatGPT é atualmente um dos modelos de IA mais populares do mundo, tendo respondido por 60% das mais de 24 bilhões de visitas a ferramentas de IA entre setembro de 2022 e agosto de 2023. 44

É importante salientar que o ChatGPT não busca imagens em bancos de dados preexistentes. Em vez disso, cria uma nova imagem do zero, com base no que aprendeu durante o treinamento. Os conjuntos de dados utilizados para treinar a plataforma consistem, esses sim, em milhões de imagens já existentes e descrições associadas a elas, permitindo que o modelo “aprenda” a relação entre textos e as representações visuais correspondentes. 45 Portanto, o que é apresentado como resultado pelo ChatGPT é uma interpretação com base no que ele “aprendeu”, podendo, nesse processo, reproduzir estilos, padrões ou até mesmo elementos específicos.

Para a geração das imagens analisadas neste estudo, foi criada uma conta no ChatGPT exclusivamente para essa finalidade. O acesso à versão padrão do serviço, que gera exclusivamente conteúdo textual, é gratuita. Mas como o nosso objetivo era analisar imagens, foi preciso fazer a assinatura do ChatGPT Plus. Essa versão paga dá acesso ao modelo GPT-4, lançado em março de 2023 e o mais avançado até o momento da coleta. Ela possui o diferencial de gerar imagens por meio do Dall-E, uma IA também desenvolvida pela OpenAI e integrada ao ChatGPT. A tecnologia é capaz de criar imagens a partir da descrição fornecida textualmente pelo usuário. 46 A interface da versão paga é exatamente a mesma do ChatGPT, caracterizada essencialmente por uma caixa de texto na parte inferior do site para que o usuário escreva a mensagem ( prompt ).

Elencamos dez temas para serem gerados pelo sistema: cientista; cientista do passado; cientista do presente; cientista do futuro; cientista no Brasil; ciência; ciência no passado; ciência no presente; ciência no futuro; ciência no Brasil. Para cada tema, pedimos que o ChatGPT gerasse três imagens. Optamos por mensagens simples e objetivas, sem adjetivação, utilização de artigos que denotassem gênero ou descrição de características específicas. Os prompts foram os seguintes:

Adotamos a estratégia dos três prompts levando-se em consideração a natureza estocástica do ChatGPT, que se refere à sua capacidade de gerar respostas variadas e imprevisíveis ainda que o mesmo comando seja passado várias vezes. 47 Isso significa que, embora possam guardar características semelhantes, nenhuma imagem será exatamente igual à outra.

Para cada tema, os três prompts foram escritos na sequência, assim que a respectiva imagem solicitada era criada. A cada tema, começamos um novo chat do zero, repetindo o processo de escrever as três mensagens. Com isso, foram geradas 30 imagens, automaticamente disponibilizadas para download na extensão WebP (formato mais compacto, em que a imagem pode ser aberta em um navegador). Para facilitar o armazenamento, as convertemos para o formato JPG. Além disso, abaixo de cada imagem, o ChatGPT apresenta um texto descritivo, uma espécie de explicação para a interpretação do prompt que se traduz na imagem. Esses textos – algumas vezes gerados em português e outras em inglês – também foram armazenados e utilizados como dado complementar na análise. Optamos por traduzi-los e apresentá-los em português.

O procedimento foi realizado sem dificuldades técnicas, com um tempo médio de 20 segundos entre o envio do prompt e a criação da imagem. Mensagens de erro foram apresentadas durante a geração de quatro imagens. Em três delas, o chat logo voltou a funcionar e gerar a imagem solicitada. Somente uma vez o chat deixou de funcionar e foi necessário iniciar um novo.

Os dados – as imagens e as respectivas descrições apresentadas pelo ChatGPT – foram reunidos em um arquivo único e posteriormente analisados sob o prisma das representações e estereótipos. A análise privilegiou os elementos dispostos nas imagens – figuras humanas, animais e objetos –, suas características físicas e a forma como estão apresentados, além de cenários, cores e padrões. De forma complementar, analisamos o texto gerado para cada foto. Os resultados e discussões obtidos com a aplicação deste protocolo são apresentados a seguir.

4. A REPRESENTAÇÃO DO CIENTISTA SOB AS PERSPECTIVAS DE GÊNERO, RAÇA E IDADE

Os primeiros prompts enviados ao ChatGPT tiveram como foco a palavra “cientista”, de forma isolada e em diferentes contextos: “do passado”, “do presente”, “do futuro” e “no Brasil”. Em todas as 15 imagens geradas nesse conjunto de mensagens (três para cada tema), a figura do cientista é representada por um homem de pele clara ( Figura 1 ), o que aponta para a manutenção de determinados padrões de gênero e raça no campo científico.

Imagens geradas com o temtitle “cientista”
Figura 1.
Imagens geradas com o temtitle “cientista”
Fonte: elaborado pelos autores com auxílio do ChatGPT (2024).

No que diz respeito ao gênero, essa disparidade reflete estruturas patriarcais que, ao longo da história, atribuíram à mulher o papel de cuidar do lar e do trabalho reprodutivo, enquanto o homem, considerado racional, era livre para se dedicar à prática científica ou quaisquer outras de natureza intelectual. 48 , 49 Isso possibilitou a perpetuação de estereótipos que associam a mulher à emotividade e à suposta falta de capacidade intelectual, enquanto o homem é visto como o sujeito capaz de exercer a razão de forma desimpedida. Vale destacar que essa divisão de papéis foi amplamente endossada pela ciência moderna, reforçando ideias preconcebidas sobre as habilidades das mulheres em atividades intelectuais e racionais. 50 , 51 Tal contexto contribuiu significativamente para a exclusão sistemática das mulheres dos espaços de pesquisa institucionais.

A exclusão racial retratada nas imagens também remonta a questões estruturais. A construção ideológica das raças influenciou a hierarquização dos povos de diversas maneiras; os brancos europeus desenvolveram uma perspectiva eurocêntrica universalista que colocava a raça branca como superior e as demais raças como inferiores também em termos intelectuais. 52 Além disso, o racismo científico, desenvolvido nos séculos XVIII e XIX, buscou justificar a superioridade da raça branca por meio de teorias pseudocientíficas que atribuíam características físicas, intelectuais e morais superiores aos europeus em comparação com outras raças. Essa hierarquização dos povos com base em construções ideológicas racistas teve impactos profundos na história, perpetuando desigualdades e privilégios em diferentes esferas da sociedade. 53

Em se tratando da faixa etária, como pode ser observado na Figura 1 exposta anteriormente, o cientista é representado por meio de um indivíduo jovem, à exceção das imagens criadas a partir do tema “cientista do passado”, que apresentam personagens mais velhos. Esse dado comunica sobre a percepção do campo científico hoje como espaço mais inclusivo no que tange à idade de seus atores. Se antes esse campo era reservado unicamente a profissionais maduros, com carreiras consolidadas, os resultados indicam que, na atualidade, a figura do jovem cientista entra em cena bastante alinhada a cenários hipertecnológicos – o que pode sugerir, inclusive, um movimento de exclusão inverso, em que cientistas com mais idade, que não foram formados na era das tecnologias, não teriam habilidades suficientes para lidar com a gramática de tantos recursos tecnológicos centrais ao fazer científico.

Tanto a questão de gênero quanto a racial e etária nos fazem refletir sobre a exclusão sistêmica de determinados grupos sociais dos espaços institucionalizados da produção de conhecimento 54 e as consequências daí decorrentes. Na medida em que o mundo tem registrado uma crescente no uso de IA 55 e que as imagens geradas por essas ferramentas podem ser solicitadas e acessadas livremente na lógica das redes, tais produtos têm um peso importante frente aos movimentos de aproximação/afastamento do campo científico. 56 , 57 , 58 , 59 Se, ao serem demandadas, as tecnologias generativas entregam produtos com claros recortes excludentes, o que temos, de um modo geral, é a reafirmação de estereótipos e a diminuição de chances para que grupos minoritários, como mulheres e pessoas pretas, possam se enxergar no campo científico.

As figuras geradas pelo ChatGPT mostram ainda que a maioria dos cientistas está em um ambiente fechado que remete a um laboratório, junto a equipamentos como microscópio e tubos de ensaio. A composição das imagens é feita com elementos relacionados às ciências exatas e biológicas: o modelo atômico clássico, a dupla hélice do DNA, a representação de elementos químicos e figuras que lembram microrganismos, como vírus. Em “ciência”, “ciência do presente” e “ciência do futuro”, livros aparecem em apenas uma das imagens, compondo uma pequena parte do segundo plano da cena e sugerindo a centralidade das ciências exatas e biológicas no entendimento do que é ciência.

Ainda em relação aos cenários, é interessante notar que, mesmo quando o prompt não tem a palavra “futuro”, as imagens retratam um ambiente futurista e exageradamente tecnológico, reforçado pelas cores metálicas e vibrantes e com estruturas ultramodernas, como grandes telas touch screen , óculos de realidade virtual e equipamentos mecânicos. A descrição oferecida pelo ChatGPT também quase sempre ressalta essa característica. Na segunda imagem gerada com o tema “cientista”, o texto diz: “Aqui está outra imagem, mostrando um cientista trabalhando com uma interface holográfica futurista em um laboratório altamente avançado. Esta cena representa a mistura de ciência e tecnologia de ponta no campo da pesquisa”. Essa representação é levada ao limite quando é acrescentada a expressão “do futuro”. Em uma das imagens, as mãos do cientista são holográficas, denotando um ser meio humano e meio máquina. Em outra, o cientista está paramentado como astronauta, conduzindo um laboratório móvel no que parece ser outro planeta.

As imagens relativas ao tema “cientista do passado” ( Figura 2 ) trazem cores mais sóbrias e escuras. Os cientistas trabalham sobre uma mesa e se valem de objetos como mapas e livros. Ainda que haja a presença desses itens não observados nas imagens do “cientista do presente”, as referências centrais também remetem às ciências exatas e biológicas, como a astronomia, a química e a botânica – esta última é referenciada na figura criada a partir do terceiro prompt , quando era pedida uma imagem totalmente diferente das anteriores. Apenas nesta última imagem a descrição situa a cena na história: “Criei outra imagem para você, desta vez retratando um cientista absorto no estudo das plantas em um jardim botânico do século XVIII”.

Observa-se que, em todos os casos citados até aqui, a interpretação do ChatGPT para as imagens “totalmente diferentes das anteriores” foi mais relacionada a uma mudança de cenário do que de personagem. Em uma delas, o cientista – ainda um homem jovem de pele clara – é retratado em uma floresta, aparentando coletar amostras de um riacho. O personagem remete a um explorador, com chapéu e mochila. Os objetos da cena incluem tubos de ensaio, equipamentos eletrônicos e o que parece ser uma unidade móvel equipada com painéis solares. A terceira imagem do tema “cientista do presente” mostra, segundo a própria descrição, “um cenário futurista eco-friendly que destaca a interseção entre avanços científicos e sustentabilidade ambiental”, o que sugere uma preocupação com temas caros à sociedade no contemporâneo, dada toda a discussão em torno das mudanças climáticas.

Imagens geradas com o tema “cientista do passado”
Figura 2.
Imagens geradas com o tema “cientista do passado”
Fonte: Elaborado pelos autores com auxílio do ChatGPT (2024).

A mesma lógica de manutenção do personagem e alteração no cenário foi aplicada ao tema “cientista no Brasil”. Nesse caso, ainda que o ambiente seja um laboratório com seus objetos típicos, ele está incrustado em uma densa floresta verde. Já na imagem “totalmente diferente”, mais uma vez o cientista-explorador, dessa vez equipado com binóculos e bastão de trekking , é retratado na natureza, representada por rio, árvores e aves. Na descrição, o ChatGPT diz que a imagem está “focada em pesquisa de campo na Amazônia”.

5. A REPRESENTAÇÃO DAS CIÊNCIAS EXATAS E BIOLÓGICAS COMO MODELO DE REFERÊNCIA

Nos prompts nos quais foi utilizada a palavra “ciência” ( Figura 3 ), a primeira imagem traz apenas objetos sobre uma mesa: um livro aberto, tubos de ensaio, microscópio, DNA, estruturas químicas e o globo terrestre. É somente na segunda imagem que mais pessoas são inseridas na cena, entre elas figuras femininas. A imagem, entretanto, é dominada por um grande objeto que o texto descreve como um colisor de partículas, além de equações manuscritas de física e matemática e a imagem de uma galáxia, “que simboliza as possibilidades ilimitadas da ciência”. A terceira imagem, orientada para ser diferente das anteriores, também traz mais pessoas no ambiente, no que é descrito como “um laboratório de pesquisa submarino”.

Imagens geradas com o temtitle “ciência”
Figura 3.
Imagens geradas com o temtitle “ciência”
Fonte: elaborado pelos autores com auxílio do ChatGPT (2024)

Em “ciência no presente” e “ciência no futuro”, a atividade científica continua sendo retratada de forma hipertecnológica. Embora claramente não seja o foco principal das imagens, uma diversidade maior de pessoas é exibida. Sendo assim, tais imagens sugerem uma quebra de padrão quanto ao exercício do fazer científico, que passa de um labor solitário a uma atividade essencialmente coletiva. Vale ressaltar que, nas representações relativas ao futuro, há uma ênfase na harmonia perfeita entre ciência, tecnologia e sociedade, reflexo de uma interpretação otimista e positiva da ciência. A primeira imagem do tema “ciência no futuro” mostra o que parece ser uma cidade moderna, com prédios atravessados por vegetação. Trata-se, segundo a IA, de “uma paisagem futurista em que a tecnologia avançada e a ciência se integram perfeitamente na vida diária”. As outras duas imagens retratam um “centro de pesquisa avançado em Marte” e uma “cidade subaquática inovadora que harmoniza tecnologia com vida marinha”.

As imagens relativas à “ciência no passado” ( Figura 4 ) trazem essa ideia de esforço individual, de um trabalho que demanda isolamento. Com este prompt , as imagens entregues pelo ChatGPT foram situadas historicamente, de acordo com as informações dos textos descritivos. Na primeira e na terceira, as cenas retratadas dizem respeito a dois períodos da história da cultura e do pensamento ocidental: o Renascimento e o Iluminismo, respectivamente. Por sua vez, a segunda imagem acrescenta uma variante geográfica e cultural ao mostrar um homem de costas em uma grande biblioteca com elementos arquitetônicos imponentes, repleta de livros e globos terrestres. A descrição fala de “uma cena da era de ouro da ciência islâmica dentro de uma antiga biblioteca. Essa visualização mostra as contribuições significativas de estudiosos islâmicos em vários campos da ciência”.

Imagens geradas com o tema “ciência no passado”
Figura 4.
Imagens geradas com o tema “ciência no passado”
Fonte: elaborado pelos autores com auxílio do ChatGPT (2024)

Uma sensível diferença pode ser notada no tema “ciência no Brasil” ( Figura 5 ). Novamente, as imagens ganham tons coloridos e ambientação na natureza, mas é a representação dos personagens que mais chama atenção. Pela primeira vez, os cientistas têm características mais identificáveis – há figuras masculinas e femininas mais diversas. É possível ver pelo menos um homem com tom de pele escuro e um homem de barba com cabelos longos. Todos usam jaleco, mas, de forma bastante diferente do que vinha sendo retratado até aqui, a cientista em primeiro plano, ao lado direito da imagem, está com as pernas à mostra. A segunda imagem traz elementos relacionados ao Rio de Janeiro (Cristo Redentor e morros que lembram o Pão de Açúcar). No lado esquerdo inferior da imagem, pela primeira vez, há uma mulher com cabelos encaracolados. Na sequência, com o prompt que pedia uma imagem diferente das anteriores, os cientistas estão em uma floresta ao lado de pessoas descritas como “povos indígenas da Amazônia”. Entretanto, eles são retratados com elementos que não lembram os povos originários brasileiros.

Assim, os conteúdos relativos à “ciência no Brasil” trazem, em paralelo à diversidade acima apontada e à ideia de que aqui se faz um trabalho científico coletivo, estereótipos associados à imagem da mulher brasileira: sensual, de pele bronzeada e corpo sempre à mostra. Essa representação da figura feminina como essencialmente sexualizada no Brasil tem sido desenvolvida desde o período colonial, sobrevivendo até os tempos atuais, e é exatamente a partir desse tipo de informação que IAs como o ChatGPT são treinadas.

Imagens geradas com o tema “ciência no Brasil”
Figura 5.
Imagens geradas com o tema “ciência no Brasil”
Fonte: elaborado pelos autores com auxílio do ChatGPT (2024)

Tambke 60 aponta alguns fatores históricos na conformação deste estereótipo, dentre eles o período de colonização do Brasil, quando a representação da mulher indígena como exótica e sensual foi difundida pelos colonizadores europeus. A autora destaca que a construção dessa imagem também foi influenciada pela visão exótica e tropical atribuída ao Brasil, com a vinculação da natureza exuberante do país à ideia de uma sexualidade intensa. Essas representações do Brasil e da mulher brasileira consistem, portanto, em estereótipos moldados a partir de diferentes elementos históricos, culturais e sociais que dizem sobre o olhar do outro diante da diferença. Ainda de acordo com Tambke, 61 essas imagens, apesar de envolverem esse olhar do outro direcionado ao não semelhante, também têm sido reforçadas ao longo dos séculos por meio de manifestações culturais internas, como a própria música popular brasileira, que muitas vezes exalta a sensualidade e a tropicalidade do país.

CONSIDERAÇÕES FINAIS

A eficiência dos estereótipos é alcançada mediante repetição exaustiva de uma ideia, 62 , 63 e a IA, tal como opera na atualidade, acaba por assumir papel estratégico neste circuito de repetição. Isso porque modelos de IA fazem inferências a partir do conjunto de dados previamente utilizados em processos de treinamento. Logo, tendo em vista que orientadas por distribuição estatística e sem uma curadoria criteriosa no sentido de diversidade, essas tecnologias carregam consigo não só a possibilidade de distorções e equívocos, mas também preconceitos arraigados na sociedade.

Em síntese, as imagens sobre “cientista” geradas pelo ChatGPT a partir de acionamentos simples – “cientista do passado”, “cientista do presente” e “cientista do futuro” –, indicam a reafirmação de estereótipos raciais e de gênero, com a predominância de homens brancos; sugerem ainda uma mudança no padrão etário do cientista, não mais representado como um sujeito de meia idade. Quanto às imagens geradas sobre “ciência” – “ciência no passado”, “ciência no presente” e “ciência no futuro” –, observamos uma mudança no padrão do fazer científico, que vai de atividade individual a uma prática coletiva; em paralelo, registramos a reafirmação da centralidade das ciências exatas e biológicas em detrimento das ciências humanas e sociais. De um modo geral, além de uma visão otimista quanto à inclusão de jovens cientistas, os resultados apontam também para o acesso a tecnologias supermodernas que podem ser exploradas no fazer científico.

Quando acionado para produzir imagens sobre “cientista” e “ciência” no Brasil, o ChatGPT forneceu novos conteúdos estereotipados, ainda mais notadamente no que diz respeito aos cenários e à representação da mulher brasileira. Os resultados estão bastante alinhados com o que foi observado em matéria publicada pelo jornal Folha de S.Paulo64 que tinha como objetivo discutir as potencialidades do ChatGPT na manutenção de certos estereótipos. O texto, veiculado em março de 2024, além de sugerir a urgência do debate, mostra que a figura feminina é retratada como magra, de pele bronzeada, usando acessórios coloridos e compondo cenários comuns no imaginário estrangeiro sobre o Brasil, como uma floresta tropical ou paisagens no Rio de Janeiro.

Tendo em vista o potencial que as imagens do cientista e da ciência têm de afetar a percepção pública, interferindo na confiança das populações e levando a movimentos de aproximação ou afastamento do campo científico, 65 , 66 , 67 , 68 temos à nossa frente uma questão do contemporâneo que demanda atenção para além do que propomos com este estudo. Na medida em que é treinado a partir de dados já existentes e que, pela ausência de curadoria desses dados, o ChatGPT replica certos estereótipos em vez de contribuir para eliminá-los, a ferramenta torna-se também promotora de um processo de exclusões sistêmicas que se desenha e se estende ao longo dos séculos. Isso ganha contornos ainda mais complexos diante do fato de que IAs generativas do tipo têm sido utilizadas rotineiramente para os mais diversos fins, e pelos mais diversos perfis de usuários. 69

Sendo assim, a importante quebra do ciclo vicioso de repetição de estereótipos por meio da IA passa, necessariamente, por iniciativas que busquem mitigar vieses nesses sistemas, dentre elas a diversificação dos conjuntos de dados de treinamento, a implementação de algoritmos de detecção e correção dos vieses existentes, bem como a transparência na divulgação dos processos de desenvolvimento de modelos de IA. Tais iniciativas poderão oferecer melhores condições de possibilidade para a produção de conteúdos mais inclusivos e representativos, o que é essencial para garantir o campo científico e a educação em ciência como espaços plurais e de credibilidade junto à sociedade.

REFERÊNCIAS BIBLIOGRÁFICAS

AMARASEKARA, Inoka; GRANT, Will J. Exploring the YouTube science communication gender gap: A sentiment analysis. Public Understanding of Science, Thousand Oaks, v. 28, n. 1, p. 68-84, 2019. DOI: https://doi.org/10.1177/096366251878665

ASH, Elliott et al. Visual representation and stereotypes in news media. SSRN, New York, p. 1-26, 2021.

BENDER, Emily et al. On the dangers of stochastic parrots: can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, [s. l.], p. 610-623, 2021. DOI: https://doi.org/10.1145/3442188.3445922

BETKER, James et al. Improving image generation with better captions. OpenAI, [s. l.], p. 1-19, 2023. DOI: https://cdn.openai.com/papers/dall-e-3.pdf

BIANCHI, Federico et al. Easily Accessible text-to-image generation amplifies demographic stereotypes at large scale. Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, [s. l.], p. 1493-1504, 2023. DOI: https://doi.org/10.1145/3593013.3594095

CENTRO DE GESTÃO E ESTUDOS ESTRATÉGICOS (CGEE). Percepção pública da C&T no Brasil – 2019. Resumo executivo. CGEE, [s. l.], 2019. Disponível em: https://www.cgee.org.br/web/percepcao

CHAKRAVERTY, Snehashish; MAHATO, Nisha Rani; SAHOO, Deepti Moyi.. McCulloch-Pitts neural network model. In: Concepts of Soft Computing, New York, p. 167-173, 2019. DOI: https://doi.org/10.1007/978-981-13-7430-2_11

CHAMBERS, David Wade. Stereotypic images of the scientist: the draw a scientist test. Science Education, [s. l.], v. 67, n. 2, p. 255-265, 1983. Disponível em: https://acesse.dev/He0JM . Acesso em: 1 jul. 2024.

CHIMBA, Mwenya Diana; KITZINGER, Jenny. Bimbo or boffin? Women in science: an analysis of media representations and how female scientists negotiate cultural contradictions. Public Understanding of Science, Thousand Oaks, p. 609-624, 2010. Disponível em: https://www.researchgate.net/publication/51108862_Bimbo_or_boffin_Women_in_science_An_analysis_of_media_representations_and_how_female_scientists_negotiate_cultural_contradictions . Acesso em: 1 jul. 2024.

COZMAN, Fabio Gagliardi. Inteligência Artificial: uma utopia, uma distopia. Teccogs: Revista Digital de Tecnologias Cognitivas, São Paulo, v. 17, n. 17, p. 32-43, 2018. DOI: https://doi.org/10.23925/1984-3585.2018i17p32-43

DAMASCENO, Daniel et al. Injustiça epistêmica e reafirmação de estereótipos: a representação do cientista no Fantástico e Domingo Espetacular durante a pandemia da Covid-19. Contracampo, Niterói, n. 1, v. 43, p. 1-17, 2024. DOI: https://doi.org/10.22409/contracampo.v43i1.61118

FEUERRIEGEL, Stefan et al. Generative AI. Business & Information Systems Engineering, New York, v. 66, n. 1, p. 111-126, 202. DOI: https://doi.org/10.1007/s12599-023-00834-7

FLICKER, Eva. Between brains and breasts ‒ women scientists in fiction film: on the marginalization and sexualization of scientific competence. Public Understanding of Science, Thousand Oaks, v. 12, n. 3, p. 307-318, 2003. DOI: https://doi.org/10.1177/0963662503123009

FRANKENBERG, Ruth (ed.). Displacing whiteness: Essays in social and cultural criticism. Durham: Duke University Press, 1997.

FRASER, Kathleen C.; KIRITCHENKO, Sevtlana; NEJADGHOLI, Isar. Diversity is not a one-way street: pilot study on ethical interventions for racial bias in text-to-image systems. Proceedings of the 14th International Conference on Computational Creativity, [s. l.], 2023. Disponível em: https://computationalcreativity.net/iccc23/papers/ICCC-2023_paper_97.pdf . Acesso em: 1 jul. 2024.

GAMKRELIDZE, Tamari; ZOUINAR, Moustafa; BARCELLINI, Flore. Working with Machine Learning/Artificial Intelligence systems: workers’ viewpoints and experiences. Proceedings of the 32nd European Conference on Cognitive Ergonomics, [s. l.], p. 1-7, 2021. DOI: https://doi.org/10.1145/3452853.3452876

HALL, Stuart. Cultura e representação. Rio de Janeiro: Apicuri/PUC-Rio, 2016.

Idem. Representation: cultural representations and signifying practices. Londres: Sage, 1997.

HARAWAY, Donna. Saberes localizados: a questão da ciência para o feminismo e o privilégio da perspectiva parcial. Cadernos Pagu, São Paulo, n. 5, p. 7-41, 1995. Disponível em: https://periodicos.sbu.unicamp.br/ojs/index.php/cadpagu/article/view/1773

HARDING, Sandra. Strong objectivity: A response to the new objectivity question. Synthese, New York, v. 104, n. 3, p. 331-349, 1995. Disponível em: https://link.springer.com/article/10.1007/BF01064504

HAYNES, Roslynn D. The scientist in literature: images and stereotypes-their importance. Interdisciplinary Science Reviews, [s. l.], v. 14, n. 4, p. 384-398, 1989. DOI: https://doi.org/10.1179/isr.1989.14.4.384

KALOTA, Faisal. A primer on generative artificial intelligence. Education Sciences, v. 14, n. 2, 2024. DOI: https://doi.org/10.3390/educsci14020172

KING, Morgan. Harmful biases in artificial intelligence. The Lancet Psychiatry, London, v. 9, n. 11, p. e48, 2022. DOI: https://doi.org/10.1016/S2215-0366(22)00312-1

LAMBRECHT, Anja; TUCKER, Catherine. Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads. Management Science, [s. l.], v. 65, n. 7, p. 2966-2981, 2019. DOI: https://doi.org/10.1287/mnsc.2018.3093

LARSON, Jeff et al. How We Analyzed the Compas Recidivism Algorithm. ProPublica, [s. l.], 2016. Disponível em: www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm . Acesso em: 1 jul. 2024.

LOBO, Paula; CABECINHAS, Rosa. The negotiation of meanings in the evening news: towards an understanding of gender disadvantages in the access to the public debate. International Communication Gazette, Thousand Oaks, v. 72, n. 4-5, p.339-358, 2010. DOI: https://doi.org/10.1177/1748048510362611

LOPES, Maria Margaret. Sobre convenções em torno de argumentos de autoridade. Cadernos Pagu, São Paulo, n. 27, p. 35-61, 2006. DOI: https://doi.org/10.1590/S0104-83332006000200004

LUCY, Li; BAMMAN, David. Gender and representation bias in GPT-3 generated stories. Proceedings of the 3rd Workshop on Narrative Understanding, Long Beach, p. 48-55, 2021. DOI: https://doi.org/10.18653/v1/2021.nuse-1.5

MARTINEZ, A. R. Representation matters: theorizing health communication from the flesh. Health Communication, Abingdon, v. 38, n. 1, p. 184-190, 2021. DOI: https://doi.org/10.1080/10410236.2021.1950293

MASSARANI, Luisa; CASTELFRANCHI, Yurij; PEDREIRA, Anna Elisa. Cientistas na TV: como homens e mulheres da ciência são representados no Jornal Nacional e no Fantástico. Cadernos Pagu, São Paulo, n. 56, p. 1-34, 2019. DOI: https://doi.org/10.1590/18094449201900560015

MASSARANI, Luisa et al. O que os jovens brasileiros pensam da ciência e da tecnologia. Resumo executivo. Rio de Janeiro: INCT-CPCT, 2019.

MCCARTHY, John et al. A proposal for the dartmouth summer research project on artificial intelligence. August 31, 1955. AI Magazine, Washington, D.C., v. 27, n. 4, p. 12-14, 2006. DOI: https://doi.org/10.1609/aimag.v27i4.1904

NEIVA, Silmara Cássia Pereira Couto et al. Perspectivas da ciência brasileira: um estudo sobre a distribuição de bolsas de pesquisa em produtividade do CNPq ao longo do ano de 2019. Revista Interdisciplinar Científica Aplicada, Blumenau, v. 16, n. 3, p. 51-71, 2022. Disponível em: https://portaldeperiodicos.animaeducacao.com.br/index.php/rica/article/view/18090 . Acesso em: 1 jul. 2024.

RAMESH, Aditya et al. Zero-shot text-to-image generation. Proceedings of the 38th International Conference on Machine Learning, Long Beach, v. 139, p. 8821-8831, 2021. Disponível em: https://proceedings.mlr.press/v139/ramesh21a.html?ref=journey-matters . Acesso em: 1 jul. 2024.

REZNIK, Gabriela; MASSARANI, Luisa Medeiros; RAMALHO, Marina; MALCHER, Maria A.; AMORIM, Luis; CASTELFRANCHI, Yurij. Como adolescentes apreendem a ciência e a profissão de cientista? Revista Estudos Feministas, Florianópolis, v. 25, n. 2, p. 829-855, 2017. DOI: https://doi.org/10.1590/1806-9584.2017v25n2p829

REZNIK, Gabriela; MASSARANI, Luisa Medeiros; MOREIRA I de C. Como a imagem de cientista aparece em curtas de animação? História, Ciências, Saúde, Manguinhos, v. 26, n. 3, p. 753–777, jul. 2019. DOI: https://doi.org/10.1590/S0104-59702019000300003

SALINAS, Abel et al. The unequal opportunities of large language models: examining demographic biases in job recommendations by ChatGPT and LLaMA. Proceedings of the 3rd ACM Conference on Equity and Access in Algorithms, Mechanisms, and Optimization, Long Beach, n. 34, 2023. DOI: https://doi.org/10.1145/3617694.3623257

SARKAR, Sujan. Uncovering the ai industry: 50 most visited ai tools and their 24B+ traffic behavior. Writerbuddy, [s. l.], 2023. Disponível em: https://writerbuddy.ai/blog/ai-industry-analysis . Acesso em: 1 jul. 2024.

SCHIENBINGER, Londa. O feminismo mudou a ciência? Bauru: Edusc, 2001.

SCHULMAN, John et al. Introducing ChatGPT. OpenAI, [s. l.], 2022. Disponível em: https://openai.com/blog/chatgpt#OpenAI . Acesso em: 1 jul. 2024.

SCHWARCZ, L. K. M. O espetáculo das raças: cientistas, instituições e questão racial no Brasil: 1870-1930. São Paulo: Companhia das Letras, 1993.

SICHMAN, Jaime Simão. Inteligência Artificial e sociedade: avanços e riscos. Estudos Avançados, São Paulo, v. 35, n. 101, p. 37-50, 2021. DOI: https://doi.org/10.1590/s0103-4014.2021.35101.004

TAMBKE, Erika. Mulheres Brasil 40º: os estereótipos das mulheres brasileiras em Londres. Espaço e Cultura, Rio de Janeiro, n. 34, p. 123-150, 2013. Disponível em: https://www.e-publicacoes.uerj.br/espacoecultura/article/view/12744 . Acesso em: 1 jul. 2024.

TEIXEIRA, Pedro. ChatGPT reforça estereótipos sobre mulheres brasileiras: magras, bronzeadas e com acessórios coloridos. Folha de S. Paulo, São Paulo, 6 mar. 2024. Disponível em: https://www1.folha.uol.com.br/tec/2024/03/chatgpt-reforca-estereotipos-sobre-mulheres-brasileiras-magras-bronzeadas-e-com-acessorios-coloridos.shtml . Acesso em: 1 jul. 2024.

VASWANI, Ashish et al. Attention Is All You Need. Proceedings of the 31st International Conference on Neural Information Processing Systems, Long Beach, p. 6000-6010, 2017.

VYAS, Darshali A. et al. Hidden in plain sight: reconsidering the use of race correction in clinical algorithms. New England Journal of Medicine, New England, v. 383, n. 9, p. 874-882, 2020. DOI: https://doi.org/10.1056/nejmms2004740

ZACK, Travis et al. Assessing the potential of GPT-4 to perpetuate racial and gender biases in health care: a model evaluation study. The Lancet Digital Health, London, v. 6, n. 1, p. e12-e22, 2024. DOI: https://doi.org/10.1016/s2589-7500(23)00225-x

Notes

1 Este estudo foi realizado no escopo do Instituto Nacional de Comunicação Pública da Ciência e Tecnologia, que conta com financiamento do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq, 465658/2014-8) e Fundação Carlos Chagas Filho de Amparo à Pesquisa do Estado do Rio de Janeiro (FAPERJ, E-26/200.89972018). O estudo também se insere no projeto apoiado pelo Edital Proep-COC-CNPq 2012, Edital Universal Chamada CNPq/MCTI Nº 10/2023 - Faixa B - Grupos Consolidados, 401881/2023-7) e pela chamada Projeto em cooperação com comprovada articulação internacional (CNPq, 441083/2023-4).
2 . CHAKRAVERTY, Snehashish; MAHATO, Nisha; SAHOO, Deepti. McCulloch–Pitts Neural Network Model. In: Concepts of Soft Computing, New York, 2019 , p. 167-173.
3 . MCCARTHY, John et al. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. August 31, 1955 . AI Magazine, Washington, D.C., v. 27, n. 4, p. 12-14, 2006.
4 . COZMAN, Fabio. Inteligência Artificial: uma utopia, uma distopia. Teccogs: Revista Digital de Tecnologias Cognitivas, São Paulo, v. 17, n. 17, p. 32-43, 2018 .
5 . SICHMAN, Jaime. Inteligência Artificial e sociedade: avanços e riscos. Estudos Avançados, São Paulo, v. 35, n. 101, p. 37-50, 2021.
6 . KALOTA, Faisal. A Primer on Generative Artificial Intelligence. Education Sciences, v. 14, n. 2, 2024 .
7 . HALL, Stuart. Cultura e representação. Rio de Janeiro: Apicuri/PUC-Rio, 2016 .
8 . Idem. Representation: cultural representations and signifying practices. Londres: Sage, 1997 .
9 . GAMKRELIDZE, Tamari; ZOUINAR, Moustafa; BARCELLINI, Flore. Working with Machine Learning/Artificial Intelligence systems: workers’ viewpoints and experiences. Proceedings of the 32nd European Conference on Cognitive Ergonomics, [s. l.], p. 1-7, 2021 .
10 . LARSON, Jeff et al. How We Analyzed the Compas Recidivism Algorithm. ProPublica, [s. l.], 2016 .
11 . VYAS, Darshali A. et al. Hidden in Plain Sight: Reconsidering the Use of Race Correction in Clinical Algorithms. New England Journal of Medicine, New England, v. 383, n. 9, p. 874-882, 2020 .
12 . LAMBRECHT, Anja; TUCKER, Catherine. Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of Stem Career Ads. Management Science, [s. l.], v. 65, n. 7, p. 2966-2981, 2019 .
13 . FEUERRIEGEL, Stefan et al. Generative AI. Business & Information Systems Engineering, New York, v. 66, n. 1, p. 111-126, 202.
14 . SCHULMAN, John et al. Introducing ChatGPT. OpenAI, [s. l.], 2022 .
15 . VASWANI, Ashish et al. Attention Is All You Need. Proceedings of the 31st International Conference on Neural Information Processing Systems, Long Beach, p. 6000-6010, 2017 .
16 . LUCY, Li; BAMMAN, David. Gender and Representation Bias in GPT-3 Generated Stories. Proceedings of the 3rd Workshop on Narrative Understanding, p. 48-55, 2021 .
17 . SALINAS, Abel et al. The Unequal Opportunities of Large Language Models: Examining Demographic Biases in Job Recommendations by ChatGPT and LLaMA. Proceedings of the 3rd ACM Conference on Equity and Access in Algorithms, Mechanisms, and Optimization, Long Beach, n. 34, 2023 .
18 . ZACK, Travis et al. Assessing the Potential of GPT-4 to Perpetuate Racial and Gender Biases in Health Care: A Model Evaluation Study. The Lancet Digital Health, London, v. 6, n. 1, p. e12–e22, 2024 .
19 . FRASER, Kathleen C.; KIRITCHENKO, Sevtlana; NEJADGHOLI, Isar. Diversity is not a one-way street: pilot study on ethical interventions for racial bias in text-to-image systems. Proceedings of the 14th International Conference on Computational Creativity, [s. l.], 2023 .
20 . KING, Morgan. Harmful Biases in Artificial Intelligence. The Lancet Psychiatry, London, v. 9, n. 11, p. e48, 2022 .
21 . BIANCHI, Federico et al. Easily Accessible Text-to-Image Generation Amplifies Demographic Stereotypes at Large Scale. Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, [s. l.], p. 1493-1504, 2023 .
22 . HALL, Stuart. Cultura. Op. cit.
23 . Idem. Representation: cultural representations and signifying practices. Londres: Sage, 1997 .
24 . HALL, Stuart. Cultura. Op. cit.
25 . HALL, Stuart. Representation. Op. cit.
26 . ASH, Elliott et al. Visual representation and stereotypes in news media. SSRN, New York, p. 1-26, 2021 .
27 . LOBO, Paula; CABECINHAS, Rosa. The negotiation of meanings in the evening news: towards an understanding of gender disadvantages in the access to the public debate. International Communication Gazette, Thousand Oaks, v. 72, n. 4-5, p.339-358, 2010 . DOI: https://doi.org/10.1177/1748048510362611 .
28 . CHIMBA, Mwenya Diana; KITZINGER, Jenny. Bimbo or boffin? Women in science: an analysis of media representations and how female scientists negotiate cultural contradictions. Public Understanding of Science, Thousand Oaks, p. 609-624, 2010 .
29 . MARTINEZ, A. R. Representation matters: theorizing health communication from the flesh. Health Communication, Abingdon, v. 38, n. 1, p. 184-190, 2021 .
30 . REZNIK, Gabriela; MASSARANI, Luisa Medeiros; RAMALHO, Marina; MALCHER, Maria A.; AMORIM, Luis; CASTELFRANCHI, Yurij. Como adolescentes apreendem a ciência e a profissão de cientista? Revista Estudos Feministas, Florianópolis, v. 25, n. 2, p. 829-855, 2017 .
31 . HAYNES, Roslynn D. The scientist in literature: images and stereotypes-their importance. Interdisciplinary Science Reviews, [s. l.], v. 14, n. 4, p. 384-398, 1989 .
32 . HAYNES, Roslynn D. The scientist. Op. cit.
33 . FLICKER, Eva. Between brains and breasts - women scientists in fiction film: on the marginalization and sexualization of scientific competence. Public Understanding of Science, Thousand Oaks, v. 12, n. 3, p. 307-318, 2003 .
34 . REZNIK, Gabriela; MASSARANI, Luisa Medeiros; MOREIRA I de C. Como a imagem de cientista aparece em curtas de animação? História, Ciências, Saúde, Manguinhos, v. 26, n. 3, p. 753–777, jul. 2019 .
35 . AMARASEKARA, Inoka; GRANT, Will J. Exploring the YouTube science communication gender gap: a sentiment analysis. Public Understanding of Science, Thousand Oaks, v. 28, n. 1, p. 68-84, 2019 .
36 . MASSARANI, Luisa; CASTELFRANCHI, Yurij; PEDREIRA, Anna Elisa. Cientistas na TV: como homens e mulheres da ciência são representados no Jornal Nacional e no Fantástico. Cadernos Pagu, São Paulo, n. 56, p. 1-34, 2019 .
37 . CHAMBERS, David Wade. Stereotypic images of the scientist: the draw a scientist test. Science Education, [s. l.], v. 67, n. 2, p. 255-265, 1983 .
38 . DAMASCENO, Daniel et al. Injustiça epistêmica e reafirmação de estereótipos: a representação do cientista no Fantástico e Domingo Espetacular durante a pandemia da Covid-19. Contracampo, Niterói, n. 1, v. 43, p. 1-17, 2024 .
39 . CENTRO DE GESTÃO E ESTUDOS ESTRATÉGICOS (CGEE). Percepção pública da C&T no Brasil – 2019. Resumo executivo. CGEE, [s. l.], 2019 .
40 . MASSARANI, Luisa et al. O que os jovens brasileiros pensam da ciência e da tecnologia. Resumo executivo. Rio de Janeiro: INCT-CPCT, 2019
41 . NEIVA, Silmara Cássia Pereira Couto et al. Perspectivas da ciência brasileira: um estudo sobre a distribuição de bolsas de pesquisa em produtividade do CNPq ao longo do ano de 2019. Revista Interdisciplinar Científica Aplicada, Blumenau, v. 16, n. 3, p. 51-71, 2022 .
42 . Ibidem.
43 . SCHULMAN, John et al. Introducing ChatGPT. OpenAI, 2022 .
44 . SARKAR, Sujan. Uncovering the AI Industry: 50 Most Visited AI Tools and Their 24B+ Traffic Behavior. Writerbuddy, [s. l.], 2023 .
45 . RAMESH, Aditya et al. Zero-shot text-to-image generation. Proceedings of the 38th International Conference on Machine Learning, Long Beach, 2021 .
46 . BETKER, James et al. Improving Image Generation with Better Captions. OpenAI, [s. l.], p. 1-19, 2023 .
47 . BENDER, Emily et al. On the dangers of stochastic parrots: can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, [s. l.], p. 610-623, 2021 .
48 . SCHIENBINGER, Londa. O feminismo mudou a ciência? Bauru: EDUSC, 2001 .
49 . LOPES, Maria Margaret. Sobre convenções em torno de argumentos de autoridade. Cadernos Pagu, São Paulo, n. 27, p. 35-61, 2006 .
50 . HARAWAY, Donna. Saberes localizados: a questão da ciência para o feminismo e o privilégio da perspectiva parcial. Cadernos Pagu, São Paulo, n. 5, p. 7-41, 1995 .
51 . HARDING, Sandra. Strong objectivity: a response to the new objectivity question. Synthese, New York, v. 104, n. 3, p. 331-349, 1995 .
52 . FRANKENBERG, Ruth (Ed.). Displacing whiteness: Essays in social and cultural criticism. Durham: Duke University Press, 1997 .
53 . SCHWARCZ, L. K. M. O espetáculo das raças: cientistas, instituições e questão racial no Brasil ‒ 1870-1930. São Paulo: Companhia das Letras, 1993 .
54 . MARTINEZ, A. R. Representation. Op. cit. p. 184-190.
55 . SARKAR, Sujan. Uncovering. Op. cit.
56 . ASH, Elliott et al. Visual. Op. cit.
57 . REZNIK, Gabriela; MASSARANI, Luisa Medeiros; RAMALHO, Marina; MALCHER, Maria A.; AMORIM, Luis; CASTELFRANCHI, Yurij. Como adolescentes apreendem a ciência e a profissão de cientista? Revista Estudos Feministas, Florianópolis, v. 25, n. 2, p. 829-855, 2017 .
58 . LOBO, Paula; CABECINHAS, Rosa. The negotiation. Op. cit. p.339-358.
59 . CHIMBA, Mwenya Diana; KITZINGER, Jenny. Bimbo or boffin? Women. Op. cit. p. 609-624.
60 . TAMBKE, Erika. Mulheres Brasil 40º: os estereótipos das mulheres brasileiras em Londres. Espaço e Cultura, Rio de Janeiro, n. 34, p. 123-150, 2013 .
61 . Ibidem.
62 . HALL, Stuart. Cultura. Op. cit.
63 . Idem. Representation. Op. cit.
64 . TEIXEIRA, Pedro. ChatGPT reforça estereótipos sobre mulheres brasileiras: magras, bronzeadas e com acessórios coloridos. Folha de S. Paulo, São Paulo, 6 mar. 2024 .
65 . ASH, Elliott et al. Visual. Op. cit.
66 . REZNIK, Gabriela; MASSARANI, Luisa Medeiros; RAMALHO, Marina; MALCHER, Maria A.; AMORIM, Luis; CASTELFRANCHI, Yurij. Como adolescentes apreendem a ciência e a profissão de cientista? Revista Estudos Feministas, Florianópolis, v. 25, n. 2, p. 829-855, 2017 .
67 . LOBO, Paula; CABECINHAS, Rosa. The Negotiation. Op. cit. p.339-358.
68 . CHIMBA, Mwenya Diana; KITZINGER, Jenny. Bimbo. Op. cit. p. 609-624.
69 . SARKAR, Sujan. Uncovering. Op. cit.

Author notes

E-mail: luiz.felipe@ufg.br E-mail: amanda.cnth@gmail.com E-mail: luisa.massarani@fiocruz.br

HTML generated from XML JATS by