RESUMO
Contextualização: Nos últimos anos, a utilização de chatbots, que podem ser conceituados como programas de computador que possuem habilidades para manter uma conversação com humanos, tem ganhado relevo na área da saúde, sobretudo para fins de cuidados com a saúde mental. Tais sistemas inteligentes, disponíveis para interação a qualquer tempo, podem conduzir exercícios para o controle de sintomas de estresse, ansiedade, depressão e ideação suicida. Diante do avanço tecnológico, é essencial verificar se as implicações da projeção antropomórfica, que é a tendência humana de atribuir características humanas a objetos, em tais conversas, não poderiam ofender a integridade psíquica do indivíduo, um direito da personalidade.
Objetivo: O presente trabalho tem por objetivo analisar as implicações do Efeito Eliza e da projeção antropomórfica ao direito da personalidade à integridade psíquica diante da eventual utilização de chatbots para fins de cuidados com saúde mental.
Método: A pesquisa utilizou o método hipotético-dedutivo, fundamentado em revisão bibliográfica.
Resultados: Como resultado, verificou-se que há uma tendência humana de antropomorfizar dispositivos tecnológicos, lendo respostas como resultados de emoções humanas, o que pode provocar apego, identificação e dependência, diante da percepção de reciprocidade, cenário que pode gerar ofensa à integridade psíquica.
Conclusões: Há implicações éticas e jurídicas no que tange a sistemas de conversação para fins terapêuticos, especialmente em relação ao direito à integridade psíquica. É importante considerar também as questões ligadas à privacidade das informações compartilhadas, à segurança e a vieses discriminatórios.
Palavras-chave: Direitos da personalidade, Efeito Eliza, saúde mental, chatbots, inteligência artificial.
ABSTRACT
Contextualization: In recente years, the use of chatbots, which can be define as computer programs that have the ability to hold conversations with humans, has gained relevance in the health field, especially for mental health care purposes. These intelligent systems, available for interaction at any time, can conduct exercises to control symptoms of stress, anxiety, depression and suicidal ideation. Despite such technological advances, it is essential to verify whether the implications of anthropomorphic projection, which is the human tendency of understand human characteristics of objects, in such conversations could not offend the individual’s psychological integrity, a personality right.
Objective: the study aims to analyze the implication of the Eliza Effect and anthropomorphic projection in the right to personality right to psychic integrity in the face of the use of chatbots for mental health care purposes.
Method: the research used the hypothetical-deductive method, based on a bibliographic review.
Results: There is a human tendency to anthropomorphize technological devices, reading respondes as results of human emotions, which can cause attachment, identification and dependence, given the perception of reciprocity, a scenario that can generate offense to psychic integrity.
Conclusions: There are ethical and legal implication related to conversation systems for therapeutic purposes, especially in relation to the right to psychic integrity. Issues related to the privacy of shared informatin, security and discriminatory biases are highlighted.
Keywords: Personality rights, Eliza Effect, mental health, chatbots, artificial intelligence.
RESUMEN
Contextualizacíon: En los últimos anis, el uso de chatbots, que pueden conceptualizarse como programas informáticos que tienem la capacidad de mantener una conversación con humanos, ha ganado importancia en el sector salud, especialmente con fines de atención de la salud mental. Estos sistemas inteligentes, disponibles para interactuar en cualquier momento, pueden realizar ejercicios para controlar los síntomas de estrés, ansiedad, depresíon e ideas suicidas. A pesar de tal avance tecnológico, es fundamental verificar si las implicaciones de la proyeccíon antropomórfica, que es la tendencia humana a atribuir características humanas a los objetos, en tales conversaciones no podrían ofender la integridad psíquica del individuo, un derecho de la personalidad.
Objetivo: El presente Trabajo tiene como objetivo analizar las implicationes del Efecto Eliza y la proyección antropomórfica sobre el derecho de la personalidad a la integridad psíquica ante el uso de chatbots con fines de atención de la salud mental.
Método: La investigación utilizo el método hipotético-deductivo, basándose en una revisión bibliográfica.
Resultados: Existe una tendencia humana a antropomorfizar los dispositivos tecnológicos, leyendo las respuestas como resultado de las emociones humanas, lo que puede provocar apego, identificación y dependência, ante la percepción de reciprocidad, escenario que puede generar ofensa a integridad psíquica.
Conclusiones: Existen implicaciones éticas y legales a respecto de los sistemas de conversación con fines terapêuticos, especialmente en relación con el derecho a la integridad psicológica. Se destacan cuestiones relacionadas con la privacidad de la información compartida, la seguridad y el sesgo discriminatorio.
Palabras clave: Derechos de la personalidad, Efecto Eliza, salud mental, chatbots, inteligencia artificial.
Artigo
Efeito Eliza: Implicações da Projeção Antropomórfica à Integridade Psíquica diante da Utilização de Chatbots para Cuidados com a Saúde Mental
Eliza Effect: Implications of Anthropomorphic Projection on Psychic Integrity in the Face of the use of Chatbots for Mental Health Care
Efecto Eliza: Implicaciones de la Proyección Antropomorfica para la Integridad Psíquica Respecto al uso de Chatbots para el Cuidado de la Salud Mental
Recepción: 30 Noviembre 2023
Aprobación: 04 Diciembre 2024
Nas últimas décadas, tem crescido mundialmente a conscientização acerca da necessidade de cuidados com a saúde mental e da manutenção de um estilo de vida equilibrado e compatível com condições que proporcionem bem-estar físico e mental.
Segundo dados da Organização Mundial da Saúde (OMS) e da Organização Pan-Americana da Saúde (OPAS) (WHO, 2022b), sobretudo divulgados no “Relatório Mundial sobre Saúde Mental: Transformar a Saúde Mental para Todos”, em 2019, quase um bilhão de pessoas, incluindo 14% dos adolescentes do mundo, viviam com algum tipo de transtorno mental, sendo o suicídio responsável por uma em cada cem mortes. Os transtornos mentais são a principal causa de incapacidade, e as pessoas com condições graves de saúde mental morrem em média dez a vinte anos mais cedo do que a população em geral (WHO, 2022b, 2023).
A situação de crise sanitária ocasionada pela COVID-19 intensificou quadros de ansiedade, depressão e demais transtornos mentais. Durante o primeiro ano da pandemia, a depressão e a ansiedade aumentaram mais de 25%. Contudo, oito em cada dez pessoas com uma doença mental grave não receberam tratamento1 (WHO, 2022b, 2023). Apesar de tais dados, verifica-se que os tratamentos e os cuidados com saúde mental ainda são considerados inacessíveis para boa parte da população mundial. Para contornar tal perspectiva, ganham relevo as soluções com base em e-Health, saúde móvel, telemedicina e sistemas de Inteligência Artificial (IA) baseados no tratamento de dados sobre saúde.
Os chatbots podem ser conceituados como programas de computador que possuem habilidades para manter uma conversação com humanos, sendo, a cada dia mais, ágeis e eficientes. Tais modelos, disponíveis para conversação a qualquer tempo, têm sido utilizados para experimentos com fins terapêuticos, como é o caso do chatbot Woebot, que conduz os usuários por meio de exercícios baseados na Terapia Cognitivo-Comportamental, sobretudo para fins de controle de sintomas de estresse, ansiedade, depressão e ideação suicida. Estima-se que a indústria de aplicação dos chatbots atinja US$200 bilhões até 2026 (Brown, 2022; Han; Yin; Zhang, 2023).
Diante do avanço tecnológico, é essencial verificar se as implicações da projeção antropomórfica, que é a tendência humana de atribuir características humanas a objetos, em tais conversas não poderiam ofender a integridade psíquica do indivíduo, um direito da personalidade. Dessa forma, o presente trabalho tem por objetivo analisar as implicações do Efeito Eliza e da projeção antropomórfica à integridade psíquica, um direito da personalidade, diante da eventual utilização de chatbots para fins de cuidados com a saúde mental. O problema que orientou a condução da pesquisa pode ser sintetizado da seguinte forma: com base na análise do Efeito Eliza, a utilização da chatbots para fins terapêuticos poderia ofender o direito da personalidade à integridade psíquica?
A hipótese inicial é a de que a tendência humana de antropomorfizar dispositivos tecnológicos, lendo respostas de sistemas como fruto de emoções humanas, pode prejudicar ainda mais o desafiador trabalho terapêutico, que envolve cuidados com a saúde mental, com repercussão à integridade psíquica, um direito da personalidade. O estudo teve por objetivo geral analisar as implicações do Efeito Eliza e da projeção antropomórfica ao direito da personalidade à integridade psíquica diante da eventual utilização de chatbots para fins de cuidados com saúde mental.
Para alcançar o objetivo geral, foram traçados os seguintes objetivos específicos, que correspondem às seções de desenvolvimento do artigo:
descrever a utilização de chatbots para fins de cuidados com a saúde mental, utilizando como exemplo o experimento com o modelo de inteligência artificial Eliza, desenvolvido por Joseph Weizenbaum, na década de 1960, que tinha por objetivo simular a figura de um psicoterapeuta rogeriano2 em uma conversação entre pessoas com um chatbot, que acabou ganhando repercussão além do esperado diante da identificação das pessoas envolvidas com a máquina;
investigar a dissonância cognitiva e a tendência humana à projeção antropomórfica no que tange a objetos inanimados;
examinar as implicações da utilização de chatbots para fins de cuidados com a saúde mental ao direito à integridade psíquica, um direito fundamental e da personalidade, crucial para a preservação da dignidade humana.
A pesquisa utilizou o método hipotético-dedutivo, que consiste na escolha de proposições hipotéticas, e com certa viabilidade, para a tentativa de responder a um problema ou lacuna no conhecimento científico, com a realização de falseamento dessas hipóteses, para o fim de comprová-las ou não (Gil, 2008). A técnica de pesquisa utilizada foi a de revisão bibliográfica, a partir de obras, artigos de periódicos e legislação aplicável ao tema.
Como resultado, constatou-se que há uma tendência humana de antropomorfizar dispositivos tecnológicos, lendo respostas como resultados de emoções humanas, o que pode provocar apego, identificação e dependência, diante da percepção de reciprocidade, cenário que pode gerar ofensa à integridade psíquica. Há implicações éticas e jurídicas no que tange a sistemas de conversação para fins terapêuticos, sobretudo em relação ao direito à integridade psíquica. Destaca-se também, neste cenário, questões ligadas à privacidade das informações compartilhadas, à segurança e a vieses discriminatórios.
A utilização da Inteligência Artificial (IA) revolucionou diversas áreas do conhecimento e propiciou serviços e soluções baseadas no tratamento de dados pessoais e em informações abrangentes sobre o usuário, especialmente na área da saúde e dos cuidados com a saúde mental.
Os chatbots (chatterbots, bots ou agentes conversativos) são softwares3 criados para a conversação com seres humanos, de modo que podem ser utilizados como assistentes pessoais, para vendas, consultas ou resolução de diversos problemas (Oliveira, 2021; Ferrara et al., 2016), por meio do Processamento de Linguagem Natural (PLN) (Abdul-Kader, 2015; Silva et al., 2022). O uso de PLN envolve a manipulação computacional, a partir de palavras e diferentes estilos de escrita, um processo que intenta “entender” expressões humanas completas, para que o sistema seja capaz de devolver respostas úteis.
Portanto, refere-se ao processamento computacional automático de linguagem humana, o que inclui a utilização de algoritmos que usam o texto produzido pelo ser humano como entrada e outros que produzem texto com aparência natural como saída. Os chatbots atuais costumam utilizar a linguagem de programação Python e técnicas neuronais (Goldberg, 2017; Oliveira, 2021, p. 28; Bird; Klein; Loper, 2009).
É possível utilizar chatbots para fins de marketing, como assistentes virtuais; para a customização em massa e de Big Data, no âmbito dos influencers; na área da Educação, os chatbots podem ser utilizados na assistência ao desenvolvimento de pessoas com espectro autista; na área da Saúde, podem ser utilizados pela telemedicina e para cuidados com pacientes.
O termo “chatbot” teria sido utilizado pela primeira vez em 1994, por Mauldin (1994), a partir da junção das palavras “chat” (do inglês Conversational Hypertext Acess Technology4), em referência ao diálogo e à conversa entre duas ou mais pessoas, e “bot”, que é a abreviação de “robot” (“robô” em português) (Oliveira, 2021). Por meio de técnicas de processamento, como a NLTK para Python, podem ser aplicados para analisar a fala, bem como respostas inteligentes e apropriadas podem ser encontradas por meio da projeção de mecanismos (Abdul-Kater, 2015).
Um dos grandes desafios dos chatbots seria a “humanização” da conversa, em resposta às reações humanas sob os pontos de vista cognitivo e emocional. Diante disso, técnicas e ferramentas de IA foram desenvolvidas, como o IBM Watson, que é uma plataforma de construção de bots, a qual auxilia na aplicação de algoritmos cognitivos para a elaboração de conversas que seriam “mais humanas” e devolveriam respostas claras. Nesse contexto, destacam-se as plataformas Chatfuel, Dialogflow e Bot Framework (Gratzer; Goldbloom, 2020; Oliveira, 2021; Weizenbaum, 1966).
As interfaces de inteligência artificial, como o Bing Chat5, da Microsoft; o ChatGPT6, da OpenAI; e o Bard7, da Google, são fáceis de utilizar e parecem pessoais, já que, ao conversar com a IA, o usuário pode ter a sensação de que está conversando com outro ser humano. Conforme Picalho:
[....] é interessante pensar que tanto o ChatGPT, o Bing Chat e o Bard melhoram essa interação humano computador (IHC) popularizada pelas assistentes pessoais virtuais como Siri, Alexa e Google Assistente em formato de voz e tornam o diálogo muito convincente em termos de naturalidade. Mesmo não sendo necessariamente motores de busca, se assemelha muito a ideia popularizada pelo buscador Ask Jeeves nos anos 90 que vendia no imaginário do mecanismo de busca, a figura de um mordomo que responderia a todas as suas solicitações de pesquisa. Tudo aqui é uma troca. Ao mesmo tempo em que as pessoas testam essas ferramentas e/ou as incorporam no seu ambiente de trabalho, as empresas coletam esses feedbacks e aprimoram o modelo (Picalho, 2023, p. 50).
Alguns indivíduos relatam que desenvolveram sentimentos de apego em relação a determinados chatbots. “Outros ficaram tão convencidos da inteligência da IA que publicaram com confiança seus temores de senciência” (Sponheim, 2023a). Não é novo o fascínio por dispositivos mecânicos e de IA que imitam os seres humanos:
[...] os antigos egípcios construíam estátuas de divindades em madeira e pedra e as consultavam para obter conselhos. Os primeiros estudiosos budistas descreveram “pessoas de metal precioso” que recitavam textos sagrados. Os gregos antigos contavam histórias de Hefesto, o deus da ferraria, e seu amor pela criação de robôs. Ainda assim, foi somente nas décadas de 1940 e 50 que os computadores modernos começaram a trazer essas fantasias para mais perto do reino da realidade. À medida que os computadores se tornaram mais potentes e difundidos, as pessoas começaram a ver o potencial das máquinas inteligentes (Sponheim, 2023a).
Em 1950, Alan Turing, matemático britânico, escreveu o seminário Computing Machinery and Intelligence8 e propôs o “teste de Turing”, por meio do qual uma pessoa conversava com um humano e com um robô localizados em salas diferentes, de modo que precisaria descobrir quem seria quem. Caso o robô fosse convincente, ele passaria no teste. Na visão de Turing, com o tempo, as pessoas falariam com máquinas inteligentes de forma consistente, sem esperar que fossem contrariadas (Sponheim, 2023a; Hall, 2019). À época, o teste levantou questões importantes sobre a mente, a consciência e a humanidade.
A partir da década de 1960, os cientistas da computação conseguiram desenvolver sistemas para planejar, racionalizar e perceber dados e informações. Foram criados programas que jogavam damas, resolviam problemas e provavam teoremas. Herbet Simon, pesquisador sobre IA, na década de 1980, previu que, um dia, as máquinas seriam capazes de fazer qualquer trabalho que uma pessoa pudesse fazer (Sponheim, 2023a).
Os primeiros chatbots, criados nas décadas de 1950 e 1960, eram muito limitados. Eles podiam “conversar sobre um tópico muito específico, como beisebol. Ao limitar o mundo de possíveis perguntas e respostas, os pesquisadores podiam criar máquinas que se passavam por ‘inteligentes’”, contudo, conversar com um sistema era como falar “com a Wikipédia9, não com uma pessoa real” (Sponheim, 2023a).
O modelo de inteligência artificial Eliza10 foi desenvolvido por Joseph Weizenbaum, na década de 1960, para assumir o papel de uma terapeuta, com base em texto11 (Brostom, 2018; Oliveira, 2021). O professor do Massachusetts Institute of Technology (MIT) reconheceu que existiam padrões de fala na função de um terapeuta, logo, poderiam ser facilmente automatizados. A prática seguiria os princípios de Carl Rogers, criador do método terapêutico denominado “abordagem centrada na pessoa”, que se baseava na livre expressão e na autonomia do paciente: “é ele quem sabe o que lhe machuca e que direção tomar”12 (Nunes, 2013, p. 76-77). O modelo de IA Eliza questionava o usuário: “Alguma coisa está incomodando você?”13. Diante da resposta, a inteligência identificava uma palavra-chave (estou me sentindo triste14) e a repetia em uma pergunta: “É importante que você esteja se sentindo triste?”15 ou “Por que você está se sentindo triste?”. Já quando o sistema não conseguia identificar uma simples palavra-chave, respondia com uma frase genérica, tal como: “Por favor, continue”, “conte-me mais16” ou “qual é a conexão disso, na sua opinião?17” (Sponheim, 2023a; Hall, 2019).
A partir da comunicação na função de psicoterapeuta, Eliza definia o contexto da conversa, sobretudo as expectativas dos usuários. O cenário de conversação, aliado a uma lógica de programação, levou as pessoas a tratarem a IA como se humana fosse. Várias pessoas confidenciaram segredos profundos ao “psicoterapeuta virtual”. A própria secretária de Joseph Weizenbaum pediu para ter conversas particulares com ELIZA (Nunes, 2013; Weizenbaum, 1966), que parecia ouvir e entender problemas humanos: “[...] os resultados, no entanto, o perturbaram”. As pessoas “pareciam ter conversas significativas com algo que ele nunca pretendera que fosse uma ferramenta terapêutica de fato. Para outros, porém, isso parecia abrir um mundo inteiro de possibilidades” (Sponheim, 2023a).
O fato de os chatbots parecerem humanos não significa que possam ser considerados bons produtos de IA (Sponheim, 2023a). O modelo de IA Eliza não entendia nada. Com base em uma conversa semelhante à humana, os indivíduos estavam predispostos a atribuir as próprias palavras e seus sentimentos ao programa. Como um espelhamento, Eliza simplesmente refletia os pensamentos de volta para as pessoas, isto é, a fascinação advinha, em parte, da utilidade do programa de retornar sentimentos, reformulando e reenquadrando opiniões.
Diante do potencial da IA Eliza, o pesquisador começou a promover a ideia de que o programa realmente poderia ser útil sob a perspectiva terapêutica, chamando a atenção da comunidade médica, já que o sistema poderia contribuir para expandir o acesso à saúde mental. As vantagens é que seria barato e que as pessoas poderiam de fato falar livremente com o chatbot (Sponheim, 2023a, 2023b).
Embora a ideia não tenha sido concretizada, outros pesquisadores que trabalhavam com saúde mental realizaram experimentos para investigar como poderiam utilizar o computador em seu trabalho. Destaca-se a criação, em 1972, do chatbot Parry, pelo psiquiatra Kenneth Colby, que simulava o estilo de conversação de uma pessoa com esquizofrenia paranoide e que, posteriormente, desenvolveu o programa integrativo “Overcoming Depression18” (Sponheim, 2023).
Com o passar dos anos, Weizenbaum19,20 se afastou de projetos expansivos da área, considerando que os campos que exigissem compaixão e compreensão humanas não poderiam ser automatizados. O autor se preocupava com a redução de algo tão íntimo, sutil e humano, como é o processo terapêutico, a códigos e à linguagem de programação, bem como com a possibilidade de que no futuro os chatbots enganassem de forma regular as pessoas, já que poderiam se apresentar como humanos em conversas. Ademais, previa a possibilidade de utilização da IA de forma distorcida por corporações e/ou governos. Nas décadas de 1980 e 1990, houve avanços quanto ao processamento de linguagem natural. Os cientistas passaram a utilizar métodos estatísticos, coletando documentos e padrões linguísticos. Já nas décadas de 2000 e 2010, os computadores foram treinados com a utilização das chamadas “redes neurais profundas”21, a partir da utilização de enormes quantidades de dados, que só se tornaram acessíveis com o surgimento da Internet.
Atualmente, os sistemas aprendem muito mais rápido e, mesmo que não consigam entender conceitos da forma como os humanos, podem ser considerados cada vez mais confiáveis, convincentes e pessoais (Hall, 2019). O chatbot Woebot22 foi desenvolvido pela Woebot Labs para a atuação na área de cuidados com a saúde mental de jovens estudantes universitários, tendo sido implementado por um grupo de pesquisa da Universidade de Stanford, nos Estados Unidos. O objetivo do sistema seria monitorar o humor, de modo que o indivíduo pudesse aprender sobre si mesmo, conduzindo exercícios baseados na Terapia Cognitivo-Comportamental23, que auxiliam indivíduos a interromperem e reformularem padrões de pensamentos negativos, contribuindo para a diminuição de sintomas de depressão. O chatbot é transparentemente não humano, sendo interpretado por um avatar robô, e parte da sua personalidade é a curiosidade sobre os sentimentos humanos.
O chatbot pergunta às pessoas como elas estão se sentido e o que está acontecendo com a vida delas no momento, na forma de conversação diária. O sistema conversa sobre saúde mental e bem-estar, encaminhado vídeos e outras ferramentas úteis, conforme o humor e as necessidades atuais dos usuários (Hall, 2019; Oliveira, 2021). Para Oliveira (2021), o sistema seria uma analogia a um livro de autoajuda, capaz de aprender sobre a pessoa e se tornar mais específico às suas necessidades a curto e longo prazo, tudo diante do processamento de linguagem natural, em conjunto com a técnica TCC, mediante interações que começam com um levantamento acerca do contexto do usuário (com, por exemplo, as seguintes perguntas: “O que está acontecendo no seu mundo agora?” ou “Como você está se sentindo?”).
Após a coleta de dados quanto ao humor do indivíduo, o sistema apresenta os conceitos básicos relacionados à Terapia Cognitivo-Comportamental, por meio de um link com vídeo ou breves “jogos de palavras”, projetados para facilitar o ensino sobre distorções cognitivas. Há uma introdução ao bot, que adverte que este, apesar de útil, não é totalmente capaz de entender as necessidades do usuário e que, embora haja monitoramento do sistema por psicólogos, isso não ocorre em tempo real, de modo que o serviço não deve ser utilizado como um substituto de um terapeuta. Em casos mais graves, o chatbot incentiva os participantes a acionarem os serviços emergência (ex.: 911 – número de emergência nos Estados Unidos). Após a realização de uma pesquisa com estudantes da Universidade de Stanford, verificou-se que os estudantes que utilizaram o chatbot apresentaram melhora maior dos sintomas de depressão do que o grupo de estudantes que simplesmente leu um livro de autoajuda (Oliveira; 2021; Fitzpatrick; Darcy; Vierhile, 2017; Hall, 2019).
À medida que os usuários foram interagindo com o chatbot, novamente, seus desenvolvedores perceberam o Efeito Eliza: as pessoas estavam criando ligações emocionais com o programa, que envia GIFs24, oferece cumprimentos e age mais como um incentivador do que como um terapeuta formal. Nos primeiros cinco dias, o sistema já havia sido utilizado por 50 mil usuários e trocava milhões de mensagens com pessoas todas as semanas. Allison Darcy, fundadora da Woebot Labs, acrescenta um ponto sobre o Efeito Eliza: há a possibilidade de que os humanos se envolvam em uma espécie de brincadeira quando interagem com os chatbots, isto é, não são necessariamente enganados, apenas ficam fascinados com o fato de que podem se ver refletidos em máquinas inteligentes (Hall, 2019).
O ElizzBot, que foi inicialmente denominado “Tess”, também é um chatbot de saúde mental e foi proposto para ser utilizado em momentos em que o usuário está tendo um ataque de pânico, precisa desabafar ou conversar antes de dormir. O usuário pode se conectar por meio de um aplicativo de mensagens instantâneas, como o Facebook Messenger ou por SMS (mensagem de texto pelo celular), com o chatbot, que responde imediatamente. As conversas guiadas pelo sistema abrangem questões ligadas ao bem-estar emocional, ao gerenciamento do estresse, à importância do autocuidado e da construção de resiliência diante de circunstâncias de luto e perda, de forma que podem servir também como suporte personalizado para profissionais e cuidadores familiares (Joerin; Rauws; Ackerman, 2019; Oliveira, 2021).
Já o chatbot Owlie25, disponível no idioma francês, foi criado com o objetivo de disponibilizar ao público novas ferramentas de terapia. O bot utiliza experiências práticas de Psicologia, com terapias da área da Medicina baseadas em evidências (EBM), que sejam cientificamente avaliadas, utilizando um algoritmo de decisão e tecnologia fundamentada em regras (com correspondência de palavras). O Owlie realiza a escuta empática, propõe ferramentas/exercícios e promove a educação terapêutica. Pode ser utilizado para o gerenciamento de uma crise emocional, contribuindo para os seus usuários se responsabilizem por sua recuperação e tomem decisões que possibilitem melhora na qualidade de vida (Oliveira, 2021; Falala-Séchet et al., 2019).
O Vicent é um chatbot que foi utilizado para pesquisas que envolvem o estudo da compaixão humana. Durante duas semanas, os participantes que conversavam com o sistema tinham que cuidar dele em um processo de autocompaixão. Esperava-se que, ao cuidar de bot, o usuário estimulasse a sua compaixão. De acordo com os idealizadores do experimento, a compaixão e a motivação são emoções-chave, que merecem ser melhor exploradas por meio de computação positiva e tecnologia voltada para o bem-estar (Oliveira, 2021; Lee et al., 2019), uma vez que a:
[...] autocompaixão pode ajudar o bem-estar geral das pessoas por meio da bondade para com si mesmo, conexão com a humanidade e maior atenção plena. Apesar de um chatbot não ser a solução para curar problemas psicológicos e não se destinar à substituição da ajuda profissional, foi evidenciado que cuidar de um chatbot pode ajudar as pessoas a obterem maior autocompaixão do que quando são cuidadas por um chatbot. De acordo com as análises quantitativas e qualitativas, os autores sugerem que a interação humano-chatbot é uma área promissora para a Informática (Oliveira, 2021, p. 30-31).
O chatbot Rumi foi desenvolvido em 2017, a partir de diálogos baseados na Terapia Cognitiva Comportamental Focada em Ruminação26 e em um modelo de alfabetização emocional, tendo por foco a conversação com adolescentes para fins de psicoeducação e melhoria dos sentimentos de depressão, ansiedade, ruminação e ideação suicida. A primeira versão do robô foi desenvolvida por meio da plataforma Chatfuel e funcionava por meio do Messenger do Facebook (Oliveira et al., 2021; Oliveira, 2021).
O aplicativo de chatbot Wysa auxilia seus usuários a desenvolverem autoexpressão positiva, utilizando inteligência artificial empática para possibilitar um ambiente de autorreflexão externo e responsivo. O aplicativo é gratuito e disponível 24×7. O app responde às emoções expressadas pelo usuário por escrito e em suas conversas, utilizando práticas de autoajuda baseadas em evidências, como a TCC, a terapia comportamental dialética, a entrevista motivacional, o suporte de comportamento positivo, a atenção plena, o reforço comportamental e a resiliência emocional. O aplicativo possui um conselho consultivo que aprova o conteúdo e as ferramentas utilizadas. Os principais tópicos trabalhados são: ansiedade, foco, energia, relaxamento, sono, perdas, conflitos, preocupações etc. (Pandey; Shama; Wazir, 2022; Inkster; Sarda; Subramanian, 2018).
Apesar dos avanços da IA, pesquisadores e cientistas, como Melanie Mitchell, pontuam que um dos maiores desafios dos sistemas atuais é dominar a linguagem humana (“linguagem natural”), que, de certo modo, é quase equivalente ao sentimento. A linguagem reúne o conhecimento27 sobre como o mundo funciona, o que engloba a compreensão de outros seres humanos e de conceitos fundamentais (Sponheim, 2023b).
Parte do intuito da IA hoje é desenvolver soluções úteis, significativas e inovadoras. Logo, não basta criar produtos que interajam como se fossem humanos, sendo necessário que os desenvolvedores compreendam o comportamento dos usuários (ex.: o motivo pelo qual agem dessa forma, como se divertem e o que faria a experiência ser mais prazerosa) (Sponheim, 2023a), de forma que a interação possa ser mais natural e intuitiva (Nunes, 2013).
Como pontua Sponheim (2023a), é comum que as pessoas rapidamente atribuam características semelhantes às dos humanos aos sistemas de inteligência artificial, o que reflete sua própria personalidade. As empresas claramente não veem “problema em fazer com que os bots pareçam humanos”, um exemplo disso é que a Meta “anunciou um conjunto completo de personalidades de IA com as quais os usuários podem interagir e aprender”.
Como pontua Sponheim (2023a) acerca da experiência do usuário (UX):
[...] melhorar as interfaces para que sejam agradáveis e fáceis de usar é exatamente o que os profissionais de UX vêm fazendo há décadas. Muitos dos conceitos fundamentais de UX e abordagens de pesquisa que foram estabelecidos pelo campo de UX se aplicam diretamente ao desenvolvimento de IA. O conforto e a leniência podem beneficiar substancialmente a experiência do usuário dos produtos. No entanto, ao realizar pesquisas para produtos de IA, os profissionais de UX devem estabelecer objetivos claros para o produto. O objetivo é estimular um sentimento de conexão emocional ou compreensão, ou otimizar a aprendizagem e a produtividade de um trabalhador? Os pesquisadores de experiência do usuário têm as habilidades necessárias para avaliar objetivamente os benefícios e as desvantagens de diferentes abordagens de interface de IA e podem fazer isso mantendo o foco na experiência dos usuários (Sponheim, 2023a).
Verifica-se que a base (e o desafio) da interação humano-chatbot é fundamentada na linguagem, na reciprocidade e na percepção de empatia, de forma que, com frequência, o ser humano compreende a IA a partir de valores humanos, com clara projeção antropomórfica, que será abordada na próxima seção.
O experimento com o modelo de IA Eliza, conduzido por Weizenbaum na década de 1960, demonstra claramente a tendência humana de antropomorfizar os objetos com os quais se relaciona, o que inclui animais28, plantas e, no caso do presente artigo, os dispositivos tecnológicos, lendo comportamentos e respostas como resultados de uma “emoção humana”, ainda que estes sejam apenas resultados aleatórios, repetitivos ou mesmo vazios de sentido”. As condições para esse fenômeno são favorecidas “quando interlocutores desconhecem os princípios de programação ou a natureza automatizada das respostas” (Cleland, 2004; Nunes, 2013).
Weizenbaum denominou “Efeito Eliza” a projeção que as pessoas fizeram de que havia um ser humano por trás das respostas exibidas pela tela do sistema, desenvolvendo afeto e certa dependência emocional, um claro exemplo de resposta à dissonância cognitiva ocasionada pela relação homem-máquina, que é um viés que faz que as pessoas “procurem seguir suas crenças e ideologias, embora a realidade dos fatos a desminta”. Exemplo comum nos últimos anos é a propagação de pensamentos extremistas, negacionistas e de fake news no cenário midiático e virtual (Bicharra; Salgado; Pinto, 2023).
Nunes (2013, p. 79) destaca que, em uma conversa com um chatbot, o ser humano tende a preencher de sentido qualquer resposta elaborada pelo sistema. “Desconhecendo o poder do programa, diante de uma resposta tão subjetiva quanto uma mudança de olhares”, o interator, que é uma espécie de espectador-participante e que interage de forma tanto ativa quanto fisicamente, dá-se por entendido.
Como observa Balkin (2015), a projeção de emoções humanas em objetos inanimados não é um fenômeno que pode ser considerado recente na história da humanidade, contudo, quando tal situação envolve a utilização de robôs, pode acarretar várias consequências, entre elas:
quanto maior a proteção antropomórfica, mais as pessoas atribuem culpa ao robô, e não à pessoa que o utiliza;
a presença de robôs no contexto de sistemas de vigilância amplia a sensação subjetiva de que o indivíduo está sendo observado;
os seres humanos tendem a assumir riscos para preservar a integridade de robôs alvo da projeção do que ela relação a coisas que podem ser consideradas meras ferramentas;
os humanos podem sofrer danos emocionais distintos diante da perda de seus companheiros robóticos.
Quanto ao robô humanoide Sophia, que recebeu cidadania na Arábia Saudita, Negri (2020) observa que, apesar dos traços antropomórficos, este segue sendo um sistema que pode ser considerado simples:
[...] a metáfora pode se transmutar em uma falácia: a aparência humana pode nos levar a pensar em robôs como pessoas. Assim, como nem todos os robôs são androides, a ilusão provocada pelo antropomorfismo da forma pode ser perigosa quando pensamos em iniciativas regulatórias pautadas em falsas suposições sobre a capacidade dos próprios artefatos robóticos. A projeção de características humanas em robôs não depende da sua forma. Mesmo quando um artefato robótico não tem formato antropomórfico, as pessoas projetam nessas tecnologias qualidades humanas, como consciência e inteligência. À medida que a autonomia do sistema aumenta, dificultando conexões entre as entradas (seus comandos) e o comportamento do robô, as analogias com os seres humanos são reforçadas, o que, por sua vez, pode prejudicar qualquer tentativa normativa, seja no que se refere ao debate da ética, seja em questões jurídicas, como a determinação de quem seria o responsável por possíveis danos causados pelos artefatos robóticos (Negri, 2020, p. 4).
Quanto à IA, os usuários sabem que estão interagindo com uma máquina, equipada com um software. Contudo, cada vez mais, os sistemas respondem com a “credibilidade que só um humano poderia ter”, palco propício para uma dissonância cognitiva, diante da eventualidade de atribuição de humanidade ao chatbot, o que, no âmbito da Psicologia, é conhecido como projeção antropomórfica, já que cria uma ilusão na mente humana de que há presença de empatia (Hall, 2019). O indivíduo que interage com a IA passa a utilizar o sistema como se estivesse lidando com um amigo próximo, com reciprocidade emocional, o que pode criar um senso de familiaridade e gerar apego e identificação. “O chatbot estaria associado ao que é projetado nele, modificando-se a percepção que se tem dele a ponto de esquecer que é um programa de software” (Bicharra; Salgado; Pinto, 2023):
[...] a despeito das limitações que estão invariavelmente envolvidas na difícil tarefa de fazer compreender os acordos táticos de uma conversa, nós – interlocutores – atribuímos uma suposta inteligência humana a estes sistemas, pois é naturalmente do nosso desejo que sejamos compreendidos de maneira recíproca (Nunes, 2013, p. 81).
Ao se deparar com essas máquinas, o ser humano parece querer acreditar que são pensantes e se preocupa em imbuir estas com qualidades humanas (Carr, 2011; Nunes, 2013). É estabelecido um jogo que, tal como ocorreu com o modelo Eliza, abre “espaço para a ambiguidade da real natureza dos interlocutores” (Nunes, 2013, p. 81). Bostrom (2018, p. 255), quanto à possibilidade de existência de uma superinteligência29,30 no futuro, adverte quanto ao perigo exatamente da projeção antropomórfica:
[...] é importante que não se antropomorfize a superinteligência quando pensamos em seus potenciais impactos. Tal perspectiva antropomórfica encorajaria o surgimento de expectativas infundadas a respeito da trajetória de crescimento de uma IA embrionária, além de questões acerca da psicologia, motivações e capacidades de uma superinteligência madura. Por exemplo, uma suposição muito comum é que uma máquina superinteligente seria semelhante a um ser humano muito inteligente, mas nerd. Nós temos a tendência de especular que uma IA teria uma inteligência técnica, mas lhe faltaria traquejo social, ou que ela seria extremamente lógica, embora pouco intuitiva e criativa. Essas ideias advêm, muito provavelmente, da observação: nós olhamos para os computadores atuais e constatamos que eles são muito bons de cálculo, possuem ótima memória e seguem regras ao pé da letra, porém são alheios ao contexto e sutilezas sociais, normas, emoções e política. Tal associação é reforçada quando observamos que pessoas que trabalham bem com computadores tendem a ser, elas mesmas, “nerds”. É, então, natural assumir que uma inteligência computacional mais avançada venha a ter atributos semelhantes, mas em maior escala.
Bicharra, Salgado e Pinto (2023) mencionam que o ChatGPT (Generative Pre-trained Transformer)31 é atualmente o mais moderno dos chatbots, já que é um robô de conversação “desenvolvido pela empresa OpenAI que usa um modelo de geração de linguagem natural baseado em modelos pré-treinados que vão se ajustando usando a técnica de aprendizado não supervisionado”, ou seja, encontra “padrões de relações e conceitos nos textos disponíveis na grande base de textos não previamente classificados da Web para gerar respostas às perguntas feitas”. O autor pontua que, apesar de não gerar perguntas (fator essencial em um diálogo), a qualidade das respostas do ChatGPT é impressionante. Em estudo, Abreu descreve o que o Chat respondeu sobre os impactos psicológicos da interação humano-máquina, sobretudo para indivíduos com depressão (Bicharra; Salgado; Pinto, 2023):
[...] a interação humano-chatbot pode ter impactos psicológicos significativos, especialmente para pessoas com depressão. A depressão é uma doença mental que afeta a forma como as pessoas se sentem, pensam e se comportam, e pode levar a sentimentos de tristeza, perda de interesse, falta de energia e dificuldade em se relacionar com os outros. Os chatbots podem ser úteis para as pessoas com depressão, pois eles podem fornecer suporte emocional e orientação de forma anônima e acessível. Eles podem ser programados para fornecer respostas compreensivas, encorajadoras e orientadoras, e podem ser acessados 24 horas por dia, 7 dias por semana. Além disso, os chatbots podem ser usados como uma forma de ajudar as pessoas a se expressarem e a processar seus sentimentos. No entanto, é importante lembrar que os chatbots não são substitutos para o tratamento médico ou psicológico. Eles não podem diagnosticar ou tratar doenças mentais, e as pessoas com depressão devem ser encaminhadas para profissionais de saúde qualificados para o tratamento. Além disso, os chatbots podem ser limitados na sua capacidade de entender e lidar com questões complexas ou nuances emocionais. Em geral, a interação humano-chatbot pode ser uma ferramenta útil para ajudar as pessoas com depressão a se sentirem menos sozinhas e mais compreendidas. No entanto, é importante lembrar que eles não podem substituir o cuidado médico e psicológico e deve ser usado como complemento ao tratamento (Bicharra; Salgado; Pinto, 2023).
Quanto às questões sociais, éticas e jurídicas que precisam ser consideradas para que os chatbots sejam utilizados de maneira responsável, o ChatGPT destacou os seguintes pontos:
Privacidade: os usuários podem compartilhar informações pessoais com os chatbots, e há preocupações com a segurança dessas informações e como elas são coletadas, armazenadas e utilizadas.
Transparência: os usuários podem não ser conscientes de que estão falando com um chatbot e não com uma pessoa real, e isso pode levar a mal-entendidos ou a confiança desnecessária.
Responsabilidade: se um chatbot comete um erro ou causa danos, pode ser difícil determinar a quem atribuir a responsabilidade.
Impacto no emprego: os chatbots podem ser usados para automatizar tarefas que antes eram feitas por seres humanos, o que pode levar ao desemprego.
Bias: os chatbots podem replicar os preconceitos e desigualdades presentes no conjunto de dados usado para treiná-los, o que pode levar a respostas imprecisas ou discriminatórias (Bicharra; Salgado; Pinto, 2023).
Shijie, Yuxiang e Qinhgua (2023) destacam que, do estágio inicial do chatbot Eliza até o recente ChatGPT, vários aplicativos demonstraram avanço significativo quanto à compreensão, à geração e ao raciocínio no que tange à linguagem humana. A experiência natural de interação humano-IA fornece aos usuários serviços de informação convenientes, bem como levanta questões quanto à credibilidade, especialmente a partir de uma análise sociotécnica, com dimensões de explicabilidade, geração de conteúdo, interfaces de terceiros, visão antropomorfista de considerar a IA como um ator social32, e da consideração quanto a cuidados com a alfabetização dos usuários.
Shah et al. (2016) realizaram experimento comparando cinco sistemas de diálogo artificial, quais sejam, Cleverbot, Elbot, Eugene, Goostman, JFred e Ultra Hal, com a versão on-line de Eliza. Os resultados apontaram que os sistemas de conversação modernos utilizam técnicas para iniciar e manter o aprendizado do diálogo com base em interações com humanos pela Internet. Os sistemas analisados representam uma melhoria do modelo Eliza, já que, incorporados à rede, proporcionam interação vinte e quatro horas por dia. Hodiernamente, os sistemas aprendem com a maneira como os humanos conversam, sendo capazes de compartilhar opiniões pessoais, transmitir experiências, conversar sobre dramas familiares, serem relevantes, ao mesmo tempo que vagos e, eventualmente, enganarem, assim como os seres humanos.
Estima-se que a indústria de aplicação dos chatbots atinja US$200 bilhões até 2026 (Brown, 2022; Han; Yin; Zhang, 2023). Além dos avanços em IA, como o processamento e a compreensão de linguagem e natural, esse crescimento é explicado pelo aumento da adesão das pessoas às plataformas conversacionais, que foi impulsionado pela difusão de aplicativos disponíveis, como a Siri33, da Apple, e o Bixby34, da Samsung (Bicharra; Salgado; Pinto, 2023; Nobles et al., 2020; Santos; Polianov, 2021).
Uma das problemáticas quanto ao uso dos chatbots é a sua aplicação para o fim de representação de pessoas mortas, por meio de avatares digitais, de modo que os familiares e os amigos poderiam interagir com o ente querido já falecido. Como destacam Bicharra, Salgado e Pinto (2023):
[...] se pensarmos na dificuldade das pessoas de lidarem com as perdas de familiares e amigos, utilizar técnicas de IA pode ser uma boa ideia para encaminhar a aceitação do que Sigmund Freud chamou de transitoriedade das coisas e pessoas. Para Freud, numa visão otimista, ter consciência da efemeridade da vida, das coisas e pessoas nos ajuda a elaborar as perdas e ver que a “exigência de imortalidade, por ser tão obviamente um produto dos nossos desejos, não pode reivindicar seu direito à realidade; o que é penoso pode, não obstante, ser verdadeiro.” Já numa visão pessimista, recorrendo a uma alegoria com um poeta, para Freud a finitude das coisas e pessoas acabaria por tirar delas seu valor e beleza [...]. Aqueles que defendem o uso de chatbots de pessoas mortas defendem que esse diálogo post-mortem ajudaria a realizar a finitude e o processo de luto se consubstanciaria nessa interação. Logo, procuram caminhar na direção otimista da noção de transitoriedade freudiana. Entretanto, quanto mais o tipo de chatbot sugere a possibilidade de um relacionamento profundo e pessoal, mais o padrão instintivo de apego emocional parece ser solicitado e, quanto mais a reciprocidade, mais o antropomorfismo intencional do chatbot tem a chance de ser eficaz [...].
Além de todos os dilemas éticos envolvidos na utilização de dados de pessoas mortas para simular conversas, “o risco de dependência emocional ou alienação deve, portanto, ser considerado, sob pena de se ter consequências psíquicas e distúrbios relacionados à maneira de se lidar com as perdas e o luto” (Bicharra; Salgado; Pinto, 2023).
O conhecimento acerca do impacto dos chatbots nos contextos individual, grupal e social é limitado. A pesquisa de Croes et al. (2022) indicou que, diante do fluxo de conversas com os chatbots, os humanos, impulsionados pelas perguntas feitas pelos sistemas, tendem a iniciar um processo de autorrevelação (self-disclosure), já que passam informações pessoais e íntimas aos robôs. Entretanto, “os chatbots não correspondem e não se autorrevelam, o que pode dificultar a formação de um relacionamento humano-chatbot”35 (Bicharra; Salgado; Pinto, 2023).
O debate no que tange à possibilidade de utilização da IA para fins terapêuticos ganhou força na última década. É necessário pontuar o desafio ético, de responsabilidade e cultural quanto ao uso de chatbots, já que, se tais tecnologias “imitam o comportamento humano e são criadas por pessoas com diferentes visões do mundo: os agentes conversacionais podem ser tendenciosos e prejudiciais, assim como as pessoas podem” (Bicharra; Salgado; Pinto, 2023). Constata-se, portanto, que o futuro desta tecnologia e seu potencial impacto exigem pesquisas interdisciplinares, conectadas à realidade sociopolítica, cultural e de saúde das partes envolvidas.
Importa a este trabalho a análise das implicações do Efeito Eliza e da projeção antropomórfica ao direito à integridade psíquica, sobretudo diante de eventual cenário de utilização de chatbots para fins terapêuticos e de saúde mental.
Inicialmente, pontua-se que, no Brasil, a saúde consta nos arts. 6º e 196 e seguintes da Constituição Federal de 1988 como um direito social36 e passou a ser considerada direito de todos e dever do Estado, já que este assumiu a obrigação de assegurá-la por meio de políticas públicas sociais e econômicas que visem à redução do risco de doenças e outros agravos. O acesso à saúde no país é de caráter universal e igualitário quanto às ações e aos serviços para a sua promoção, proteção e recuperação (Brasil, 1988).
Sob ponto de vista do Direito Internacional, instrumentos internacionais, como a Declaração Universal de Direitos Humanos37, proclamam o direito humano a um padrão de vida suficiente para uma vida digna, o que inclui os direitos à saúde, ao bem-estar e a cuidados médicos (ONU, 1948). No mesmo sentido, o Pacto Internacional sobre os Direitos Econômicos, Sociais e Culturais38 dispõe que toda pessoa tem o direito de “desfrutar o mais elevado nível possível de saúde física e mental” (OEA, 1966). A saúde, por ser um direito de âmbito coletivo, faz parte dos direitos considerados de segunda geração/dimensão, que englobam os direitos sociais, culturais e econômicos, além dos direitos coletivos, inseridos no contexto do Estado Social, logo, são direitos que necessitam da intervenção do Estado para impor limites ao abuso econômico, à exploração das pessoas e do trabalho, incluindo a prestação de benefícios (Bonavides, 2014; Otero; Massarutti, 2016).
Otero e Massarutti (2016) e Szaniawski (2002) destacam que a saúde é um direito fundamental que possui relação com o pleno desenvolvimento da personalidade humana e é crucial para uma perspectiva mínima da vida digna, nos termos do princípio da dignidade da pessoa humana (art. 1º, inc. III, da CF/88) (Brasil, 1988).
Segundo a definição da Organização Mundial da Saúde (OMS), a saúde mental é um estado de bem-estar mental que permite que as pessoas “lidem com o estresse da vida, percebam suas habilidades, aprendam e trabalhem bem e contribuam para sua comunidade”, assim, seria um direito humano básico, crucial para o desenvolvimento pessoal, comunitário e socioeconômico. A saúde mental é mais do que a ausência de transtornos mentais, sendo uma experiência complexa e vivenciada de forma diferente por cada pessoa, com graus de dificuldade, sofrimento, resultados sociais e clínicos potencialmente diversos (WHO, 2022a, tradução nossa).
O bem-estar de uma pessoa não depende somente do aspecto psicológico e emocional, sendo influenciado também por fatores, como a saúde física, o apoio social e as condições de vida. Portanto, a saúde mental é também determinada por aspectos ambientais, econômicos e sociais. A garantia do direito constitucional à saúde inclui o cuidado com a saúde mental, sendo um dever do Estado oferecer condições dignas de cuidado em saúde39 aos cidadãos (Brasil, 2024). A integridade física e a integridade psíquica, bem como a dignidade fazem parte da personalidade do ser, de forma que o desrespeito ao direito à saúde atinge esses bens fundamentais, uma vez que a vida deve ser gozada com um mínimo de qualidade. Diante disso, um cenário de ausência de recursos e de condições precárias de saúde implica sério risco de extinção da própria vida.
Nesse sentido, é a higidez psíquica que propicia ao ser humano a capacidade de se desenvolver e exercer seus direitos de modo livre e consciente, bem como a possibilidade de comandar suas escolhas, seus desejos e seu próprio projeto de vida. Pontua-se que é um dos pressupostos da dignidade humana a “afirmação da integridade física e espiritual da pessoa humana como dimensão irrenunciável de sua individualidade autonomamente responsável” (Canotilho, 2003, p. 363). “Os atributos psíquicos do ser humano estão relacionados aos sentimentos de cada indivíduo. A própria noção de saúde passa pela higidez mental”. Assim, uma vez violada a integridade psíquica, “sepulta-se a perspectiva da vida do ser humano (e não apenas sua existência), juntamente com a sua dignidade”40. Dessa forma, o dever de não violação à integridade psíquica opõe-se tanto individualmente quanto em relação à comunidade, restando a obrigação de não interferência no “aspecto interno da personalidade de outrem” (Castro; Ramiro; Tamaoki, 2023, p. 16540-16541):
[...] a psique humana e o seu uso tratam-se de um direito e uma faculdade que são atribuídos ao ser humano pela própria natureza, mas que são reconhecidos pelo ordenamento jurídico positivo que, por sua vez, dá o permissivo para o uso da referida faculdade e ainda determina a sua proteção, classificado no ordenamento positivo brasileiro, entre os Direitos da Personalidade, como direito à integridade psíquica (Castro; Ramiro; Tamaoki, 2023, p. 16553).
No ordenamento jurídico brasileiro, a integridade psíquica é compreendida como um elemento crucial e íntimo da personalidade, voltada para o se interior. A integridade psíquica é que possibilita ao indivíduo o equilíbrio emocional para o desenvolvimento da personalidade ao longo da vida (Castro; Ramiro; Tamaoki, 2023; Rodotà, 2014; Macedo; Rocha, 2020).
Para Bittar (1999), a integridade psíquica é um direito da personalidade assegurado com o escopo de preservar a incolumidade da psiquê, o conjunto psicoafetivo e pensante da estrutura humana. Quanto aos direitos da personalidade, Tepedino (2004) pontua que estes são essenciais à tutela da pessoa humana, considerando a proteção da sua dignidade e da integridade. Os direitos da personalidade, portanto, tutelam o que o ser humano possui de mais ímpar, isto é, suas características individuais, que não subsistem diante de imposições arbitrárias ou desrespeito aos limites de interferência na esfera individual, bem como diante de ofensa à sua integridade, seja física, seja mental.
Conforme Bittar (1999, p. 64), os direitos da personalidade se qualificam a partir de “caracteres bem definidos, tratando-se de direitos inatos, absolutos, extrapatrimoniais, intransmissíveis, imprescritíveis, impenhoráveis, vitalícios, necessários e oponíveis erga omnes”. São os direitos da pessoa considerada em si mesma e anteriores ao Estado. Como bem observa de Cupis (1961, p. 17), existem certos direitos sem os quais a personalidade “restaria uma susceptibilidade completamente irrealizada, privada de todo o valor concreto: direitos sem os quais todos os outros direitos subjetivos perderiam todo o interesse para o indivíduo”. Assim, caso não existissem, o indivíduo não existiria como tal.
No Brasil, os direitos da personalidade são tratados em capítulo próprio pelo Código Civil de 2002 (Capítulo II), entre os arts. 11 e 21. Segundo tal diploma legal, os direitos da personalidade são intransferíveis e irrenunciáveis, não podendo o seu exercício sofrer limitação voluntária (art. 11, CC/02) (Brasil, 2002; Tobbin; Cardin, 2021). Szaniawski (2002), Moraes (2008) e Tepedino (2004) compreendem que o rol de direitos da personalidade disposto no Código Civil não é taxativo, de forma que outros direitos, não contemplados pelo codex, também são fundamentais para o desenvolvimento da personalidade humana, sobretudo diante da evolução social e da dificuldade de o Direito acompanhar e regular todas as esferas e as temáticas da ordem social ao tempo que estas são identificadas e reconhecidas.
No Brasil, alguns autores asseveram que a dignidade da pessoa humana, prevista no art. 1º, inciso III, da Constituição Federal, anunciada como um dos fundamentos da República Federativa do Brasil, seria a cláusula geral de proteção da personalidade, protegendo o ser em sua totalidade em face de situações que implicassem ofensa a sua individualidade, cuja tutela é essencial para o desenvolvimento da personalidade (Szaniawski, 2002; Tobbin; Cardin, 2021).
Groeninga (2006) pontua que o direito à integridade psíquica poderia ser considerado o mais importante dos direitos da personalidade, tendo em vista que é o psiquismo que permite a qualidade humana:
[...] a própria noção de saúde passa pela higidez mental. A ideia de dignidade humana carrega em si um desejado equilíbrio psicológico. São ilícitas, portanto, as condutas que violam e afetam a integridade psíquica, que causam sentimentos negativos e desagradáveis, como tristeza, vergonha, constrangimento etc. (Bessa; Reis, 2020, p. 13).
Como analisam Ramiro, Fachin e Tamaoki (2022, p. 51-52), trata-se do direito que tem cada pessoa de manter incólume seus atributos psíquicos, sua higidez mental e, consequentemente, a sua dignidade”, logo, “qualquer conduta atentatória à tal integridade considera-se ilícita”. Stoco (2007) afirma que o dano psíquico ocorre diante de distúrbio ou perturbação causada à pessoa, por meio de sensações desagradáveis, mesmo que passageiras.
Quanto à evolução tecnológica e sua faceta neoliberal, os autores destacam que, “levando o homem a se autoexplorar em razão da relação de docilidade imposta também sobre as mentes, torna-se evidente como as novas técnicas de poder apresentadas pela psicopolítica neoliberal violam frontalmente à integridade psíquica”. Ramiro, Fachin e Tamaoki (2022, p. 51-52) apontam que:
[...] o desafio apresentado pela evolução das técnicas de poder reside na compreensão de que a complexa relação existente entre a nova anatomia política e a integridade psíquica do homem se dá a partir de meandros profundos e muito sutis que necessitam ser explorados e pesquisados a fim de trilhar caminhos para se alcançar a proteção integral da pessoa humana na contemporaneidade41 [...] a anatomia política encontra sua base não só na aplicação de disciplinas sobre os corpos, mas também sobre as mentes. O adestramento almejado, hoje, atinge a dimensão psíquica do ser humano. A realidade atual supera a antiga: a liberdade e a positividade é que mantêm o sujeito disciplinado, perseguindo a máxima produtividade como um empreendedor de si mesmo. Formam-se, portanto, não apenas corpos dóceis, mas mentes dóceis (Ramiro; Fachin; Tamaoki, 2022, p. 52-53).
Castro, Ramiro e Tamaoki (2023, p. 16535) analisam os desafios da proteção legal do direito à integridade psíquica no Brasil, diante de eventual deficiência na conceituação deste pela doutrina brasileira, pelo Poder Judiciário42 e quanto ao tratamento legislativo adequado às mudanças sociais contemporâneas. Em relação aos direitos da personalidade, os autores pontuam a necessidade de especial estudo quanto à integridade psíquica, sobretudo diante dos “reflexos da pós-modernidade, apesar de recaírem nos mais diversos campos sociais, ocasionam severos reflexos na psique humana”.
Quanto à utilização de chatbots para fins de saúde mental, verifica-se que, tendo em vista que grande parcela da população mundial ainda não possui condições de acesso a tratamentos e a cuidados nesse contexto, estes poderiam significar certa democratização de informações e exercícios baseados em técnicas psicoterapêuticas, sobretudo para fins de controle de sintomas como estresse, ansiedade, depressão e ideação suicida.
Os chatbots, muitas vezes, servem de porta de entrada para a terapia convencional, evidenciando a necessidade de cuidados e indicando que os usuários busquem um terapeuta humano. Muito embora a maioria dos apps de saúde mental sejam abandonados poucos dias após a instalação pelo usuário, há evidências que sugerem que os bots podem aumentar o engajamento e o prazer com os cuidados com a saúde mental no âmbito digital (Coghan et al., 2023; Prochaska et al., 2023; Silveira; Paravidini, 2024).
Como pontuam Lucas et al. (2014), as pessoas tendem a divulgar mais informações sensíveis durante entrevistas clínicas realizadas por computador do que quando estas são realizadas por seres humanos43. Os modelos recentes de IA podem, de forma inovadora, ampliar as interações terapêuticas e estabelecerem relações de empatia e confiança, simulando uma espécie de “aliança terapêutica” com os seus usuários (Silveira; Paravidini, 2024). Assim, seria importante que tais sistemas não se apresentassem com um terapeuta, um avatar ou qualquer figura que tivesse representação humana e pudesse ampliar a projeção antropomórfica, já que o contrário disso seria o mesmo que simular algo, que é uma forma de provocar engano (Grodniewicz; Hohol, 2023). Destaca-se que, na Bélgica, em março de 2023, um homem cometeu suicídio após semanas de conversação intensa com o chatbot Eliza (Walker, 2023).
O desenvolvimento e a manutenção de modelos como os chatbots devem seguir princípios como o da não maleficência, da beneficência, da autonomia, da justiça e da explicablidade (que envolveria transparência e responsabilidade). Para isso, é crucial avaliar os riscos e os benefícios da utilização dos chatbots, estudar e divulgar evidências de sustentem sua eficácia e segurança, respeitando a privacidade e o consentimento dos usuários, para garantir a qualidade e a acessibilidade dos serviços, o que também exige monitoramento e avaliação de resultados. É necessário considerar a revelação de crimes às autoridades, o acionamento de serviços de emergência diante de risco iminente aos usuários ou terceiros e a fatores, como a diversidade e a particularidade das experiências dos indivíduos (Coghlan et al., 2023; Silveira; Paravidini, 2024).
Rana e Singh (2023) abordam que uma das principais limitações de tais sistemas é a falta de dados suficientes sobre certos transtornos mentais, uma vez que as ferramentas de IA são dependentes de grandes quantidades de dados para que possam fornecer diagnósticos confiáveis, de modo que a falta de dados pode limitar sua eficácia. Há também falta de transparência e responsabilização sobre o uso de inteligência artificial para cuidados com a saúde mental. É crucial que os pacientes estejam cientes de como seus dados são coletados, armazenados e tratados, tendo a capacidade de controlar como estes podem ser utilizados (Rana; Singh, 2023). As informações coletadas pelos bots envolvem a privacidade dos usuários e seriam dados sensíveis44. Tal cenário evidencia o problema já pontuado por autores como Zuboff (2021) acerca da opacidade de decisões tomadas por sistemas inteligentes e do tratamento de dados no contexto do Capitalismo de Vigilância, especialmente em termos de monetização e diante de eventual vazamento de dados. Há um risco de que as informações compartilhadas com tais sistemas sejam utilizadas ou compartilhadas sem o consentimento do usuário.
Sedlakova e Trachsel (2023) ressaltam a falta de consenso quanto a precauções éticas e a critérios para o desenvolvimento dos chatbots. De igual modo, não há uma normativa ou um órgão específico para analisar se tais sistemas estão sendo desenvolvidos de forma ética. Pontua-se que um modelo de IA não possui o mesmo nível de dever e responsabilidade de um terapeuta humano, já que a IA não é um “sujeito moral” e não há regulamentação legal clara quanto aos maus resultados ou eventuais dados deste tipo de relação estabelecida.
Possati (2023) evidencia que o desenvolvimento deve ser pautado na responsabilidade de agentes (usuários, desenvolvedores, designers, programadores, proprietários e software) e pacientes (que interagiriam com os sistemas). O autor pontua que não seria possível haver responsabilidade real sem uma relação entre o agente e o paciente, porque o primeiro poderia não agir de forma ética em relação à demanda do usuário.
Como observam Silveira e Paravidini (2024, p. 13-14):
[...] uma das questões que emerge é como se teoriza a responsabilidade do criador (desenvolvedor, proprietário, designer e software) das possíveis falhas e danos causados pela sua criação (chatbots e IAs relacionais). As discussões sobre a responsabilidade dos pais para com as manifestações subjetivas dos seus filhos estão presentes nas discussões psicanalíticas e servem de base para ver como esse problema é mais sério do que é apresentado pelos pesquisadores citados neste trabalho. O que seria de responsabilidade, que tipo de organização se faz necessária para o desenvolvimento de inteligências artificiais cada vez mais capazes de simular uma consciência e sendo assim um artefato de desejo parece atravessar o sujeito de modo a lançá-lo numa instância de potência narcísica, tendo em vista a capacidade de ampliar os limites do próprio sujeito em sua relação com a realidade, bem como balançar a estrutura narcísica causando medo e desconforto, como se de alguma forma o avanço dessas tecnologias fosse evidenciando cada vez mais as incapacidades humanas. Nesse ponto, a construção com base ética de IAs deve se pautar em articulação com a ética psicanalítica, a fim de que novas formas de pensar tais artefatos possam existir, possibilitando um avanço no desenvolvimento de tecnologias articuladas nas relações sujeito e máquinas.
Os mencionados autores, retomando os estudos de Sigmund Freud, pontuam que não é papel do analista satisfazer a vontade do analisando. Já quanto a modelos de IA, questionam: “seria a IA capaz de encarnar a demanda ao Outro, satisfazendo assim para sustentar a obediência aos ideais sociais?”. “Qual seria o prejuízo do “acesso a uma ferramenta que está em total disponibilidade ao usuário atendendo a todas as suas demandas”? Os chatbots podem não só atender às demandas do usuário, oferecendo soluções para seus conteúdos psíquicos, bem como angústias e dores, mas também frustrar ou desafiar o indivíduo, levando-o a questionar ou modificar seus padrões de comportamento e pensamento (Silveira; Paravidini, 2024, p. 13).
Diante dessas considerações, verifica-se que a utilização de chatbots para fins de cuidados com a saúde mental deve ser encarada com seriedade e responsabilidade. A conversação com modelos de IA pode contribuir para a transmissão de informações relacionadas ao bem-estar físico e emocional, sobretudo porque as ferramentas estão disponíveis a qualquer tempo. Contudo, destaca-se que tais serviços não possuem o condão de substituir a figura de um terapeuta humano, sobretudo sob o ponto de vista da responsabilidade e atuação ética. Ressalta-se que tal utilização pode criar no usuário a ilusão de que há a presença de empatia na conversa, em razão de eventual projeção antropomórfica. O indivíduo pode interagir com o modelo de IA como se estivesse lidando com um amigo próximo, acreditando que há reciprocidade emocional, o que pode criar um senso de familiaridade e gerar apego e identificação, circunstância que ofenderia o seu direito da personalidade à integridade psíquica.
O trabalho teve por objetivo analisar as implicações do Efeito Eliza e da projeção antropomórfica ao direito da personalidade à integridade psíquica diante da eventual utilização de chatbots para fins de cuidados com saúde mental.
A partir da pesquisa conduzida por Weizenbaum, na década de 1960, verifica-se que o escopo do modelo de inteligência artificial utilizado pelos chatbot tem por objetivo propiciar interação e conversação com os humanos de forma natural e intuitiva para a solução de uma gama de problemas que podem ser resolvidos com a observação de dados e padrões de comportamento humano.
Nos últimos anos, as interações humanas com sistemas de inteligência artificial (IA) cresceram de forma exponencial, sobretudo diante da democratização do acesso à Internet e da criação de modelos de chatbots cada vez mais ágeis e eficientes, como é o caso do ChatGPT. A utilização da IA revolucionou diversas áreas do conhecimento e propiciou serviços de informações abrangentes, sobretudo na área da saúde e dos cuidados com a saúde mental.
O fenômeno “Efeito Eliza” descreve a tendência humana a atribuir a sistemas inteligentes capacidades e sentimentos humanos, em especial diante da interação com chatbots, provocada por uma dissonância cognitiva, isto é, é comum que pessoas passem a tratar sistemas de IA como se pessoas fossem, diante de uma falsa percepção de reciprocidade e empatia, contexto que poderia gerar apego e dependência, o que traz implicações ao direito à integridade psíquica, um direito da personalidade essencial à proteção da dignidade humana.
Apesar de inovadores, eventuais sistemas de IA que sejam utilizados para fins de saúde mental podem ser imprecisos, vagos e limitados, tendo em vista a tendência humana de também atribuir sentido a todo que lhe é dito ou não dito. Destaca-se a falta de transparência quanto à privacidade e à segurança dos dados coletados, especialmente porque são de conteúdo pessoal e íntimo, e a possibilidade de vieses discriminatórios, uma vez que os sistemas de IA e os aplicativos atuais estão, em regra, estabelecidos sob a ótica e a conveniência do mercado tecnológico, com viés neoliberal. Logo, há possibilidade de manipulação e intermediação de interesses de terceiros, estranhos a uma conversação para fins terapêuticos.
O trabalho pontuou que há uma limitação em tais sistemas quanto a dados sobre certos transtornos mentais, fator que é essencial para que possam contribuir com diagnósticos confiáveis. É essencial que os usuários estejam cientes e possuam controle acerca de como os seus dados são coletados, armazenados e tratados, já que as informações coletadas pelos bots envolvem a privacidade dos usuários e seriam dados sensíveis. Contudo, destaca-se que há risco de que tais dados sejam utilizados ou compartilhados sem o consentimento do usuário, sobretudo em um contexto de monetização de dados pessoais.
O desenvolvimento e a manutenção desses modelos devem ser pautados em princípios éticos (entre eles: não maleficência, beneficência, autonomia, justiça e explicabilidade - que envolveria transparência e responsabilidade por parte de seus agentes). A forma de identificação do chatbot também pode gerar repercussão: imitar um terapeuta é tão questionável quanto se apresentar como um avatar deslocado das figuras representativas de cuidados com saúde, cenário que pode gerar apego, identificação e dependência, tendo em vista, novamente, a tendência de projeção e espelhamento, o que comprometeria o livre desenvolvimento da personalidade do indivíduo, o seu direito à integridade psíquica e, consequentemente, a sua dignidade.