Resumo: Esta revisão narrativa da literatura aborda a evolução e a aplicação da inteligência artificial na saúde, com ênfase em avanços como interpretação de imagens para diagnósticos e uso de robôs em hospitais. Questões éticas, incluindo privacidade de dados e viés algorítmico, são discutidas, enfatizando princípios éticos e regulamentações, como a Lei Geral de Proteção de Dados, no Brasil. O desafio do viés é exemplificado, ressaltando a necessidade de eliminar discriminação nos sistemas, e aborda-se a complexidade da responsabilidade e transparência na medicina, com foco na importância de compreender algoritmos para evitar erros médicos. Ressalta-se a relevância do debate acerca do potencial positivo da inteligência artificial, reforçando que é preciso enfrentar dilemas éticos para garantir o uso ético e responsável da tecnologia no futuro.
Palavras chave: Inteligência artificial, Ética, Medicina.
Abstract: This narrative literature review addresses the evolution and use of artificial intelligence in health care, with a focus on advancements such as image interpretation in diagnostics and the use of robots in hospitals. Ethical issues are discussed, including data privacy and algorithmic bias, emphasizing ethical principles and regulations such as the Brazilian General Data Protection Law. The challenge of bias is illustrated, highlighting the need to eliminate discrimination in systems, and the complexity of responsibility and transparency in medicine is addressed, with a focus on the importance of understanding algorithms to avoid medical errors. The relevance of the debate on the positive potential of artificial intelligence is underscored, stressing the need to tackle ethical dilemmas to ensure the ethical and responsible use of technology in the future.
Keywords: Artificial intelligence, Ethics, Medicine.
Resumen: Esta revisión narrativa de la literatura aborda la evolución y la aplicación de la inteligencia artificial en la salud, con énfasis en avances como la interpretación de imágenes para diagnósticos y el uso de robots en hospitales. Se discuten cuestiones éticas, incluida la privacidad de los datos y el sesgo algorítmico, enfatizando los principios éticos y las regulaciones, como la Ley General de Protección de Datos, en Brasil. Se ejemplifica el desafío del sesgo, resaltando la necesidad de eliminar la discriminación en los sistemas, y se aborda la complejidad de la responsabilidad y la transparencia en la medicina, centrándose en la importancia de comprender los algoritmos para evitar errores médicos. Se destaca la relevancia del debate acerca del potencial positivo de la inteligencia artificial, reforzando que es necesario enfrentar dilemas éticos para asegurar el uso ético y responsable de la tecnología en el futuro.
Palabras clave: Inteligencia artificial, Ética, Medicina.
Atualização
Inteligência artificial: desafios éticos e futuros
Artificial intelligence: ethical and future challenges
Inteligencia artificial: desafíos éticos y futuros
Recepción: 4 Enero 2024
Recibido del documento revisado: 13 Junio 2024
Aprobación: 11 Julio 2024
A inteligência artificial (IA) tem desempenhado papel cada vez mais importante nos últimos anos. Máquinas não se limitam mais a executar tarefas físicas, mas também desempenham funções intelectuais que exigem o que se considera inteligência. O início desse conceito remonta à década de 1950, quando o matemático britânico Alan Turing propôs o famoso Teste de Turing em seu artigo “Computing machinery and intelligence” 1. Apesar disso, um marco decisivo ocorreu durante o verão de 1956, com a realização da Darthmouth College Conference, que é amplamente reconhecida como o início da IA como campo de estudo 2.
Inicialmente, a IA foi aplicada principalmente na solução de problemas do mundo real por meio da programação do conhecimento de especialistas em programas de computador. Esses programas, chamados de sistemas especialistas ou sistemas baseados em conhecimento, foram desenvolvidos com base em entrevistas com especialistas em determinadas áreas. No entanto, havia limitações, como subjetividade e falta de cooperação dos especialistas 3.
Atualmente é grande o entusiasmo em relação aos potenciais benefícios da IA, de forma que máquinas estão aprendendo a dirigir carros independentes e tradutores automáticos estão se tornando cada vez mais precisos. Além disso, a IA está presente em tarefas cotidianas como ler e-mails, lavar roupas e recomendar filmes em plataformas de streaming4.
Na área da saúde, a IA tem sido aplicada em várias pesquisas acadêmicas com resultados promissores. Algoritmos estão sendo desenvolvidos para interpretar imagens de radiografia 5, mamografia 6, tomografia computadorizada 7, ressonância magnética 8 e identificar doenças como Alzheimer 9. Além disso, tem sido utilizada na patologia 10 para identificação de lesões cancerígenas 11, na interpretação de imagens da retina 12 e na detecção de arritmias 13 e outras condições médicas.
Robôs equipados com IA também estão sendo usados em hospitais e clínicas, como o robô criado pela empresa iFlytek, que passou no exame nacional para licenciamento de médicos na China 14. Outro exemplo é o software brasileiro Laura, que identifica risco de infecção hospitalar por meio da IA 15. Essas aplicações demonstraram o potencial da IA na área da saúde.
O rápido desenvolvimento de tecnologias para processamento e armazenamento de dados tem impulsionado o crescimento da IA. E, à medida que os problemas se tornam mais complexos e a quantidade de dados aumenta, é necessário desenvolver ferramentas computacionais avançadas e personalizadas, baseadas no aprendizado de máquina, que dependem cada vez menos da intervenção humana. No entanto, esse desenvolvimento vem acompanhado de preocupações, principalmente em relação à ética e ao impacto na sociedade, considerando questões legais e de responsabilidade, para garantir que a IA seja benéfica e justa.
Este artigo tem como objetivo realizar uma revisão narrativa da literatura com abordagem exploratória por meio de análise de artigos com informações acerca do uso da IA em serviços de saúde e suas implicações éticas.
Uma corrente tradicional da filosofia sustenta que a ética é exclusiva dos seres humanos, e que as coisas em si mesmas não são necessariamente boas ou más. A tecnologia é amoral, comentou Bill Gates em uma entrevista. Ele acrescentou que cabe a nós refletir profundamente sobre as novas tecnologias e como devem ou não ser utilizadas, conforme refere Garattoni 16. No entanto, os desafios apresentados pela IA reacendem a questão da exclusividade humana na ética.
Desde o início, a interação entre seres humanos e máquinas tem gerado debates. Em 1950, o escritor e bioquímico norte-americano Isaac Asimov, em sua obra Eu, robô17, abordou a complexidade do tema e criou um clássico ao enunciar as três leis da robótica: 1) um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal; 2) os robôs devem obedecer às ordens dos seres humanos, exceto quando tais ordens entrarem em conflito com a primeira lei; e 3) um robô deve proteger sua própria existência, desde que isso não entre em conflito com as leis anteriores. Mais tarde, ele acrescentou uma quarta lei, conhecida como Lei Zero 17, que estabelece que um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.
Recentemente, cinco princípios éticos se destacam nas principais iniciativas de regulamentação e nas discussões relacionadas a IA: beneficência, não maleficência, autonomia, justiça e explicabilidade 18. Esses princípios éticos, definidos como valores ou diretrizes gerais que orientam o comportamento humano, servem como base para avaliar a moralidade das ações e fornecem uma estrutura geral para a tomada de decisões em questões éticas.
Com o avanço da tecnologia, as pessoas estão cada vez mais conectadas e produzem uma quantidade crescente de dados, gerados de diversas fontes, como celulares, carros, transações com cartões de crédito, escolhas de conteúdo em serviços de streaming e dispositivos de internet. Essas informações são armazenadas por diversas empresas, que criam bancos de dados com informações dos usuários.
Devido à limitação humana, é praticamente impossível realizar uma análise abrangente desses dados, uma vez que isso demandaria muito tempo para uma avaliação completa e a formulação de conclusões estruturadas. No entanto, com a ascensão da IA e o aumento da capacidade de processamento, pode-se analisar esses dados de diversas formas em um curto espaço de tempo.
Além disso, uma preocupação cada vez mais pertinente nos dias de hoje é o destino das informações armazenadas em grandes bancos de dados. Grandes empresas, como a Meta (antigo Facebook), enfrentaram processos legais devido ao compartilhamento de dados sem o devido consentimento.
O vazamento de dados de milhões de usuários do Facebook, obtido por meio dos algoritmos da empresa Cambridge Analytica, permitiu o acesso a informações confidenciais sobre o comportamento de 50 milhões de usuários da rede social, que foram utilizadas para orientar estratégias de campanha. Esse caso é um exemplo notável da discussão sobre vigilância, privacidade e algoritmos 19.
Diariamente, as pessoas são inundadas por anúncios imediatamente após realizar pesquisas na internet, seja por interesses de compra, seja por mera curiosidade. Dados relacionados a saúde, alimentação, hábitos de exercícios físicos e até mesmo locais frequentados por usuários de smartphones e outros aparelhos podem, graças à capacidade avançada de processamento, revelar tendências e informações sobre saúde que antes eram desconhecidas. No entanto, diferentes empresas podem ter tais informações, e frequentemente as pessoas desconhecem como e por quem elas serão utilizadas.
Devido à crescente preocupação com a segurança dos dados, entidades como a Organização Mundial da Saúde (OMS) elaboraram um relatório global em 2021 contendo seis princípios essenciais para assegurar que a IA funcione em prol do interesse público em todos os países 20. Além disso, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) produziu um conjunto de diretrizes intergovernamentais para orientar os Estados na regulamentação da IA, mantendo sua inovação, confiabilidade, segurança e respeito pelos direitos humanos e valores democráticos.
Trinta e oito países-membros aderiram à Recomendações do Conselho da OCDE sobre IA, documento que estabelece princípios a serem seguidos internamente 21. Vários outros países também estão desenvolvendo legislações próprias para garantir maior segurança e transparência no uso de informações privadas por empresas.
Na União Europeia, por exemplo, foi promulgada a Resolução do Parlamento Europeu de 16 de fevereiro de 2017, que contém recomendações sobre disposições de direito civil relacionadas à robótica. A Resolução busca estabelecer regras coordenadas entre os Estados-membros para garantir a segurança no desenvolvimento da IA, bem como a proteção dos direitos fundamentais das pessoas e das empresas, sem inibir o investimento, a inovação e a utilização 22.
No Brasil, a Lei 13.709/2018 23, conhecida como Lei Geral de Proteção de Dados (LGPD), foi criada com o objetivo de proteger os direitos fundamentais à liberdade e, mais especificamente, à privacidade. Além disso, o Senado Federal instituiu a Comissão de Juristas Responsável por Subsidiar Elaboração de Substitutivo sobre Inteligência Artificial no Brasil (CJSUBIA), que está trabalhando na elaboração da regulamentação legal brasileira relacionada ao uso de IA.
Há também alguns projetos de lei (PL) em anda- mento para regulamentar a IA, a saber: o PL 5051/ 2019 24, o PL 21/2020 25, o PL 872/2021 26 e o PL 759/ 2023 27. A importância desse tema é evidenciada pela quantidade de PL em andamento, destacando a necessidade de regulamentação legal nessa área em crescimento.
O uso crescente da IA acarreta grande preocupação com o viés que pode estar presente ou ser amplificado por sistemas que usam essa tecnologia. Para compreender esse fenômeno, é fundamental analisar o processo de aprendizado das máquinas, que pode se dar por meio de um passo a passo predefinido, conhecido como algoritmo, algo semelhante a estudo realizado com livros ou orientação de professores.
Além disso, há a abordagem do aprendizado de máquina, que não ensina diretamente, mas fornece instruções sobre como aprender com base em exemplos e dados, conferindo autonomia ao processo de aprendizado. Nesse contexto, os dados desempenham papel fundamental, e, quanto mais dados confiáveis estiverem disponíveis para o treinamento, melhor será o modelo resultante.
Entretanto, algoritmos não estão isentos de valores e pressupostos, pois os parâmetros operacionais são estabelecidos por desenvolvedores e configurados por usuários que buscam resultados específicos, o que pode priorizar alguns valores e interesses em detrimento de outros. Mesmo dentro dos parâmetros estabelecidos, não se garante automaticamente um comportamento eticamente aceitável 28,29.
Entre diversos exemplos notórios de viés, pode-se citar um concurso de beleza realizado em 2016, que utilizou um júri composto por robôs gerados por IA e teve inscrição de milhares de pessoas de vários países, que enviaram suas fotos para avaliação 30. O resultado chamou a atenção, pois, dos 44 vencedores, apenas um tinha pele escura, o que gerou um debate acalorado sobre como o sistema poderia perpetuar vieses, produzindo resultados não intencionais, por vezes distorcidos e até mesmo racistas.
A análise revelou que a base de treinamento do sistema era composta por imagens de atores e atrizes de Hollywood, que predominantemente eram pessoas brancas. Não houve intenção dos desenvolvedores de favorecer um grupo étnico, mas se constatou negligência na verificação de vieses na base de treinamento 31.
Um exemplo relevante de viés relacionado à saúde ocorreu com um programa usado por uma grande seguradora americana. O objetivo era identificar usuários que necessitavam de cuidados adicionais, permitindo que uma equipe multidisciplinar os acompanhasse preventivamente para evitar tratamentos caros, como internações em unidades de terapia intensiva (UTI). O sistema se baseou na frequência com que os usuários buscavam atendimento médico e nos custos de consultas e internações; para evitar viés racial, os dados não continham informações sobre a raça dos usuários 32.
No entanto, a análise revelou que a maioria dos usuários identificados como necessitados de cuidados adicionais eram brancos. A investigação posterior revelou que os usuários negros, devido a restrições financeiras, usavam menos o plano de saúde, resultando em menos dados disponíveis para o sistema identificar padrões de gravidade em seu atendimento. Isso destaca como os vieses e preconceitos podem se ocultar nos dados, tornando sua detecção desafiadora 32.
Outros exemplos de viés nos resultados da IA incluem anúncios de emprego para posições altamente remuneradas, que apresentam menor probabilidade de ser apresentados a mulheres 33; pesquisas de nomes com sonoridade distintamente negra, que têm maior probabilidade de desencadear anúncios relacionados a registros de prisões 34; e pesquisas de imagens para profissões como CEO, que produzem menos imagens de mulheres 35. Além disso, sistemas de reconhecimento facial, amplamente usados na aplicação da lei, têm desempenho inferior no reconhecimento de rostos de mulheres de qualquer cor e de indivíduos negros 36.
Eliminar vieses e garantir a imparcialidade em sistemas baseados em IA tem se tornado um desafio cada vez maior, sendo crucial reconhecer que os dados não são neutros, pois refletem decisões humanas que podem ser preconceituosas; portanto, bancos de dados de treinamento devem ser confiáveis e isentos de viés. Empresas como Google e IBM estão se esforçando para desenvolver métodos técnicos que possibilitem a avaliação e a mitigação de vieses em seus conjuntos de dados. Além disso, órgãos reguladores e governos desenvolvem políticas e regulamentações específicas para lidar com o viés na IA, reconhecendo a necessidade de transparência e responsabilidade nesse campo em constante evolução 37,38.
O atual avanço tecnológico está desempenhando papel fundamental na área da medicina, com a crescente utilização de equipamentos inteligentes baseados em sistemas de IA. Essas inovações são cruciais na medicina diagnóstica, de forma que a interpretação de resultados, tradicionalmente realizada por médicos, agora conta com o auxílio de algoritmos altamente especializados e automatizados.
Conforme estabelecido no Código de Ética Médica (CEM), é vedado ao médico deixar de usar todos os meios disponíveis de promoção de saúde e de prevenção, diagnóstico e tratamento de doenças, cientificamente reconhecidos e a seu alcance, em favor do paciente39. Isso ressalta que a negligência no uso dos recursos disponíveis constitui violação clara do CEM. No entanto, a falta de transparência e a complexidade dos algoritmos podem dificultar a compreensão dos profissionais de saúde em relação às conclusões do sistema.
Isso pode levar os médicos a hesitarem em adotar sistemas de IA que não compreendem completamente, o que prejudica a integração eficaz na prática clínica. Além disso, a falta de compreensão pode aumentar o risco de erros, uma vez que os profissionais não conseguem identificar decisões incorretas, o que torna complexa a atribuição de responsabilidade em casos de erros médicos, gerando desafios legais e éticos.
De acordo com a Lei 3.268/1957 40, que regulamenta os conselhos de medicina, e com a Lei 12.842/2013 41, que reafirma a anterior e é conhecida como Lei do Ato Médico, o diagnóstico de doenças é prerrogativa exclusiva de médicos devidamente habilitados e registrados nos Conselhos Regionais de Medicina (CRM). Portanto, médicos não podem se eximir da responsabilidade pelo diagnóstico de doenças, uma vez que isso é parte fundamental de sua profissão.
A atribuição de responsabilidade a médicos diante da complexidade dos sistemas de IA pode resultar em distribuição injusta de responsabilidades. Isso ocorre devido à realidade complexa que envolve a responsabilização médica em relação aos parâmetros tradicionalmente utilizados 42,43.
Juristas argumentam que a análise deve considerar se o dano causado pelo sistema de IA foi resultado de negligência, imperícia ou má conduta por parte do usuário, e que médicos não devem ser responsabilizados por danos causados por agentes autônomos. Isso se deve ao fato de que sistemas inteligentes têm autonomia e acesso a dados, o que os torna capazes de tomar decisões independentes 42,43.
Essa complexidade envolvendo a identificação e atribuição de responsabilidades por danos decorrentes de atividades algorítmicas é um desafio multissetorial. Assim, detectar o dano, determinar sua causa e, principalmente, identificar quem deve ser responsabilizado por tais danos são tarefas complexas.
Diversos atores humanos estão envolvidos, incluindo programadores, projetistas, fabricantes, designers e usuários, e a questão ética da responsabilidade está intimamente ligada ao tema da transparência. Somente algoritmos não opacos permitem identificar os responsáveis pelo processo e os possíveis erros. Nesse contexto, é essencial um esforço contínuo para garantir que sistemas de IA na medicina sejam transparentes, compreensíveis e sujeitos a regulamentações que considerem os desafios éticos e legais que surgem com a evolução tecnológica, a fim de que continuem a desempenhar papel cada vez mais significativo.
O avanço da IA transformou o mundo, permitindo que máquinas desempenhem tarefas complexas e racionais, anteriormente consideradas privilégios humanos. Embora tenha suas raízes nas décadas de 1950 e 1960, seu impacto se tornou especialmente notável nas últimas décadas, à medida que avanços tecnológicos possibilitaram o desenvolvimento de sistemas cada vez mais sofisticados.
Hoje, essa tecnologia permeia o cotidiano e envolve desde a indústria automobilística até o diagnóstico médico de precisão. Assim, hospitais e clínicas contam com sistemas autônomos para melhorar a saúde e o bem-estar dos pacientes.
No entanto, o rápido crescimento não vem isento de desafios, pois o aumento da complexidade dos problemas e a quantidade massiva de dados gera- dos exigem que as ferramentas computacionais se tornem mais autônomas. Nesse cenário, o aprendizado de máquina tem papel central, permi- tindo que sistemas adquiram conhecimento e tomem decisões com mínima intervenção humana.
Embora prometa benefícios significativos, a tecnologia também levanta preocupações éticas, como privacidade, viés algorítmico e responsabilidade, de maneira que, à medida que a IA avança, a sociedade precisa promover discussões e regulamentações sensatas que assegurem seu uso ético e justo. Os benefícios são inegáveis, mas seu potencial só será plenamente realizado se os sujeitos envolvidos estiverem preparados para enfrentar os desafios e adotar abordagens responsáveis.
Correspondência Jhadson Silva Leonel – Rua Professor Andrade Bezerra, Rua 2, ap. 204, bloco H, Residencial Eliza Miranda CEP 69077-767. Manaus/AM, Brasil.