Servicios
Descargas
Buscar
Idiomas
P. Completa
Inteligência artificial e suas implicações éticas e legais: revisão integrativa
Sabrina Maciel Nascimento; Tábita Maika Gama de Paiva; Marcos Paulo Maciel Kasuga;
Sabrina Maciel Nascimento; Tábita Maika Gama de Paiva; Marcos Paulo Maciel Kasuga; Thiago de Assis Furtado Silva; Conceição Maria Guedes Crozara; Jonas Byk; Silvania da Conceição Furtado
Inteligência artificial e suas implicações éticas e legais: revisão integrativa
Artificial intelligence and its ethical and legal implications: an integrative review
La inteligencia artificial y sus implicaciones éticas y legales: revisión integradora
Revista Bioética, vol. 32, e3729PT, 2024
Conselho Federal de Medicina
resúmenes
secciones
referencias
imágenes

Resumo: Recentemente, a inteligência artificial passou a ser incorporada na medicina para melhorar o atendimento ao paciente, acelerando processos e permitindo maior precisão. Entretanto, há uma preocupação global quanto às consequências e comprometimentos éticos e legais que envolvem o uso dessa ferramenta. Nesse contexto, esta revisão integrativa teve o objetivo de mapear evidências acerca de implicações éticas e legais do emprego de inteligência artificial na medicina com base em estudos sobre o tema. Constatou-se que o uso dessa tecnologia na área da saúde resultou em um cenário disruptivo e que, portanto, ela precisa ser urgentemente regulamentada em todas as subáreas de forma ética e responsável. É necessário mais trabalho das partes interessadas para continuar a abordar a questão da privacidade e da proteção dos dados por meio de acordos mundiais e pactos transdisciplinares.

Palavras chave: Inteligência artificial, Bioética, Jurisprudência.

Abstract: Artificial intelligence has recently been incorporated into medicine to improve patient care, speeding up processes and allowing for greater precision. However, there is a global concern regarding the ethical and legal consequences and commitments involved in using this tool. In this context, this integrative review aimed to map evidence about the ethical and legal implications of using artificial intelligence in medicine based on studies on the subject. The use of this technology in the health area resulted in a disruptive scenario, and, therefore, it urgently needs to be regulated in all subareas ethically and responsibly. More studies are required from stakeholders to continue addressing the issue of data privacy and protection through global agreements and transdisciplinary pacts.

Keywords: Artificial intelligence, Bioethics, Jurisprudence.

Resumen: Recientemente, la inteligencia artificial se ha incorporado a la medicina para mejorar la atención al paciente, agilizando los procesos y permitiendo una mayor precisión. Sin embargo, existe una preocupación mundial respecto a las consecuencias y compromisos éticos y legales que implica el uso de esta herramienta. En este contexto, esta revisión integradora tuvo el objetivo de mapear evidencias acerca de las implicaciones éticas y legales del empleo de inteligencia artificial en la medicina con base en estudios sobre el tema. Se constató que el uso de esta tecnología en el ámbito de la salud resultó en un escenario disruptivo y que, por lo tanto, urge regularla en todas las subáreas de forma ética y responsable. Es necesario que las partes interesadas trabajen más para seguir abordando la cuestión de la privacidad y de la protección de datos por medio de acuerdos mundiales y de pactos transdisciplinarios.

Palabras clave: Inteligencia artificial, Bioética, Jurisprudencia.

Carátula del artículo

Atualização

Inteligência artificial e suas implicações éticas e legais: revisão integrativa

Artificial intelligence and its ethical and legal implications: an integrative review

La inteligencia artificial y sus implicaciones éticas y legales: revisión integradora

Sabrina Maciel Nascimento
Universidade Federal do Amazonas, Brasil
Tábita Maika Gama de Paiva
Universidade Federal do Amazonas, Brasil
Marcos Paulo Maciel Kasuga
Universidade Federal do Amazonas, Brasil
Thiago de Assis Furtado Silva
Universidade Federal do Amazonas, Brasil
Conceição Maria Guedes Crozara
Universidade Federal do Amazonas, Brasil
Jonas Byk
Universidade Federal do Amazonas, Brasil
Silvania da Conceição Furtado
Universidade Federal do Amazonas, Brasil
Revista Bioética, vol. 32, e3729PT, 2024
Conselho Federal de Medicina

Recepción: 13 Diciembre 2023

Recibido del documento revisado: 21 Agosto 2024

Aprobación: 22 Agosto 2024

Inteligência artificial (IA), termo cunhado em 1955 1, é descrita pelo cientista da computação John McCarthy como a combinação da ciência e engenharia para fazer dispositivos inteligentes para o bem-estar humano, como apontam Rupali e Amit 2. No decorrer do século XX, a IA passou a ser adotada em diversas áreas, inclusive na saúde, a exemplo do Robodoc, em 1992 3, e do primeiro robô cirúrgico, o DaVinci, em 1997 4.

Assim, o progresso tecnológico na área da saúde apresenta correspondência, ou seja, reciprocidade entre os atores do processo. Por um lado, beneficia o paciente com soluções para um problema ou uma doença e, por outro lado, possibilita que profissionais de saúde otimizem protocolos, padronizem métodos e instrumentos técnicos e analisem dados de forma mais eficiente 5.

Entretanto, para a concretização de uma inovação na área da saúde, é necessário acesso a registros pessoais de pacientes para modelos de treinamento, o que, uma vez que não agrada pessoas que valorizam sua privacidade, atua como obstáculo à implementação prática da IA. Por isso, o uso correto de dados, privacidade e vieses se enquadram na ética da IA 6.

Um desafio importante que a comunidade médica enfrenta ao utilizar a IA é que as próprias ferramentas empregadas para gerar modelos associados aos cuidados de saúde, com o objetivo de melhorar a saúde pública, também são utilizadas por diferentes indústrias. Tal uso pela indústria pode afetar negativamente a saúde pública, influenciando o comportamento humano por meio de algoritmos de machine learning (ML) para vasculhar bancos de dados gerados pela interação humana com computadores na vida cotidiana. Por isso, é importante compreender pontos fortes, limitações, oportunidades, desafios éticos e riscos da IA relacionados à saúde 7.

A bioética estabelece princípios, padrões e regras éticas universais e obrigatórias para toda a humanidade. É uma disciplina interdisciplinar e de segunda ordem que amplia seu tema, considera os problemas complexos e interdisciplinares, além de acolher diversas perspectivas 8. Assim, considerando o avanço das pesquisas que utilizam IA na área da saúde, surge o questionamento: quais são as principais implicações éticas e legais da IA na área da saúde? Portanto, essa revisão integrativa visa mapear as evidências acerca dessas implicações.

Método

Trata-se de revisão integrativa da literatura que utilizou as bases de dados PubMed e IEEE Xplore, e incluiu artigos publicados entre os anos de 2018 e 2023. A estratégia de busca adotada foi a combinação dos descritores “artificial intelligence and ethical issues and legal aspects and health”, para a base PubMed, e “artificial intelligence and ethical issues and health”, para a base IEEE Xplore.

Resultados

A busca identificou 149 resultados, sendo 98 na PubMed e 51 na IEEE Xplore. Após leitura dos 149 títulos e resumos, foram pré-selecionados para leitura de texto completo 16 artigos, dos quais excluíram-se dois, um por não relatar aspectos éticos e/ou legais e outro por ser uma recomendação (Figura 1). Após as exclusões, foram selecionados para análise qualitativa 14 artigos, provenientes de dez países, conforme ilustra o Quadro 1.


Figura 1
Diagrama dos artigos incluídos e excluídos, de acordo com os critérios previstos na pesquisa

Quadro 1
Característica dos estudos incluídos na revisão

IA: inteligência artificial; ML: machine learning; DL: deep learning; OCDE: Organização para a Cooperação e Desenvolvimento Econômico

Tipo de tecnologia com uso de inteligência artificial

A IA e os seus algoritmos de aprendizagem automática (ML) oferecem uma nova promessa para a biomedicina personalizada e cuidados de saúde mais econômicos, com capacidade técnica impressionante para imitar as faculdades cognitivas humanas 9. A IA pode ajudar no diagnóstico de doenças, descoberta de novos medicamentos, epidemiologia, atendimento individual e eficiência operacional em unidades médicas e hospitalares 23.

As publicações incluídas apontam diferentes tipos de IA em campos diversos na saúde. Quanto ao uso de IA na cirurgia robótica, O’Sullivan e colaboradores 10 afirmam que o desenvolvimento bem-sucedido de robôs cirúrgicos autônomos confiáveis e de última geração é um desafio, e buscar aceitação e aprovação para seu uso é uma questão multifacetada. Para os autores, uma preocupação mais óbvia diz respeito às consequências que envolvem morte ou incapacidade do paciente resultante diretamente de um erro cirúrgico.

Morris e colaboradores 11 acrescentam que a transparência e responsabilidade são fundamentais para a implementação da IA na tomada de decisões cirúrgicas e na cirurgia robótica. Os autores salientam que é indiscutível a influência da tecnologia aplicada à cirurgia, porém é necessário discutir padrões éticos, políticas regulatórias e forças financeiras para maximizar seu potencial.

Outro tipo de IA que vêm sendo inserido no cotidiano das pessoas é o ChatGPT (OpenAI), modelo de linguagem ampla e chatbot de IA. Wang e colaboradores 13 afirmam que sua notável capacidade de acessar e analisar grandes quantidades de informações permite gerar, categorizar e resumir textos com alta coerência.

O aprendizado de máquina (ML) é um ramo da IA em que há construção de algoritmos compu- tacionais a partir do aprendizado de dados 24. Avanços recentes em algoritmos de software de ML e disponibilidade de poderosos recursos de hardware de computação resultaram em expressiva expansão na aplicação potencial de IA/ML em várias áreas da medicina. Apesar do entusiasmo e desses potenciais antecipados, a aplicação de IA/ML na prática clínica diária permanece escassa, o que pode ser atribuído a desafios técnicos, como a integração no fluxo de trabalho clínico 9.

Naik e colaboradores 23 apresentam uma rede neural artificial (RNA) como estrutura conceitual para o desenvolvimento de algoritmos de IA. É um modelo de cérebro humano composto por uma rede interconectada de neurônios ligados por canais de comunicação ponderados. A IA usa vários algoritmos para encontrar correlações não lineares complexas em conjuntos de dados massivos.

A aprendizagem profunda (deep learning – DL) é um tipo de IA que permite que um algoritmo classifique e agrupe dados de forma independente. Em vez de serem explicitamente programados para prestar atenção a atributos ou variáveis específicas, esses algoritmos têm a capacidade de desenvolver, com a exposição aos dados, o reconhecimento de padrões 15.

Apesar de essas tecnologias serem promissoras, sua aplicação generalizada tem sido limitada no domínio médico, e as expectativas têm sido alteradas por desafios éticos e preocupações relativas à privacidade do paciente, responsabilidade legal, fiabilidade e justiça.

Aspectos éticos

De acordo com Morris e colaboradores 11, o uso de IA deve ser baseado nos princípios éticos e desafios envolvidos na relação médico-paciente, nos sistemas de saúde e nas comunidades locais. Nesse sentido, Drabiak e colaboradores 9 afirmam que, à medida que se torna cada vez mais proeminente nos cuidados de saúde, a IA/ML levanta uma infinidade de preocupações sobre o seu impacto na forma como os médicos praticam a medicina.

Os problemas relacionados a vieses da automação e da desqualificação estão na vanguarda dessas preocupações. O viés de automação ocorre quando os médicos confiam demais na IA/ML e diminuem seus esforços pessoais para verificar os resultados da máquina, criando riscos à segurança do paciente 9. Outra questão sobre as ferramentas atuais de ML na saúde refere-se a casos em que os algoritmos aconselham decisões cirúrgicas em tempo real na sala de cirurgia, de forma que surgem dúvidas sobre se a responsabilidade cabe ao cirurgião ou ao desenvolvedor da ferramenta de ML 11.

De fato, conforme dados encontrados em análise bibliométrica, os principais aspectos observados na literatura acerca da ética em IA são aqueles geralmente identificados em sistemas baseados em IA, com a segurança assumindo uma relevância proeminente. Dois principais setores de aplicação aparecem principalmente associados à ética na IA: condução médica e autônoma (incluindo robótica). Recomenda-se, como atitude moderada, a adoção de mecanismos tradicionais para aprimorar aspectos éticos e jurídicos na engenharia de Cyber Physical Systems, como: auditoria, rotulagem voluntária, certificação por organizações de normalização, licenciamento responsável de IA e auditoria de terceiros 25.

Morley e colaboradores 15 apontam que o desafio legal de alocação de responsabilidade em casos de erro médico é um exemplo de problema frequente. Dessa forma, a discussão legislativa e regulatória depende diretamente da compreensão das questões de cada etapa de implementação de IA – por exemplo, coleta de dados, treinamento, implantação – e de como esses riscos e os encargos serão distribuídos pela sociedade.

A capacidade de rastrear a culpa até o fabricante é alegadamente ameaçada por máquinas que podem operar segundo regras não fixas e a capacidade de aprender novos padrões de comportamento. Essa dificuldade é motivo de alarme, pois ameaça tanto o quadro moral da sociedade como o fundamento da ideia de responsabilidade na lei. Assim, o uso da IA pode fazer com que não haja ninguém para ser responsabilizado por qualquer tipo de dano causado 10.

A justiça é uma preocupação fundamental de equidade e igualdade, e constitui outra questão que envolve ética no uso da IA. Stewart, Wong e Sung 16 destacam o risco de dados não representativos que consolidam e agravam as disparidades na saúde, subestimando ou superestimando riscos em certos pacientes e populações. A redução do preconceito na IA é, portanto, necessária para promover resultados de saúde melhores e mais equitativos.

Aspectos legais

Os sistemas de IA/ML exigem um grande volume de dados para treinamento e validação, e a propriedade e o consentimento para a utilização desses dados, bem como a sua proteção, são questões críticas. De acordo com Stewart, Wong e Sung 16, o uso de IA e de informações confidenciais deve sempre ser baseado no consentimento ou em alternativas legalmente justificadas, que exigem que os direitos das pessoas sejam considerados e protegidos contra danos relacionados à privacidade, tais como dano à reputação e exposição ao ridículo ou ódio.

Considerando que a IA está sendo introduzida exponencialmente na área da saúde, Carter e colaboradores concluem que não existe nenhum regulador claro, nenhum processo de julgamento claro e nenhum rastro de responsabilização claro sobre o assunto 14. Os autores encaram essa situação como um vazio regulamentar, ou seja, praticamente nenhum tribunal desenvolveu normas que abordem especificamente quem deve ser responsabilizado legalmente se uma IA causar danos.

Apesar disso, existe um debate constante sobre se a IA se enquadra nas categorias jurídicas existentes ou se uma nova categoria com as suas características e implicações especiais deve ser desenvolvida23. A limitação da transparência algorítmica é uma preocupação que tem dominado a maioria das discussões jurídicas sobre IA.

Proteção de dados

Além do que concerne aos aspectos legais gerais do uso da IA, é importante salientar que há também necessidade de controle do uso de dados pessoais, inclusive no que diz respeito à área da saúde, principalmente com o uso de ML. Nesse tipo de IA, uma representação de dados adequada fornece um desempenho melhor 26. A DL, por sua vez, concentra-se na criação de modelos de redes neurais capazes de tomar decisões baseadas em dados, sendo particularmente adequada a um contexto em que exista um grande conjunto de dados disponíveis 27.

No cenário brasileiro, como referem Dourado e Aith 28, foi promulgada a Lei 13.709/2018, instituindo a explicação e a revisão de decisões automatizadas no ordenamento jurídico. Com isso, busca-se garantir segurança e proteção dos dados e os direitos fundamentais de liberdade e de privacidade, assim como a livre formação da personalidade individual. Da mesma forma, outras nações e entidades supranacionais criaram legislação específica para essa questão.

No caso da União Europeia, Goddard 29 aponta que se instituiu o Regulamento Geral de Proteção de Dados (GDPR), o qual se aplica a todos os Estados-membros do bloco, abrangendo todos os residentes, independentemente do local de processamento dos dados. Esse regulamento tem como princípios gerais: justiça e legalidade, limitação de finalidade, minimização de dados, precisão, limitação de armazenamento e integridade e confidencialidade.

No caso dos países da Ásia, a Coréia do Sul já tem leis e regulamentos quanto à privacidade de dados há duas décadas, entretanto teve maior atenção legislativa com a Lei de Proteção de Informações Pessoais, que impulsionou questões relativas à privacidade de dados 30. A estrutura dessa lei é, de maneira geral, semelhante ao GDPR, da União Europeia 31.

Na Oceania, pode-se comentar o caso da Austrália, cujos princípios de privacidade são baseados nas Diretrizes da Organização para a Cooperação e Desenvolvimento Econômico para a Proteção da Privacidade e dos Fluxos Transfronteiriços de Dados Pessoais, porém não há uma lei específica para a privacidade no país 32. No continente africano, por sua vez, há variação entre os países, de modo que alguns oferecem pouca ou nenhuma política de proteção, enquanto outros apresentam extensos quadros de governança digital 33.

No que concerne ao continente americano, os Estados Unidos seguem uma abordagem setorial da proteção e privacidade de dados, não havendo legislação abrangente nesse aspecto, mas uma legislação que protege dentro de contextos específicos, como nos setores da saúde, educação, comunicações e outros 34.

Estratégia Brasileira de Inteligência Artificial

Diante do desenvolvimento da IA e do surgimento da preocupação dos países com essa nova tecnologia e suas possíveis vantagens e consequências, em 2020 o Brasil definiu como prioridade a área de IA, no que se diz respeito a inovações, projetos de pesquisa e desenvolvimento de tecnologias 35.

Nesse contexto, visando guiar as ações do Estado brasileiro no desenvolvimento e estimulação de pesquisa, inovação, soluções, ações e o uso consciente e ético da IA, foi criada a Estratégia Brasileira de Inteligência Artificial (Ebia), que tem por objetivo potencializar o desenvolvimento e a utilização da tecnologia com vistas a promover o avanço científico e solucionar problemas concretos do país, identificando áreas prioritárias nas quais há maior potencial de obtenção de benefícios36.

O documento se fundamenta em nove eixos temáticos 35:

  • Quatro eixos transversais, que se referem a legislação, regulação e ética; governança de IA; e aspectos internacionais; e

  • Cinco eixos verticais, constituídos por educação; força de trabalho e capacitação; PD&I (projetos de pesquisa, desenvolvimento e inovação) e empreendedorismo; aplicação nos setores produtivos; aplicação no setor público; e segurança pública.

A estratégia se fundamenta em cinco princípios definidos pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE), cujas diretrizes são asseguradas pelo Brasil, visando a gestão responsável dos sistemas de IA 35:

  • Crescimento inclusivo, desenvolvimento sustentável e bem-estar;

  • Valores centrados no ser humano e na equidade;

  • Transparência e explicabilidade;

  • Robustez, segurança e proteção; e

  • Responsabilização ou prestação de contas (accountability).

Além disso, o documento afirma que, dependendo da aplicação de IA e dos riscos associados, a ideia de accountability impõe a necessidade de estabelecer estruturas de governança em IA. Com isso, busca-se assegurar a adoção de princípios para uma IA confiável e para a implementação de mecanismos para sua observância, que são, segundo o próprio documento 35:

  • Designação de indivíduos ou grupos específicos dentro de uma organização para promover a conformidade com os princípios;

  • Adoção de medidas para aumentar a conscientização interna sobre a necessidade dessa conformidade, inclusive por meio de orientações e treinamentos; e

  • Implementação de um processo de escalação por meio do qual os funcionários possam levantar preocupações de conformidade e resolver essas preocupações.

Além disso, há um desafio em estruturar um ecossistema de governança do uso de IA, tanto no setor público quanto no privado. Para lidar com isso, a Ebia menciona as seguintes ações estratégicas 35:

  • Estruturar ecossistemas de governança do uso da IA, no setor público e no setor privado;

  • Incentivar o compartilhamento de dados, observado na Lei Geral de Proteção de Dados Pessoais (LGPD);

  • Promover o desenvolvimento de padrões voluntários e consensuais para gerenciar riscos associados aos aplicativos de IA;

  • Estimular que as organizações criem conselhos de revisão de dados ou comitês de ética em relação à IA;

  • Criar um observatório de IA no Brasil que possa se conectar a outros observatórios internacionais;

  • Estimular o uso de conjuntos de dados representativos para treinar e testar modelos;

  • Facilitar o acesso aos dados abertos do governo;

  • Melhorar a qualidade dos dados disponíveis, de modo a facilitar a detecção e correção de vieses algorítmicos;

  • Estimular a divulgação de códigos-fontes abertos capazes de verificar tendências discriminatórias nos conjuntos de dados e nos modelos de ML;

  • Desenvolver diretrizes para a elaboração de relatórios de impacto de proteção de dados (RIPD);

  • Compartilhar os benefícios do desenvolvimento de IA na maior extensão possível e promover oportunidades iguais de desenvolvimento para diferentes regiões e indústrias;

  • Elaborar campanhas educacionais e de conscientização;

  • Estimular diálogo social com participação multissetorial;

  • Alavancar e incentivar práticas de accountability relacionadas à IA nas organizações; e

  • Definir indicadores gerais e específicos por setores (agropecuária, financeiro, saúde etc.).

Em 2021, a Organização Mundial da Saúde (OMS) 37 publicou uma orientação estabelecendo os seis princípios fundamentais para promover o uso ético da IA para a saúde: 1) proteger a autonomia; 2) promover o bem-estar humano, a segurança humana e o interesse público; 3) garantir transparência, explicabilidade e inteligibilidade; 4) promover a responsabilidade; 5) garantir a inclusão e a equidade; e 6) promover uma IA que seja ágil e sustentável.

Para implementar esses princípios e obrigações, todas as partes interessadas, seja designers e programadores, provedores e pacientes, seja ministérios da saúde e de tecnologia da informação, devem trabalhar em conjunto para integrar normas éticas em todas as fases do desenvolvimento de tecnologia (design, desenvolvimento e implantação) 38.

Discussão

A utilização de novas tecnologias levanta preocupações sobre os riscos associados a sua implementação, principalmente a possibilidade de violações e imprecisões de dados. À medida que a tecnologia continua a evoluir, há crescente necessidade de garantir proteção e precisão dos dados. Violações de segurança podem ter impactos significativos tanto para indivíduos como para organizações, levando a perdas financeiras, danos à imagem e comprometimento da privacidade, de forma que é fundamental compreender os riscos da utilização de novas tecnologias e adotar medidas adequadas para minimizá-los.

De acordo com O’Sullivan e colaboradores 10, as abordagens atuais carecem de conhecimento declarativo explícito e, portanto, de transparência. No domínio médico, tal falta de transparência não promove confiança e aceitação da cirurgia robótica entre médicos. Dessa forma, é necessário que haja trabalho entre as partes interessadas para continuar a abordar questões de privacidade e proteção de dados, pois existe uma lacuna no que diz respeito à aplicação clínica da IA.

Além disso, instrumentos existentes, como leis de responsabilidade civil ou lei de privacidade, produtos etc., poderiam ser adaptados, a fim de mitigar dano. As conclusões de Morris e colaboradores 11 corroboram questões que envolvem aspectos legais, responsabilidade e prestação de contas. De acordo com os autores, lacunas legais contribuem significativamente para a hesitação em integrar a IA na prática cirúrgica.

Em relação à proteção de dados, Amann e colaboradores 12 afirmam que dados pessoais de saúde só podem ser legalmente tratados após o consentimento do indivíduo. Na ausência de leis gerais que facilitem a utilização de dados e informações pessoais, esse consentimento informado é o padrão para a utilização atual de dados de pacientes em aplicações de IA. Entretanto, Masoumian Hosseini e colaboradores 17 afirmam que a coleta de dados, da forma como é recomendada pela Lei de Proteção de Dados Pessoais e Documentos Eletrônicos, do Canadá, e pelo GDPR, pode prejudicar as tecnologias de IA.

Do ponto de vista jurídico, aquisição, armazenamento, transferência, processamento e análise de dados terão de cumprir todas as leis, regulamentos e outros requisitos legais. Além disso, a lei e sua interpretação e implementação precisam se adaptar constantemente à evolução do estado da arte da tecnologia 12.

Para Carter e colaboradores 14, um problema observado com frequência em sistemas de ML é o preconceito nos resultados, derivado do viés nos dados de treinamento. Escolhas humanas podem distorcer os sistemas de IA para que funcionem de forma discriminatória ou exploratória, já que é bem reconhecido que tanto os cuidados de saúde como a medicina baseada em evidências são tendenciosos contra grupos desfavorecidos.

Da mesma forma, Drabiak e colaboradores 9 citam preocupações de que as tecnologias baseadas em IA/ML possam exacerbar a desigualdade racial e de gênero devido ao preconceito inerente no processo de treinamento e à falta de transparência de previsão. Carter e colaboradores 14 afirmam que, uma vez que a IA torna-se institucionalizada em sistemas, pode ser difícil reverter seu uso e consequências e, por isso, é necessário ter diligência antes da implementação.

Wang e colaboradores 20 recomendam a criação de um comitê de ética em IA médica para revisar ética e governança com esclarecimento para orientar valores, incorporar valores e normas humanas e converter teorias e normas éticas em algoritmos e protocolos operacionais que podem ser regulamentados. Nesse contexto, Reddy 18 acrescenta que a adaptação dos regulamentos gerais de IA aos cuidados de saúde exige compreensão profunda dos princípios éticos que orientam o setor, como autonomia, beneficência, não maleficência e justiça.

De acordo com a análise de Wang e colaboradores 13, deve existir consenso sobre a importância da justiça dos dados como base para alcançar a justiça na IA médica em perspectivas multidisciplinares. No entanto, existem discrepâncias substanciais em aspectos fundamentais, como conceito, fatores de influência e medidas de justiça de implementação na IA médica. Consequentemente, investigações futuras deverão facilitar discussões interdisciplinares para preencher lacunas cognitivas entre os diferentes campos e melhorar a implementação prática da justiça na IA médica.

Do ponto de vista ético, as tecnologias de IA devem ser desenvolvidas e utilizadas de uma forma que respeite a autonomia, a confidencialidade e a respeitabilidade dos pacientes. Isso só pode ser feito se os processos forem transparentes, justos e imparciais, e se os indivíduos tiverem controle sobre o conhecimento que lhes diz respeito 19.

Nesse contexto, a OMS destaca que, embora designers e desenvolvedores técnicos desempenhem papel fundamental na elaboração de ferramentas de IA para uso na área da saúde, não há certificação ou processo de licenciamento como o exigido para profissionais de saúde. Assim, não é suficiente simplesmente apelar aos indivíduos para que defendam valores relacionados à ética, como repetibilidade, transparência, justiça e dignidade humana. É requerido, portanto, uma abordagem orientada não para soluções, mas para processos, que satisfaça as necessidades das partes interessadas em conformidade com valores morais e sociais incorporados pelos direitos humanos 29.

Como limitação do trabalho, pode-se mencionar que não foram investigadas bases de dados científicas além da PubMed e da IEEE Xplore, bem como a literatura cinzenta, o que pode ter contribuído para a exclusão de estudos e documentos relevantes para a pesquisa. Entretanto, as duas bases utilizadas foram suficientes para mapear informações importantes sobre a temática e apontar a atual insuficiência de leis e diretrizes que regulamentam o uso de IA na área da saúde com a eficiência e segurança necessárias para a devida proteção de gestores e usuários dessa tecnologia.

Considerações finais

A IA na área da saúde já pode ser considerada um cenário disruptivo e, portanto, precisa ser urgentemente regulamentada em todas as subáreas de forma ética e responsável. Uma possível solução, em curto prazo, seria a capacitação individual, mediante treinamento de profissionais da área e pacientes, para melhorar a compreensão e o controle de ferramentas de IA.

O viés de dados precisa ser evitado por meio de algoritmos apropriados baseados em dados imparciais em tempo real. Assim, é necessário mais trabalho das partes interessadas para continuar a abordar a questão da privacidade dos dados e da proteção por meio de acordos mundiais e pactos transdisciplinares.

Evidências robustas acerca das implicações éticas e legais do uso da IA na área da saúde ainda são insuficientes para garantir a implementação segura dessa tecnologia nas diversas subáreas da IA em ambientes de prestação de cuidados de saúde em um mundo globalizado.

Material suplementario
Referências
McCarthy J, Minsky ML, Rochester N, Shannon CE. A proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955. AI Magazine [Internet]. 2006 [acesso 23 out 2023];27(4):12-4. DOI: 10.1609/aimag.v27i4.1904
Rupali M, Amit P. A review paper on general concepts of "Artificial intelligence and machine learning". Int Adv Res J Sci Eng Technol [Internet]. 2017 [acesso 23 out 2023];4(4):79-82. DOI: 10.17148/IARJSET/NCIARCSE.2017.22
Cowley G. Introducing "robodoc": a robot finds his calling: in the operating room. Newsweek [Internet]. 1992 [acesso 23 out 2023];120(21):86. Disponível: https://pubmed.ncbi.nlm.nih.gov/10122477
George EI, Brand TC, LaPorta A, Marescaux J, Satava RM. Origins of robotic surgery: from skepticism to standard of care. JSLS [Internet]. 2018 [acesso 2 nov 2023];22:e2018.00039. DOI: 10.4293/JSLS.2018.00039
Silva Neto BRD. Medicina e adesão à inovação: a cura mediada pela tecnologia. Ponta Grossa: Atena; 2021.
Christensen CM, Baumann H, Ruggles R, Sadtler TM. Disruptive innovation for social change. Harv Bus Rev [Internet]. 2006 [acesso 16 nov 2023];84(12):96-101. Disponível: https://pubmed.ncbi.nlm.nih.gov/17183796
Sher T, Sharp R, Wright RS. Algorithms and bioethics. Mayo Clin Proc [Internet]. 2020 [acesso 16 nov 2023];95(5):843-4. DOI: 10.1016/j.mayocp.2020.03.020
Rhodes R, Ostertag G. Bioethics is philosophy. Am J Bioeth [Internet]. 2022 [acesso 16 nov 2023];22(12):22-5. DOI: 10.1080/15265161.2022.2134499
Drabiak K, Kyzer S, Nemov V, El Naqa I. AI and machine learning ethics, law, diversity, and global impact. Br J Radiol [Internet]. 2023 [acesso 16 nov 2023];96(1150):20220934. DOI: 10.1259/bjr.20220934
O'Sullivan S, Nevejans N, Allen C, Blyth A, Leonard S, Pagallo U et al. Legal, regulatory, and ethical frameworks for development of standards in artificial intelligence (AI) and autonomous robotic surgery. Int J Med Robot [Internet]. 2019 [acesso 16 nov 2023];15:e1968. DOI: 10.1002/rcs.1968
Morris MX, Song EY, Rajesh A, Asaad M, Phillips BT. Ethical, legal, and financial considerations of artificial intelligence in surgery. Am Surg [Internet]. 2023 [acesso 25 nov 2023];89:55-60. DOI: 10.1177/00031348221117042
Amann J, Blasimme A, Vayena E, Frey D, Madai VI. Explainability for artificial intelligence in healthcare: a multidisciplinary perspective. BMC Med Inform Decis Mak [Internet]. 2020 [acesso 25 nov 2023];20:310. DOI: 10.1186/s12911-020-01332-6
Wang C, Liu S, Yang H, Guo J, Wu Y, Liu J. Ethical Considerations of using ChatGPT in health care. J Med Internet Res [Internet]. 2023 [acesso 25 nov 2023];25:e48009. DOI: 10.2196/48009
Carter SM, Rogers W, Win KT, Frazer H, Richards B, Houssami N. The ethical, legal and social implications of using artificial intelligence systems in breast cancer care. Breast [Internet]. 2020 [acesso 2 nov 2023];49:25-32. DOI: 10.1016/j.breast.2019.10.001
Morley J, Machado CCV, Burr C, Cowls J, Joshi I, Taddeo M, Floridi L. The ethics of AI in health care: a mapping review. Soc Sci Med [Internet]. 2020 [acesso 5 out 2023];260:113172. DOI: 10.1016/j.socscimed.2020.113172
Stewart C, Wong SKY, Sung JJY. Mapping ethico-legal principles for the use of artificial intelligence in gastroenterology. J Gastroenterol Hepatol [Internet]. 2021 [acesso 15 out 2023];36:1143-8. DOI: 10.1111/jgh.15521
Masoumian Hosseini M, Masoumian Hosseini ST, Qayumi K, Ahmady S, Koohestani HR. The aspects of running artificial intelligence in emergency care; a scoping review. Arch Acad Emerg Med [Internet]. 2023 [acesso 15 out 2023];11:e38. DOI: 10.22037/aaem.v11i1.1974
Reddy S. Navigating the AI revolution: the case for precise regulation in health care. J Med Internet Res [Internet]. 2023 [acesso 27 out 2023];25:e49989. DOI: 10.2196/49989
Upreti K, Vats P, Nasir MS, Alam MS, Shahi FI, Kamal MS. Managing the ethical and sociologically aspects of ai incorporation in medical healthcare in India: unveiling the conundrum [Internet]. In: Proceedings of the 2023 IEEE World Conference on Applied Intelligence and Computing (AIC); 29-30 jul 2023; Sonbhadra, India. Sonbhadra: IEEE; 2023 [acesso 2 nov 2023];p. 293-9. DOI: 10.1109/AIC57670.2023.10263931
Wang Y, Song Y, Ma Z, Han X. Multidisciplinary considerations of fairness in medical AI: A scoping review. Int J Med Inform [Internet]. 2023 [acesso 10 nov 2023];178:105175. DOI: 10.1016/j.ijmedinf.2023.105175
Vayena E, Blasimme A, Cohen IG. Machine learning in medicine: addressing ethical challenges. PLoS Med [Internet]. 2018 [acesso 10 nov 2023];15(11):e1002689. DOI: 10.1371/journal.pmed.1002689
Gallese C, Fuchs C, Riva SG, Foglia E, Schettini F, Ferrario L et al. Predicting and characterizing legal claims of hospitals with computational intelligence: the legal and ethical implications [Internet]. In: Proceedings of the 2022 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB); 15-17 ago 2022; Ottawa. Ottawa: IEEE; 2022 [acesso 10 nov 2023]. DOI: 10.1109/CIBCB55180.2022.9863033
Naik N, Hameed BMZ, Shetty DK, Swain D, Shah M, Paul R et al. Legal and ethical consideration in artificial intelligence in healthcare: who takes responsibility? Front Surg [Internet]. 2022 [acesso 18 nov 2023];9:862322. DOI: 10.3389/fsurg.2022.862322
Paixão GMDM, Santos BC, Araujo RMD, Ribeiro MH, Moraes JLD, Ribeiro AL. Machine learning na medicina: revisão e aplicabilidade. Arq Bras Cardiol [Internet]. 2022 [acesso 4 nov 2023];118:95-102. DOI: 10.36660/abc.20200596
Leitao P, Karnouskos S. The emergence of ethics engineering in Industrial Cyber-Physical Systems [internet]. In: 2022 IEEE 5th International Conference on Industrial Cyber-Physical Systems (ICPS); 24-26 maio 2022; Coventry. Coventry: IEEE; 2022 [acesso 15 out 23]. DOI: 10.1109/ICPS51978.2022.9816931
Alzubaidi L, Zhang J, Humaidi AJ, Al-Dujaili A, Duan Y, Al-Shamma O et al. Review of deep learning: concepts, CNN architectures, challenges, applications, future directions. J Big Data [Internet]. 2021 [acesso 15 nov 2023];8:53. DOI: 10.1186/s40537-021-00444-8
Kelleher JD. Deep learning. Cambridge: MIT Press; 2019.
Dourado DDA, Aith FMA. A regulação da inteligência artificial na saúde no Brasil começa com a Lei Geral de Proteção de Dados Pessoais. Rev Saúde Pública [Internet]. 2022 [acesso 4 nov 2023];56:80. DOI: 10.11606/s1518-8787.2022056004461
Goddard M. The EU General Data Protection Regulation (GDPR): European Regulation that has a Global Impact. International Journal of Market Research [Internet]. 2017 [acesso 14 out 2023];59(6):703-5. DOI: 10.2501/IJMR-2017-050
Ko H, Leitner J, Kim E, Jeong J. Structure and enforcement of data privacy law in South Korea. International Data Privacy Law [Internet]. 2017 [acesso 27 out 2023];7:100-14. DOI: 10.2139/ssrn.2904896
Ko H. Pseudonymization of healthcare data in South Korea. Nat Med [Internet]. 2022 [acesso 20 out 2023];28:15-6. DOI: 10.1038/s41591-021-01580-7
Watts D, Casanovas P. Privacy and data protection in Australia: a critical overview (extended abstract). W3C Workshop on Privacy and Linked Data [Internet]. 2017 [acesso 27 out 2023]. Disponível: https://bit.ly/3XlDUuH
Daigle B. Data Protection Laws in Africa: A Pan-African Survey and Noted Trends. J Int'l Com & Econ [Internet]. 2021 [acesso 2 nov 2023]. Disponível: https://bit.ly/3ZjCoM5
Boyne SM. Data Protection in the United States. Am J Comp Law [Internet]. 2018 [acesso 27 out 2023];66(supl 1):299-343. DOI: 10.1093/ajcl/avy016
Brasil. Ministério da Ciência, Tecnologia e Inovação. Estratégia Brasileira de Inteligência Artificial - EBIA [Internet]. Brasília: MCTI; 2021 [acesso 22 nov 2023]. Disponível: https://bit.ly/3zfe8jD
Brasil. Op. cit. p. 4.
World Health Organization. Ethics and governance of artificial intelligence for health: WHO guidance [Internet]. Geneva: World Health Organization; 2021 [acesso 11 set 2024]. Disponível: https://bit.ly/4ekS71S
Taeihagh, A. Governance of artificial intelligence. Policy and Society [Internet]. 2021 [acesso 22 nov 2023];40(2):137-57. DOI: 10.1080/14494035.2021.1928377
Notas
Declaración de intereses
Declaram não haver conflito de interesse.
Notas de autor

Correspondência: Sabrina Maciel Nascimento – Rua Juazeirinho, 21, Novo Aleixo CEP 69098-194. Manaus/AM, Brasil.


Figura 1
Diagrama dos artigos incluídos e excluídos, de acordo com os critérios previstos na pesquisa
Quadro 1
Característica dos estudos incluídos na revisão

IA: inteligência artificial; ML: machine learning; DL: deep learning; OCDE: Organização para a Cooperação e Desenvolvimento Econômico
Buscar:
Contexto
Descargar
Todas
Imágenes
Visor de artículos científicos generados a partir de XML-JATS por Redalyc