Carta al director
RETOS ÉTICOS QUE PLANTEA EL USO DE LA INTELIGENCIA ARTIFICIAL EN EL DIAGNÓSTICO Y TRATAMIENTO CLÍNICO
Ethical challenges posed by the use of Artificial Intelligence in the diagnosis and clinical treatment
RETOS ÉTICOS QUE PLANTEA EL USO DE LA INTELIGENCIA ARTIFICIAL EN EL DIAGNÓSTICO Y TRATAMIENTO CLÍNICO
Cuadernos de Bioética, vol. XXIX, núm. 97, pp. 303-304, 2018
Asociación Española de Bioética y Ética Médica

En la actualidad, se amontonan las evidencias de que la incorporación de la inteligencia artificial (IA) a la medicina clínica es una excelente y precisa ayuda para diagnosticar ciertas enfermedades tan bien como los médicos, pero en mucho menos tiempo. Diferentes equipos del mundo occidental han desarrollado y usan con eficacia el aprendizaje automático –una herramienta que utiliza Big Data y se basa en redes neuronales–, para la detección temprana del cáncer de mama, identificar enfermedades graves de la retina, o diagnosticar neumonía. El algoritmo no solo realiza un diagnóstico correcto sino que, además, valora la gravedad de cada caso y recomienda el tratamiento más adecuado. Es evidente que la inteligencia artificial puede ayudar a los médicos a realizar un diagnóstico al instante, principalmente en especialidades en las que se requiere el escrutinio de muchas imágenes, como la radiología o la anatomía patológica. Y eso es incluso más importante en áreas rurales o en países en vías de desarrollo, donde apenas hay especialistas. Es también evidente que el proceso, todavía laborioso y costoso, se mejorará, y que en un futuro próximo los médicos podrán usar la IA para tomar mejores decisiones y proporcionar el mejor cuidado posible a los pacientes.
Sin embargo, como exponen el Dr. Dalton S. Char y colaboradores de la Stanford University School of Medicine en un reciente artículo, la incorporación de la técnica de aprendizaje automático en la sanidad presenta varios e ineludibles retos éticos.
En suma estos retos son fundamentalmente dos:
2) Que si por algún motivo estas técnicas llegasen a constituirse el factor esencial en el diagnóstico y la decisión terapéutica se podría lesionar gravemente la naturaleza de las relaciones entre el médico y el paciente. En este importante aspecto, la medicina clínica ha sido siempre muy cuidadosa pues dicha relación se basa, y debe seguir haciéndolo, en la confidencialidad y la confianza entre los dos actores del acto clínico.
Los autores de esta carta creen que estos retos deben enfocarse y resolverse cuanto antes, y están optimísticamente convencidos de que la IA puede construirse de manera que en sus probabilistas prescripciones cometa cada vez menos errores, y actúe considerando los aspectos éticos implicados en la atención a los pacientes. También creen que para guiar a la IA en esta difícil tarea podrían utilizarse diferentes enfoques de programación, promulgación de apropiadas normativas sanitarias, trabajo de equipos interdisciplinares, o una combinación de estas estrategias.
Algunas precisiones de un experto en IA, Ramón López de Mántaras, Profesor de Investigación del CSIC, nos parecen aquí oportunas y necesarias: «por muy inteligentes que lleguen a ser las futuras inteligencias artificiales de hecho, siempre serán distintas a las inteligencias humanas y que el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas interacciones dependen a su vez del cuerpo humano, en particular del sistema perceptivo y del sistema motor. Ello, junto con el hecho de que las máquinas muy probablemente seguirán procesos de socialización y culturización diferentes a los humanos, incide todavía más en que, por muy sofisticadas que lleguen a ser, al ser inteligencias ajenas al hombre, y, por ende, a los valores y necesidades de los seres humanos, deberíamos reflexionar sobre posibles limitaciones éticas al desarrollo de la IA».
La necesidad de plantearse muy seriamente respuestas adecuadas a los desafíos morales que presentan las nuevas tecnologías y las emergentes ha llevado a la Comisión Europea a publicar una amplia Declaración al respecto, cuyo resumen es el siguiente:
«Los avances en IA, robótica y los denominados “sistemas autónomos” han abierto la puerta a una gama de cuestiones morales cada vez más urgentes y complejas. Los actuales esfuerzos para dar respuesta a los desafíos éticos, legales y sociales que dichos avances introducen y orientarlos para la consecución del bien común representan un mosaico de iniciativas dispares. Este hecho subraya la necesidad de establecer un proceso de reflexión y diálogo colectivo, amplio e inclusivo; un diálogo que se centre en los valores sobre los que queremos organizar nuestra sociedad y el papel que las tecnologías deben jugar en él. Esta declaración pide la puesta en marcha de un proceso que allane el camino hacia un marco ético y legal, común e internacionalmente reconocido, para el diseño, la producción, el uso y la gestión de la inteligencia artificial, la robótica y los “sistemas autónomos”. La declaración también propone un conjunto de principios éticos fundamentales, basados en los valores establecidos en los Tratados y la Carta de los Derechos Fundamentales de la Unión Europea, que pueden orientar su desarrollo».
Referencias
Char, Danton S., Shah, Nigam H., and Magnus, David. 2018. Implementing Machine Learning in Health Care — Addressing Ethical Challenges. The New England Journal of Medicine 378; 11, March 15.
European Commission. European Group on Ethics in Science and New Techologies. Statement on Artificial Intelligence, Robotics and “Autonomous Systems”. Brussels, 9 March, 2018, 20 pp; doi print: 10.2777/786515; doi pdf: 10.2777/531856.
López de Mántaras, Ramón. 2016. “Algunas reflexiones sobre el presente y el futuro de la Inteligencia Artificial”. En: Cortina, A. y Serra, M.A. (coord.). Desafíos éticos de las tecnologías emergentes, pp. 89-103. Ediciones Internacionales Universitarias (EIUNSA), Madrid, 413 pp.