Servicios
Descargas
Buscar
Idiomas
P. Completa
Sobre el uso de modelos de lenguaje basados en inteligencia artificial en la producción científica en ciencias de la salud
Fritz Fidel Váscones-Román; Diego Fabrizio Zambrano-Sanchez; Franz Jair Vera Arias;
Fritz Fidel Váscones-Román; Diego Fabrizio Zambrano-Sanchez; Franz Jair Vera Arias; Anthony Gilmer Lopez-Villanueva
Sobre el uso de modelos de lenguaje basados en inteligencia artificial en la producción científica en ciencias de la salud
On the use of language models based on artificial intelligence in scientific production in health sciences
Revista Médica Herediana, vol. 34, núm. 4, pp. 239-240, 2023
Universidad Peruana Cayetano Heredia
resúmenes
secciones
referencias
imágenes
Carátula del artículo

Cartas al editor

Sobre el uso de modelos de lenguaje basados en inteligencia artificial en la producción científica en ciencias de la salud

On the use of language models based on artificial intelligence in scientific production in health sciences

Fritz Fidel Váscones-Romána
Universidad Peruana Cayetano Heredia, Perú
Sociedad Científica de Estudiantes de Medicina Cayetano Heredia (SOCEMCH), Perú
Diego Fabrizio Zambrano-Sanchezb
Universidad Peruana Cayetano Heredia, Perú
Sociedad Científica de Estudiantes de Medicina Cayetano Heredia (SOCEMCH), Perú
Franz Jair Vera Ariasc
Universidad Peruana Cayetano Heredia, Perú
Sociedad Científica de Estudiantes de Medicina Cayetano Heredia (SOCEMCH), Perú
Anthony Gilmer Lopez-Villanuevad
Universidad Peruana Cayetano Heredia, Perú
Revista Médica Herediana, vol. 34, núm. 4, pp. 239-240, 2023
Universidad Peruana Cayetano Heredia

Recepción: 23 Abril 2023

Aprobación: 28 Septiembre 2023

Sr. editor:

El uso de herramientas basadas en inteligencia artificial (IA) como ChatGPT (OpenAI, EE.UU.) está aumentando en muchas áreas del conocimiento por ser gratuito y de fácil acceso para usuarios sin experiencia técnica (1). Por ejemplo, tiene uso en educación médica (2), e incluso fue listado como autor de una producción científica (1). Malik Sallam (3), en una revisión sistemática explica los beneficios y aplicaciones en el cuidado de la salud y señala que la contribución en la escritura académica-científica obtiene el primer lugar contra otros beneficios como la búsqueda científica o práctica de cuidados de salud. Sin embargo, nos preocupan ciertas limitaciones y riesgos éticos de las herramientas basadas en IA en el ámbito de la producción científica en ciencias de la salud, que describimos a continuación.

Nuestras principales preocupaciones están basadas en la falta de continuidad y relevancia de la información a un nivel profesional, lo que se refleja cuando un usuario comenta sobre un acontecimiento o dato actual, este sistema generativo argumenta que los datos disponibles son solo hasta enero del 2022 (4); lo cual disminuye la relevancia de su uso porque las ciencias de la salud evolucionan día a día y uno de los objetivos de la producción científica en salud es resolver problemas de salud vigentes. Aunque somos conscientes de que es una situación temporal que, conforme se implementen mejoras, se resolverá, la última versión creada y sucesora del GPT 3.5 abierta para el público, el GPT-4 (5), aún carece de conocimientos después del corte de datos, por lo que es probable que tome una gran cantidad de tiempo y que exista un retraso en la información.

Además, tiene limitaciones en la validez de la información (6), ya que cada interacción se toma como una conversación independiente, es decir, al realizar una misma pregunta en distintas interacciones la respuesta puede ser diferente a la anterior (7). Al restarle confiabilidad, se convierte en un problema importante para las áreas de la salud donde se necesita exactitud y precisión. Asimismo, Vaishyaa et.al. (8), demuestra que el uso de ChatGPT (OpenAI, EE.UU.) requiere una verificación rigurosa debido a la inestabilidad de la información brindada. Otra situación problemática es que no cuenta con una supervisión crítica especializada de la información que provee (9), al no haber personas dedicadas a la revisión de la información a un nivel profesional, tornándose engañosa e inverosímil.

La ética médica es un pilar fundamental en la investigación, guiando a los profesionales de la salud para proteger el bienestar del paciente y preservar la relación médico-paciente. Por lo tanto, expresamos nuestra preocupación por los riesgos éticos que podría acarrear el empleo masivo de esta herramienta en todo el proceso de salud de un paciente, desde la prevención hasta la rehabilitación de la enfermedad. Aunque reconocemos los posibles beneficios de su uso, no podemos pasar por alto los errores potenciales y la necesidad de un proceso de implementación exhaustivo para establecer la responsabilidad de las acciones tomadas por la herramienta. Además, la dificultad inherente para comprender el proceso de toma de decisiones de la IA podría afectar negativamente la autonomía del paciente y la capacidad de explicar dicho proceso de manera comprensible.

En conclusión, a pesar de que modelos de lenguaje basados en inteligencia artificial como ChatGPT (OpenAI, EE.UU.) ofrecen ventajas en la búsqueda de información y tiene gran capacidad en la redacción (10), aún presentan grandes limitantes para la producción científica. Además, creemos que su uso masivo a futuro puede generar problemas éticos, debido a la posible transgresión de la autonomía del paciente, y propiciar una situaciones de desigualdad e injusticia en la producción científica entre las personas que no logren entender el funcionamiento de la IA.

Material suplementario
REFERENCIAS BIBLIOGRÁFICAS
1. Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove. Nature. 2023; 613(7945):620-621. Doi: 10.1038/d41586-023-00107-z
2. Kung TH, Cheatham M, Medenilla A, Sillos C, De Leon L, Elepaño C, Madriaga M, Aggabao R, Diaz-Candido G, Maningo J, Tseng V. Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. PLOS Digital Health. 2023; 2(2): e0000198. Doi: 10.1371/journal.pdig.0000198
3. Sallam M. ChatGPT Utility in Healthcare Education, Research, and Practice: Systematic Review on the Promising Perspectives and Valid Concerns. Healthcare (Basel). 2023; 11(6):887. Doi: 10.3390/healthcare11060887
4. Arefin SE, Heya TA. Unmasking the giant: A comprehensive evaluation of ChatGPT’s proficiency in coding algorithms and data structures. arXiv.org. 2023. Doi: 10.48550/arXiv.2307.05360
5. OpenAI. GPT-4. March 14, 2023. [Citado el 13 de julio del 2023]; Disponible en: https://openai.com/research/gpt-4
6. Gordijn B, Have HT. ChatGPT: evolution or revolution?. Med Health Care Philos. 2023 Mar; 26(1):1–2. Doi: 10.1007/s11019-023-10136-0
7. Brown H, Lee K, Mireshghallah F, Shokri R, Tramèr F. What Does it Mean for a Language Model to Preserve Privacy? FAccT '22: Proceedings of the 2022. ACM Conference on Fairness, Accountability, and Transparency. June 2022. Pages: 2280–2292 Doi: 10.1145/3531146.3534642
8. Vaishya R, Misra A, Vaish A. ChatGPT: Is this version good for healthcare and research? Diabetes Metab Syndr. 2023; 17(4):102744. doi: 10.1016/j.dsx.2023.102744.
9. Kitamura FC. ChatGPT Is Shaping the Future of Medical Writing But Still Requires Human Judgment. Radiology. 2023; 307(2):e230171. doi: 10.1148/radiol.230171.
10. Musick DW. Teaching medical ethics: a review of the literature from North American medical schools with emphasis on education. Med Health Care Philos. 1999; 2(3):239-54. doi: 10.1023/a:1009985413669.
Notas
Notas de autor
a Estudiante de Medicina
b Estudiante de Medicina
c Estudiante de Medicina
d Estudiante de Medicina

Correspondencia: Fritz Fidel Váscones Román. Calle Urb. mi terruño Mz. F Lt01, Lima, Perú. Código postal 15112 fritz.vascones@upch.pe Celular: +51 946787304

Buscar:
Contexto
Descargar
Todas
Imágenes
Visor de artículos científicos generados a partir de XML-JATS4R por Redalyc