EDITORIAL
La inteligencia artificial en la redacción de artículos científicos
La inteligencia artificial es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. El objetivo propuesto es facilitar la vida de las personas, pero en el ámbito de la ciencia se advierten algunos peligros, en especial para su utilización en la redacción de artículos científicos.
ChatGPT es un prototipo de inteligencia artificial desarrollado en 2022 por OpenAI que permite el diálogo (chatbot). Su modelo base (GPT-3) se entrenó en artículos, sitios web, libros y conversaciones escritas, pero un proceso de ajuste permite que ChatGPT responda en forma dialogada. En respuesta a un mensaje escrito, ChatGPT puede redactar correos electrónicos, escribir códigos de computadora e incluso crear guiones de películas. Pero el entusiasmo se ha visto acompañado por una serie de preocupaciones éticas que podrían y, tal vez, deberían limitar su adopción.
Un estudio advirtió sobre los peligros de utilizar el programa de generación de textos ChatGPT ya que puede introducir errores en los estudios científicos. Los autores plantearon la necesidad de desarrollar alternativas de código abierto para poder revisar dichos textos e impedir la proliferación de información falsa (1).
Uno de los problemas es que la mayoría de las tecnologías de inteligencia artificial de conversación de última generación son producidas por propietarios de grandes empresas de tecnología, lo que dificulta la transparencia y la verificación del funcionamiento de los programas.
Los autores del estudio comprobaron que el ChatGPT generaba textos falsos y engañosos, lo que podría llevar a los lectores a incorporar información sesgada o incorrecta en sus trabajos. Esto podría dar lugar a que se tomen decisiones en políticas de salud en base a información falsa.
No se propone la eliminación de estos programas, sino gestionar los riesgos asociados a su uso a través de entidades públicas o sin fines de lucro independientes, que desarrollen tecnologías de inteligencia artificial avanzadas, transparentes y controladas democráticamente.
Las limitaciones de ChatGPT son conocidas. Las imprecisiones en el texto generado podrían fomentar la difusión de información errónea, como el agregado de datos adicionales incorrectos, omisión de hallazgos médicos clave en la discusión de un caso clínico o inclusión de referencias inexistentes o incorrectas. Otros errores son la repetición de palabras, el lenguaje poco científico de los textos y el uso de información desactualizada. Todos estos errores indican que se requerirán comprobaciones manuales que no todos están dispuestos a hacer.
Es preocupante, además, el riesgo de introducir no solo errores sino también contenido plagiado en las publicaciones.
El problema actual es que mucha gente ya usa ChatGPT y similares como si fuera un buscador de información. Por el momento sirve para procesar textos, para ahorrar algunas tareas, pero, como se dijo, la información está lejos de ser confiable.
La Asociación Mundial de Editores Médicos publicó sus recomendaciones sobre el uso de ChatGPT y otros chatbots en publicaciones académicas, una de las cuales es que los editores de revistas necesitan nuevas herramientas para detectar el contenido generado o modificado por inteligencia artificial. La tecnología está evolucionando y las políticas editoriales también deben evolucionar. Elsevier ha introducido una nueva política sobre el uso de inteligencia artificial en la redacción científica. Recomendó que su uso debería limitarse sólo a mejorar la legibilidad y el lenguaje del trabajo, y debería declararse en el manuscrito. Además, los autores deberían realizar verificaciones manuales de cualquier resultado generado y estas herramientas no tendrían que figurar ni citarse como autor o coautor, ya que ChatGPT no puede asumir las responsabilidades que conlleva la autoría (2).
El uso generalizado de ChatGPT parece inevitable, pero su empleo descuidado y sin control podría ser un enemigo tanto para la sociedad como para las publicaciones académicas.