Editorial
Adopción de la inteligencia artificial en el campo de la psicología
Embracing artificial intelligence in the field of psychology
Adopción de la inteligencia artificial en el campo de la psicología
Psicología Iberoamericana, vol. 31, núm. 2, 2024
Universidad Iberoamericana, Ciudad de México

La Inteligencia Artificial (IA) se ha convertido en el juguete favorito, así como en una amenaza metafórica para el mundo intelectual. El lugar antes ocupado por el holocausto nuclear o por desastres naturales terminales, ha sido reemplazado por la IA, que ahora está a la vuelta de la esquina, mientras se introduce en nuestras vidas a un 70% de la velocidad de la luz y a través de una fibra óptica de 9 µm. Desde que los humanos han logrado crear cosas, el miedo a que nuestras propias creaciones nos superen, se vuelvan rebeldes y nos derroten, ha existido en la literatura y la tradición. Las máquinas comienzan de manera muy simple; luego intentamos mejorarlas y, eventualmente, se vuelven tan sofisticadas que se vuelven una amenaza. Algunos autores han filosofado sobre la imposibilidad de que las criaturas se vuelvan contra su creador: la máquina de ajedrez de Maelzel era un engaño, Coppelio se enamoró de la muñeca que fabricó porque estaba mentalmente perturbado, y las reglas de la robótica de Isaac Asimov tenían que respetarse. Sin embargo, otros autores han producido medios que reflejan todo tipo de mundos distópicos en donde nuestras propias creaciones perjudican y desechan a los humanos de manera permanente. Así, nuestro miedo a nuestras propias máquinas no es nuevo.
A medida que avanza, el campo de la psicología se ha ido entrelazando cada vez más con los avances tecnológicos, especialmente la integración de la IA, que presenta un nuevo desafío para los académicos e investigadores en el estudio de la mente. A pesar de las aprehensiones en torno a ella, la IA tiene el potencial de cambiar la forma en que se realiza la investigación psicológica y representa una frontera en su evolución, lo cual resulta emocionante para los psicólogos. Este número editorial explora el papel de la IA en la investigación psicológica y enfatiza cómo puede integrarse también en la práctica existente.
El aumento en el uso de técnicas de procesamiento de lenguaje natural (PLN) y modelos de lenguaje grandes (MLG), como GPT-4, BARD y Perplexity, por parte de investigadores y educadores, indica que la IA ya no es exclusiva de científicos de la computación, ingenieros y analistas de datos (Alqahtani et al., 2023). La IA ha cambiado la forma en que interactuamos con los dispositivos digitales y recibimos recomendaciones personalizadas en línea. Estos avances han impactado significativamente en la psicología, ya que los investigadores aprovechan el poder de la inteligencia artificial para mejorar su trabajo: desde la investigación hasta la atención al paciente e incluso la gestión del correo electrónico. Con la ayuda de herramientas y técnicas impulsadas por la IA, los psicólogos profundizan en las complejidades del comportamiento humano y los procesos cognitivos, mediante el análisis de grandes conjuntos de datos, extracción de conocimientos significativos y desarrollo de modelos predictivos.
Una de las contribuciones más notables a la psicología radica en su capacidad para procesar y analizar grandes cantidades de datos (Salah et al., 2023). Mediante algoritmos de aprendizaje automático, la IA analiza rápidamente grandes conjuntos de datos e identifica en ellos patrones y correlaciones. Esto ha llevado a una comprensión más sofisticada del comportamiento humano y los procesos mentales. Por ejemplo, los algoritmos pueden ayudar en el análisis de contenido, el análisis temático, de aprendizaje automático y el procesamiento del lenguaje natural, ayudando a los psicólogos a obtener una comprensión más profunda de las publicaciones en redes sociales, foros en línea y otras fuentes de datos basadas en texto.
En un estudio reciente, los investigadores desarrollaron un algoritmo llamado "Heurística de Predicción de Inteligencia Artificial para el Suicidio (SAIPH)" que puede predecir ideación y comportamiento suicida futuro mediante el análisis de las cuentas de Twitter de los usuarios de redes sociales (Roy et al., 2020). Este estudio representa una aportación única a nuestra comprensión de cómo los factores ambientales longitudinales contribuyen al riesgo individual de pensamientos y comportamientos suicidas. El uso de la IA para analizar datos de redes sociales y predecir el inicio de enfermedades mentales era algo desconocido anteriormente, y las nuevas perspectivas obtenidas han ampliado nuestra comprensión de los trastornos psicológicos.
La IA también está cambiando el tratamiento de los trastornos de salud mental. Por ejemplo, los chatbots y los terapeutas virtuales manejados por IA se utilizan cada vez más para brindar terapia cognitivo-conductual; sin embargo, creemos que aún no existe el sustituto para un psicólogo humano bien capacitado y empático. A pesar de nuestras creencias personales, los chatbots de IA pueden hacer que la terapia sea más accesible y asequible (Abrams, 2023), y ayudan a eliminar el estigma asociado con buscar tratamiento de salud mental al proporcionar terapia en la privacidad del hogar. Las herramientas de inteligencia artificial también pueden programarse para proporcionar planes de tratamiento personalizados según las necesidades y circunstancias únicas de cada individuo. Si bien, estos chatbots no sustituyen a los terapeutas humanos, tienen el potencial de aumentar la eficiencia y ayudar a los psicólogos a gestionar tareas administrativas (Abrams, 2023).
Por otro lado, la IA también desempeña un papel crucial en la psicología cognitiva. El desarrollo de modelos de IA que pueden imitar la cognición humana está ayudando a los investigadores a explorar procesos cognitivos como la toma de decisiones, la resolución de problemas y la memoria. Además, permite la creación de entornos virtuales para experimentos psicológicos, proporcionando un entorno más controlado e inmersivo para estudiar el comportamiento humano.
A pesar de los avances en el campo impulsados por la IA, su uso plantea importantes cuestiones éticas y metodológicas que deben abordarse. Se sabe que los modelos de IA generan desinformación y cometen errores al "alucinar"; por lo tanto, debemos ser cautelosos. Los investigadores en el campo de la IA y la salud argumentan que la responsabilidad por los errores generados por ella sigue siendo un área gris, sin una entidad clara que pueda ser señalada como responsable (Iqbal et al., 2023). Estos problemas legales hacen que el uso de la IA en los servicios de salud mental sea más polémico, ya que debemos asegurarnos de contar con un marco bien establecido que proteja de daños a los pacientes (Iqbal et al., 2023). Otras cuestiones éticas incluyen preocupaciones sobre la privacidad, la protección de datos, la transparencia de los algoritmos de la IA y su potencial de sesgo (Iqbal et al., 2023; Kelly et al., 2019; Terra et al., 2023). Los modelos de IA también tienen dificultades para comprender el contexto social, lo que puede ser una limitación si se les utiliza para ampliar la investigación psicológica (Salah et al., 2023). Como investigadores y profesionales, somos responsables de considerar cuidadosamente las implicaciones de la IA en nuestro trabajo y asegurarnos de que estas herramientas se utilicen de manera responsable y ética. Por lo tanto, es importante que, si queremos combinar la IA con nuestra investigación y práctica psicológica, estemos al tanto de las últimas pautas éticas, de mejores prácticas y avances tecnológicos (Salah et al., 2023).
Además, el uso de la IA en psicología plantea importantes preguntas metodológicas sobre la validez y confiabilidad de los hallazgos de la investigación. A medida que los algoritmos se vuelven más sofisticados, existe el riesgo de que los investigadores dependan demasiado de estas herramientas, sin comprender completamente las suposiciones y limitaciones subyacentes de los algoritmos. Esto podría llevar a resultados sesgados o inexactos y podría socavar la credibilidad en el campo de la psicología. Es por esa razón que los investigadores deben ser transparentes sobre el uso de la IA y considerar cuidadosamente las posibles limitaciones y sesgos de estas herramientas en su investigación.
A medida que abrazamos las oportunidades que presenta la IA, debemos permanecer vigilantes y proactivos para abordar las amenazas asociadas con su uso. Nuestro repertorio de respuestas podría comenzar con el pánico. Podemos traer de vuelta esas imágenes cinematográficas y el miedo de crear un mundo en el que la IA se apodere y haga nuestro trabajo. Son naturales nuestros temores de que pueda reemplazarnos fácilmente en el trabajo y, como resultado, perdamos nuestros empleos y nos volvamos obsoletos, reduciendo así nuestro valor en la sociedad. Existen algunas opciones: podríamos intentar desesperadamente detener los avances de la IA y volver al siglo anterior, al igual que los maestros que prohibieron la pluma esferográfica, convencidos del mal que haría a la caligrafía y al pensamiento de sus estudiantes. Pero sería ridículo imaginar que podemos controlar o supervisar el proceso de investigación para asegurarnos de que no sea realizado por la IA. Podríamos adoptar la arrogancia dogmática de afirmar, sin evidencia alguna, que "nunca una máquina podrá reemplazar la mente humana". Aunque esto bien podría ser verdad, sin cierta previsión que nos falta, no hay forma de estar seguro. La otra opción, que es la que sugerimos, es dar un paso atrás para cuestionarnos honestamente qué estamos haciendo y qué es lo que una máquina no puede hacer. La IA debería usarse para complementar y avanzar nuestra investigación y práctica. Debemos preguntarnos: ¿cómo puede la IA promover la disciplina de la psicología y ayudar a tratar los problemas de salud mental? A medida que esta tecnología asume algunas de nuestras funciones, podemos tener más tiempo para hacer lo que hacemos excepcionalmente bien. Todo lo que requerimos ahora es descubrir qué podría ser eso.
Por lo tanto, a pesar de los desafíos y las dudas en torno a la IA, los psicólogos deben abrazar la oportunidad de volverse competentes en su uso. La colaboración con científicos de la computación, ingenieros y analistas de datos es crucial para asegurar que las tecnologías se alineen con las necesidades y estándares éticos del campo. La IA nos ofrece la oportunidad, como investigadores, de crear métodos innovadores para estudiar y tratar problemas de salud mental.
En conclusión, gracias a todos los que han tenido la paciencia de leer hasta aquí, y ahora los invitamos a intentar identificar el párrafo de este editorial que fue escrito por IA.
Referencias
Abrams, Z. (2023). IA is changing every aspect of psychology. Here’s what to watch for. Monitor on Psychology, 54(5), 46. https://www.apa.org/monitor/2023/07/psychology-embracing-ai
Alqahtani, T., Badreldin, H. A., Alrashed, M., Alshaya, A. I., Alghamdi, S. S., bin Saleh, K., Alowais, S. A., Alshaya, O. A., Rahman, I., Al Yami, M. S., & Albekairy, A. M. (2023). The emergent role of artificial intelligence, natural learning processing, and large language models in higher education and research. Research in Social and Administrative Pharmacy, 19(8), 1236–1242. https://doi.org/10.1016/j.sapharm.2023.05.016
Iqbal, J., Cortés Jaimes, D. C., Makineni, P., Subramani, S., Hemaida, S., Thugu, T. R., Butt, A. N., Sikto, J. T., Kaur, P., Lak, M. A., Augustine, M., Shahzad, R., & Arain, M. (2023). Reimagining healthcare: Unleashing the power of artificial intelligence in medicine. Cureus. https://doi.org/10.7759/cureus.44658
Kelly, C. J., Karthikesalingam, A., Suleyman, M., Corrado, G., & King, D. (2019). Key challenges for delivering clinical impact with artificial intelligence. BMC Medicine, 17(1), 195. https://doi.org/10.1186/s12916-019-1426-2
Roy, A., Nikolitch, K., McGinn, R., Jinah, S., Klement, W., & Kaminsky, Z. A. (2020). A machine learning approach predicts future risk to suicidal ideation from social media data. NPJ Digital Medicine, 3(1), 78. https://doi.org/10.1038/s41746-020-0287-6
Salah, M., Al Halbusi, H., & Abdelfattah, F. (2023). May the force of text data analysis be with you: Unleashing the power of generative IA for social psychology research. Computers in Human Behavior: Artificial Humans, 1(2), 100006. https://doi.org/10.1016/j.chbah.2023.100006
Terra, M., Baklola, M., Ali, S., & El-Bastawisy, K. (2023). Opportunities, applications, challenges and ethical implications of artificial intelligence in psychiatry: A narrative review. The Egyptian Journal of Neurology, Psychiatry and Neurosurgery, 59(1), 1-10. https://doi.org/10.1186/s41983-023-00681-z