Editorial
Inteligencia artificial y psicología: equilibrando innovación
Artificial intelligence and psychology: Balancing innovation and ethics
Inteligencia artificial y psicología: equilibrando innovación
Psicología Iberoamericana, vol. 33, núm. 1, e331860, 2025
Universidad Iberoamericana, Ciudad de México

Introducción
La inteligencia artificial (ia) ha transformado la psicología al cambiar la forma en que se prestan los servicios de salud mental y se investiga en este ámbito. Emplea algoritmos y datos para simular la inteligencia humana, ofreciendo herramientas para el análisis de datos, la automatización de procesos y los tratamientos personalizados (Benítez Rojas, 2024). Este artículo examina el papel transformador de la ia en la psicología, centrándose en su historia, sus aplicaciones, las consideraciones éticas y, en concreto, cómo la ia generativa pone en riesgo la integridad de la investigación.
Historia de la inteligencia artificial
La tecnología de ia permite que las computadoras realicen tareas que, por lo general, requieren inteligencia humana, gracias a algoritmos avanzados y extensos conjuntos de datos. En 1950, Alan Turing introdujo el Test de Turing y formuló la célebre pregunta: “¿Pueden pensar las máquinas?” (Turing, 1950, p. 433). Esta cuestión marcó el inicio de la era de la ia. En la Conferencia de Dartmouth de 1956, John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon acuñaron el término inteligencia artificial y propusieron un proyecto de investigación veraniego centrado en la ia (Benítez Rojas, 2024). Entre los primeros avances destacados estuvieron el desarrollo de eliza en 1965, el primer chatbot, y la victoria de Deep Blue de ibm sobre Garry Kasparov en ajedrez, en 1997 (Benítez Rojas, 2024; Thompson, 2022). El campo evolucionó de manera significativa, especialmente a partir de 2016 con la fundación de Openai. La victoria de AlphaGo sobre Lee Sedol en 2017 puso de relieve el aprendizaje profundo por refuerzo. La introducción de modelos generativos como gpt-1 en 2018 y Chatgpt (gpt-3.5) en 2022 transformó el ámbito de la ia conversacional, y en 2023 continuaron los desarrollos con Chatgpt y otros grandes modelos de lenguaje (llm).
La relación entre la inteligencia artificial y la psicología
A medida que la ia adquiere más protagonismo, debemos reconocer su potencial para transformar el campo de la psicología. En agosto de 2024, la American Psychological Association (apa) publicó una declaración de política en la que reconocía que, si bien la ia puede revolucionar la evaluación, la intervención y la investigación, su desarrollo debe guiarse por principios éticos basados en los derechos humanos y rigurosos estándares científicos (apa, 2024). Investigadores de primer nivel sugieren que la “psicología e ia” están emergiendo como una nueva subdisciplina, sustentada en tres décadas de ciberpsicología (Krägeloh & Medvedev, 2025). Este avance refleja la creciente responsabilidad de nuestro campo para promover usos éticos y prácticos de la ia en la práctica clínica y la investigación.
Usos de la inteligencia artificial en la psicología
La psicología resulta fundamental en el desarrollo de la ia. Mediante el uso de marcos teóricos, los psicólogos pueden validar algoritmos de diagnóstico, detectar sesgos ocultos en modelos de lenguaje y evaluar las implicaciones éticas y sociales de las herramientas digitales. Esta colaboración mejora la precisión diagnóstica y la personalización (Lee et al., 2021). A continuación, se describen en detalle las distintas formas en que los psicólogos pueden aplicar la ia en su disciplina.
Aplicaciones digitales de salud mental
Las aplicaciones móviles y web de salud mental basadas en ia ofrecen apoyo psicológico escalable y bajo demanda; sin embargo, pocas han pasado ensayos clínicos rigurosos (Casu et al., 2024). Por ejemplo, Woebot (lanzado en 2017) proporciona técnicas de terapia cognitivo-conductual (tcc), psicoterapia interpersonal y terapia dialéctico-conductual a través de un motor conversacional basado en reglas; dejará de operar el 30 de junio de 2025, y los usuarios podrán descargar su historial de conversaciones anonimizado hasta esa fecha (Lovett, 2023). En contraste, Wysa utiliza un compañero de ia para supervisar estados emocionales y guiar a los usuarios en ejercicios de tcc, meditaciones guiadas y entrevistas motivacionales, lo que ilustra que la psicología informa tanto el diseño como la evaluación de la eficacia (Wysa, 2025). Los chatbots de ia demuestran eficacia en el bienestar mental y el abordaje de trastornos mentales, aunque persisten retos en cuanto al compromiso del usuario y la integración con el sistema sanitario. Son necesarios grandes ensayos controlados aleatorizados para investigar la combinación de apoyo humano y de ia en el tratamiento de problemas de salud mental (Casu et al., 2024).
Aprendizaje automático y precisión diagnóstica
Los algoritmos de aprendizaje automático pueden ayudar a los psicólogos a detectar patrones complejos en datos conductuales y neuropsicológicos, mejorando así los diagnósticos psiquiátricos y las predicciones de tratamiento (Lee et al., 2021).
pnl en la investigación y la práctica clínica psicológica
El procesamiento de lenguaje natural (pnl) es una rama de la ia que analiza notas clínicas, entrevistas con pacientes, narraciones y publicaciones en redes sociales para identificar marcadores lingüísticos de malestar mental (Lee et al., 2021; Malgaroli et al., 2023; Zhang et al., 2022). Esta tecnología puede ofrecer señales de aviso tempranas para condiciones como la depresión y la psicosis, ya que emplea técnicas de pnl a fin de examinar textos y hallar indicios iniciales de enfermedad mental (Zhang et al., 2022). Sin embargo, los modelos de pnl pueden incorporar sesgos culturales o lingüísticos, lo que podría llevar a la clasificación errónea de dialectos no estándar o expresiones poco comunes (Laricheva et al., 2024).
En la investigación cualitativa, la pnl aporta un conjunto de técnicas impulsadas por ia que simplifican todas las etapas del análisis de texto, desde la preparación de datos hasta la elaboración de informes. Concretamente, la ia puede extraer de manera automática palabras clave y frases relevantes mediante métodos estadísticos y de aprendizaje automático, resaltando términos y temas esenciales en grandes volúmenes de texto.
Uso de la ia en la investigación cualitativa en psicología
Existen diversas formas de emplearla en investigación cualitativa. Con servicios de transcripción impulsados por ia, los investigadores pueden convertir de manera eficiente entrevistas, grupos focales y grabaciones de audio en transcripciones. Software de análisis avanzado, como NVivo y maxqda, utiliza algoritmos de aprendizaje automático para identificar temas, patrones y palabras clave en el texto. Estas aplicaciones ofrecen sugerencias automáticas de codificación e integran sus resultados en flujos de trabajo más amplios, lo que reduce el esfuerzo manual en la transcripción y se mejora el rigor analítico. Asimismo, herramientas de codificación asistida por ia, como AI Coding Beta de atlas.ti, proponen códigos al identificar patrones en los datos. Las herramientas de visualización generan nubes de palabras y clústeres temáticos, simplificando datos cualitativos complejos mediante gráficos claros. Para conjuntos de datos multilingües, traductores automáticos como Chatgpt y otros grandes modelos de lenguaje permiten a los investigadores leer y analizar respuestas en distintos idiomas con precisión (Chan & Tang, 2024; Lee, 2024; Linlin, 2024). La calidad de la traducción depende de la eficacia del prompt de la ia y de la experiencia del investigador en ingeniería de prompts: incluir detalles como el propósito de la traducción, el público objetivo y el contexto es esencial para obtener resultados de alta calidad (Chan & Tang, 2024).
Ética y privacidad
Aunque la ia puede automatizar las evaluaciones iniciales y supervisar el progreso —lo que libera a los psicólogos para abordar tareas clínicas complejas, también introduce graves riesgos éticos y de privacidad relativos al consentimiento informado, la seguridad de los datos, la integridad de la investigación y la alianza terapéutica. Los psicólogos desempeñan un papel fundamental a la hora de identificar violaciones éticas en la investigación y la práctica (Evans, 2024). Aplican principios como la beneficencia, la justicia y el respeto a la persona al enfrentarse a nuevas tecnologías. La supervisión humana es esencial para validar los resultados de la ia y combatir la desinformación. La ia puede agilizar tareas administrativas y mejorar la accesibilidad para investigadores no nativos en inglés, pero resulta imprescindible un estricto control ético y una evaluación humana continua para prevenir daños y mantener la confianza pública (Abrams, 2025; Eacersall et al., 2024).
Por ejemplo, como editora de una revista, he observado un aumento de manuscritos con citas generadas por la ia, algo frecuente cuando se usan herramientas como Chatgpt para redactar artículos. Un tipo es la “referencia quimérica”, en la que se combinan elementos de una cita con otros de otra sin relación entre ellas (Dunford et al., 2024, p. 151). Las referencias quiméricas y otras creadas por ia pueden detectarse comprobando el identificador de objeto digital (doi) o buscando directamente en el volumen y el número de la revista que aparece en la bibliografía. Las citaciones fabricadas socavan la integridad de la investigación y atentan contra la ciencia (Emsley, 2023). A menudo olvidamos que el Chatgpt es, en esencia, una herramienta de procesamiento de lenguaje; no es un sistema de recuperación de información, por lo que no se preocupa de la veracidad o la exactitud, algo que, como científicos, debemos tener muy presente (Walters & Wilder, 2023). La ia generativa también se puede emplear para la manipulación de imágenes y la fabricación de datos. Las “fábricas de artículos” la usan a gran escala. Una forma sencilla de detectar si un artículo fue producido con ia generativa es analizar la bibliografía; este examen revela indicios de posibles problemas de integridad investigadora (Dunford et al., 2024).
Pero ¿cómo afrontamos los desafíos que la ia generativa plantea en nuestro ámbito? En la práctica clínica, debemos abogar por prácticas éticas en su uso . Los profesionales han de priorizar un consentimiento informado transparente, que explique qué datos se recogen, cómo se utilizan y con quién pueden compartirse. Esta información ha de presentarse en formularios interactivos y comprensibles. Además, deben aplicar la minimización de datos, reuniendo solo la información estrictamente necesaria, realizar auditorías de seguridad periódicas y publicar informes resumidos para garantizar responsabilidad y transparencia. Incluir la supervisión humana mediante la revisión de todas las decisiones de alto impacto (por ejemplo, diagnósticos o predicciones de riesgo) es otro elemento clave.
En el ámbito de la investigación, resulta esencial ofrecer más formación y directrices sobre el uso adecuado de la ia generativa y los riesgos de su empleo indebido. Los editores de revistas deben revisar con atención cada bibliografía de los manuscritos recibidos para detectar amenazas a la integridad investigadora. A medida que crece el uso de la ia generativa, debemos mantenernos alerta ante sus posibles riesgos para la veracidad de la investigación.
Conclusión
El rostro de la psicología comienza a transformarse a medida que la ia penetra en la investigación y la práctica clínica. Los investigadores pueden emplear el aprendizaje automático para desentrañar el comportamiento humano, y los clínicos pueden usar agentes conversacionales para facilitar tareas administrativas. A medida que la ia adquiere más relevancia, hemos de volver a la pregunta seminal de Alan Turing —“¿Pueden pensar las máquinas?”—, que nos insta a diferenciar entre la imitación computacional y la auténtica comprensión. Sin embargo, algo que poseemos los seres humanos y que los modelos de ia aún no han adquirido es nuestra capacidad de pensar de forma crítica y tomar decisiones basadas en principios de equidad y justicia social; sin olvidar, a la vez, la necesidad de reflexionar sobre las capacidades y los límites morales y epistémicos de la ia. Debemos protegernos de la excesiva dependencia de sus modelos opacos y preservar las dimensiones humanas únicas de confianza, empatía, ética y pensamiento original, todas ellas vitales en nuestro trabajo como psicólogos e investigadores.
Referencias
Abrams, Z. (2025, enero 1). Artificial intelligence is impacting the field. As AI transforms our world, psychologists are working to channel its power and limit its harm. Monitor on Psychology, 56(1), 46. https://www.apa.org/monitor/2025/01/trends-harnessing-power-of-artificial-intelligence?utm_source=chatgpt.com
apa (American Psychological Association). (2024). Artificial intelligence and the field of psychology.https://www.apa.org/about/policy/statement-artificial-intelligence.pdf
Benítez Rojas, R. V. (2024). Artificial intelligence: Genesis, development, and future. En R. V. Benítez Rojas & F. J. Martínez-Cano (Eds.), Revolutionizing communication (pp. 1-16). crc Press.
Casu, M., Triscari, S., Battiato, S., Guarnera, L., & Caponnetto, P. (2024). AI chatbots for mental health: A scoping review of effectiveness, feasibility, and applications. Applied Sciences, 14, 5889. https://doi.org/10.3390/app14135889
Chan, V., & Tang, W. K. W. (2024). gpt for translation: A systematic literature review. sn Computer Science, 5(8), 1-9. https://doi.org/10.1007/s42979-024-03340-z
Dunford, R., Rosenblum, B., & Hunter, S. I. (2024). Using automated analysis of the bibliography to detect potential research integrity issues. Learned Publishing, 37, 147-153. https://doi.org/10.1002/leap.1600
Eacersall, D., Pretorius, L., Smirnov, I., Spray, E., Illingworth, S., Chugh, R., Strydom, S., Stratton-Maher, D., Simmons, J., Jennings, I., Roux, R., Kamrowski, R., Downie, A., Thong, C., & Howell, K. A. (2024). Navigating ethical challenges in generative AI-enhanced research: The ethical framework for responsible generative AI use. ArXiv https://doi.org/10.48550/arXiv.2501.09021
Emsley, R. (2023). Chatgpt: These are not hallucinations - they're fabrications and falsifications. Schizophrenia, 9(1), 52. https://doi.org/10.1038/s41537-023-00379-4
Evans, A. C. Jr. (2024, octubre 1). Psychology’s role in tackling artificial intelligence, misinformation, loneliness, and immigration. Monitor on Psychology, 55(7), p. 10. https://www.apa.org/monitor/2024/10/psychologists-impact-on-world?utm_source=chatgpt.com
Krägeloh, C. U., & Medvedev, O. N. (2025). A new journal for a new era. Journal of Psychology and AI, 1(1), 2450105. https://doi.org/10.1080/29974100.2025.2450105
Laricheva, M., Liu, Y., Shi, E., & Wu, A. (2024). Scoping review on natural language processing applications in counselling and psychotherapy. British Journal of Psychology, 00, 1-25. https://doi.org/10.1111/bjop.12721
Lee, E. E., Torous, J., De Choudhury, M., Depp, C. A., Graham, S. A., Kim, H. C., Paulus, M. P., Krystal, J. H., & Jeste, D. V. (2021). Artificial intelligence for mental health care: Clinical applications, barriers, facilitators, and artificial wisdom. Biological Psychiatry: Cognitive Neuroscience and Neuroimaging, 6(9), 856-864. https://doi.org/10.1016/j.bpsc.2021.02.001
Lee, T. K. (2024). Artificial intelligence and posthumanist translation: Chatgpt versus the translator. Applied Linguistics Review, 15(6), 2351-2372. https://doi.org/10.1515/applirev-2023-0122
Linlin, L. (2024). Artificial intelligence translator Deepl translation quality control. Procedia Computer Science, 247, 710-717. https://doi.org/10.1016/j.procs.2024.10.086
Lovett, L. (2023). Woe is me: Woebot says farewell to signature app. Behavioral Health Business.https://bhbusiness.com/2025/04/23/woe-is-me-woebot-says-farewell-to-signature-app/
Malgaroli, M., Hull, T. D., Zech, J. M., & Althoff, T. (2023). Natural language processing for mental health interventions: A systematic review and research framework. Translational Psychiatry, 13(1), 309. https://doi.org/10.1038/s41398-023-02592-2
Thompson, C. (2022, February 18). Artificial intelligence. What the history of AI tells us about its future. mit Technology Review.https://www.technologyreview.com/2022/02/18/1044709/ibm-deep-blue-ai-history/
Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59, 433–460. https://doi.org/10.1093/mind/LIX.236.433
Walters, W. H., & Wilder, E. I. (2023). Fabrication and errors in the bibliographic citations generated by Chatgpt. Scientific Reports, 13, 14045. https://doi.org/10.1038/s41598-023-41032-5
Wysa. (2025). Mental health, redefined.https://www.wysa.com/
Zhang, T., Schoene, A. M., Ji, S., & Ananiadou, S. (2022). Natural language processing applied to mental illness detection: A narrative review. npj Digital Medicine, 5(1), 46. https://doi.org/10.1038/s41746-022-00589-7
Información adicional
redalyc-journal-id: 1339