Artículo Científico

OPTIMIZACIÓN DE LA COMPUTACIÓN HUMANA MULTITUD CON IUIS ADAPTABLES PARA OBTENER ESCALABILIDAD Y EXPLICACIÓN

OPTIMIZING CROWDSOURCED HUMAN COMPUTATION WITH ADAPTIVE INTELLIGENT USER INTERFACES FOR SCALABILITY AND EXPLAINABILITY

R. John Martin Universidad de Jazan, Jazan, Arabia Saudita

OPTIMIZACIÓN DE LA COMPUTACIÓN HUMANA MULTITUD CON IUIS ADAPTABLES PARA OBTENER ESCALABILIDAD Y EXPLICACIÓN

Ingenius. Revista de Ciencia y Tecnología, no. 35, pp. 52-68, 2026

Universidad Politécnica Salesiana

2026. Universidad Politécnica Salesiana

Received: 24 February 2025

Revised: 09 July 2025

Accepted: 22 October 2025

Published: 01 January 2026

Resumen: Las interfaces de usuario inteligentes (IUI) representan un enfoque transformador para mejorar la computación colectiva y la computación humana, mediante la optimización en la distribución de tareas, el fortalecimiento de la colaboración entre humanos e inteligencia artificial (IA) y la garantía de la seguridad de los datos. Este estudio presenta un análisis basado en estudios de caso sobre una IUI adaptativa diseñada para mejorar la escalabilidad, el compromiso de los usuarios y la precisión en la resolución de problemas a gran escala mediante crowdsourcing. A través del examen de tres plataformas clave —Amazon Mechanical Turk (MTurk), Zooniverse (plataforma de ciencia ciudadana) y un análisis de análisis de imágenes médicas asistido por IA en el ámbito de la salud pública—se evalúa el impacto de la asignación dinámica de tareas, la inteligencia artificial explicable (XAI) y la gamificación sobre la participación de los usuarios y el rendimiento en las tareas. Los resultados indican que las IUI adaptativas mejoran la precisión de las tareas de acuerdo con el nivel de habilidad del usuario, reducen el tiempo de ejecución a medida que los participantes adquieren experiencia y aumentan la retención de voluntarios gracias a los mecanismos de gamificación. Asimismo, la integración de XAI en el diagnóstico médico asistido por IA incrementa de manera significativa tanto los niveles de confianza como la precisión diagnóstica. Estos hallazgos evidencian la escalabilidad, adaptabilidad y eficacia de las IUI en el campo de la computación humana, y ofrecen un marco de referencia para futuros avances en la optimización de tareas y la explicabilidad de los sistemas inteligentes.

Palabras clave: interfaces de usuario inteligentes (IUI), cómputo humano, interacción humanocomputadora IHC, computación colaborativa, inteligencia artificial explicable (XAI), asignación adaptativa de tareas.

Abstract: Intelligent User Interfaces (IUIs) represent a transformative paradigm for advancing crowdsourced and human computation by optimizing task distribution, strengthening human–AI collaboration, and ensuring data integrity. This study presents a case study–driven analysis of an adaptive IUI framework designed to enhance scalability, engagement, and accuracy in large-scale, crowd-based problem-solving. By examining three representative platforms—Amazon Mechanical Turk (MTurk), Zooniverse (a citizen science platform), and AI-assisted medical image analysis in public health—the research investigates the influence of dynamic task allocation, Explainable AI (XAI), and gamification on user participation and task performance. The findings demonstrate that adaptive IUIs improve task accuracy relative to user expertise, reduce completion time as experience increases, and strengthen volunteer retention through gamified elements. Moreover, integrating XAI into AI-assisted medical diagnostics substantially elevates both trust and diagnostic precision. Collectively, these outcomes underscore the scalability, adaptability, and efficacy of IUIs in human computation, offering a comprehensive framework for future advancements in task optimization and explainability.

Keywords: Intelligent User Interfaces (IUIs), Human Computation, Human–Computer Interaction (HCI), Crowd Computing, Explainable Artificial Intelligence (XAI), Adaptive Task Allocation.

Forma sugerida de citar: APA

R. J. Martin “Optimización de la computación humana multitud con iuis adaptables para obtener escalabilidad y explicación,” Ingenius, Revista de Ciencia y Tecnología, N.◦ 35, pp. 52-68, 2026. doi: https://doi.org/10.17163/ings.n35.2026.04.

1. Introducción

La computación colectiva y la computación humana se han convertido en componentes esenciales para la ejecución de tareas complejas y de gran escala que requieren inteligencia humana complementaria a la inteligencia artificial (IA). Entre estas actividades se incluyen el etiquetado de datos y la moderación de contenidos en plataformas como Amazon Mechanical Turk (MTurk). No obstante, estos sistemas enfrentan desafíos relacionados con la eficiencia operativa, la participación de los usuarios y la asignación equitativa de tareas.

Las interfaces de usuario inteligentes (Intelligent User Interfaces, IUI) abordan estas limitaciones mediante la incorporación de mecanismos adaptativos, como la retroalimentación en tiempo real, la asignación de tareas basada en la experiencia y la inteligencia artificial explicable (XAI) en plataformas de trabajo colaborativo [1]. Al personalizar la experiencia del usuario y optimizar los flujos de trabajo, las IUI mejoran la escalabilidad, incrementan el rendimiento de los usuarios y fomentan una colaboración más efectiva entre humanos e IA.

Una de las principales limitaciones de las plataformas de computación colectiva actuales radica en su enfoque estático y uniforme para la asignación de tareas, el cual no considera las diferencias individuales en habilidades y desempeño, lo que con frecuencia compromete la calidad de los resultados. Además, la interacción entre los usuarios humanos y los componentes de inteligencia artificial continúa siendo limitada, lo que conduce a resultados subóptimos en la ejecución de las tareas.

Las interfaces de usuario inteligentes (IUI) abordan estas deficiencias mediante el modelado de usuarios, el análisis del desempeño en tiempo real y la retroalimentación impulsada por IA, elementos que en conjunto permiten una asignación adaptativa de tareas y fomentan una colaboración más efectiva entre los sistemas humanos y los basados en IA [2].

Este artículo explora el potencial transformador de las IUI para mejorar la escalabilidad, la eficiencia y la calidad en la computación humana basada en multitudes, especialmente a medida que estas plataformas se aplican con mayor frecuencia a tareas complejas, como el entrenamiento de modelos de inteligencia artificial y la respuesta ante desastres.

A través de un análisis basado en estudios de caso, el artículo evalúa la viabilidad e impacto de las IUI adaptativas, sin implementación práctica del sistema, en cuatro dimensiones clave:

  1. 1. Distribución adaptativa de tareas.
  2. 2. Inteligencia artificial explicable en la computación humana.
  3. 3. Modelado de usuario.
  4. 4. Gamificación y medidas de seguridad.

Al examinar tanto plataformas de propósito general como entornos especializados, estos estudios de caso ofrecen una evaluación integral de cómo las IUI pueden fortalecer la colaboración entre humanos e IA en sistemas de computación colectiva.

Los principales objetivos de esta investigación son los siguientes:

  1. 1. Determinar la interacción entre el modelado de usuario, la gamificación y la distribución adaptativa de tareas en entornos de trabajo colaborativo a gran escala.
  2. 2. Examinar el impacto de la gamificación, la distribución adaptativa de tareas y el modelado de usuario en la participación de los usuarios y la finalización de tareas dentro de programas de ciencia ciudadana.
  3. 3. Evaluar cómo la inteligencia artificial explicable (XAI) contribuye a mejorar la participación y aumentar la confianza de los usuarios en dominios especializados, como el de la salud pública.

Se presentan tres estudios de caso que demuestran estos objetivos, tanto de forma independiente como de manera sinérgica, en contextos del mundo real, ofreciendo perspectivas valiosas sobre la escalabilidad, la eficiencia y la confiabilidad de los sistemas de computación humana.

Al centrarse en estos casos, el artículo ilustra el potencial teórico de las IUI para abordar los desafíos reales en la computación colectiva.

Los resultados obtenidos a partir de los estudios de caso establecen un marco de referencia para el desarrollo y la evaluación futuros de sistemas de computación humana impulsados por IUI, allanando el camino hacia la próxima generación de soluciones de computación colectiva [3].

El resto de este artículo se organiza de la siguiente manera: en la sección 1.1 revisa la literatura relevante, con énfasis en la distribución adaptativa de tareas, la inteligencia artificial explicable (XAI), el modelado de usuario, la gamificación y la seguridad en los sistemas de computación humana.

En la sección 2 describe las metodologías empleadas para explorar estos conceptos y su aplicación mediante estudios de caso.

La sección 2.5 presenta tres estudios de caso—Amazon Mechanical Turk (MTurk), Zooniverse y un proyecto de salud pública que incorpora XAI en diagnósticos médicos—, los cuales ilustran las aplicaciones prácticas de los métodos propuestos.

La sección 3 analiza los resultados obtenidos a partir de estos casos, destacando cómo las metodologías adaptativas contribuyen a mejorar la escalabilidad, la participación y la confianza en los sistemas colaborativos.

Finalmente, la sección 4 concluye el artículo resumiendo los hallazgos principales y planteando las direcciones para futuras investigaciones.

1.1. Trabajos relacionados

Esta sección revisa el estado actual de la investigación sobre el uso de IUI orientadas a mejorar la escalabilidad, la colaboración y la participación de los usuarios en plataformas de computación humana y computación colectiva.

La discusión se centra en áreas clave, como la asignación dinámica de tareas, que optimiza la distribución de actividades en función del desempeño del usuario en tiempo real, y la XAI, que incrementa la transparencia y la confianza en la resolución de problemas asistida por IA.

Asimismo, se analiza el papel de la gamificación en la motivación de los usuarios, junto con la relevancia de la seguridad y la privacidad en estos entornos, y se examinan las formas en que las IUI adaptativas fortalecen la colaboración y la escalabilidad de los sistemas.

En conjunto, estos temas ofrecen una visión integral del panorama actual de la investigación y destacan oportunidades para el desarrollo de nuevas líneas de estudio en el ámbito de la computación colectiva impulsada por IA.

1.2. Asignación dinámica de tareas en la computación humana

Schmidbauer et al. [4] investigaron la asignación de tareas entre humanos y robots en entornos industriales, demostrando que la distribución adaptativa de tareas (ATS, por sus siglas en inglés), la cual permite a los trabajadores influir en la asignación de responsabilidades operativas, mejora los niveles de satisfacción entre los operadores.

Aunque este estudio destacó la relevancia de otorgar control a los participantes humanos, también identificó inconsistencias en los procesos de asignación de tareas, lo que evidencia la necesidad de una mejor alineación entre las preferencias humanas y los mecanismos automatizados de asignación.

En contraste, Wen et al. [5] propusieron un marco de asignación de tareas para redes de sensores inalámbricos (WSN) en entornos de computación perimetral, cuyo énfasis en la eficiencia energética y la confiabilidad mediante la ejecución paralela de tareas reveló el potencial del modelo para reducir significativamente el consumo de energía y el tiempo de ejecución.

Sin embargo, se identificaron limitaciones relacionadas con la tolerancia a fallos y las condiciones dinámicas de la red, lo que sugiere que se requiere investigación adicional para mejorar la robustez general del sistema.

Faccio et al. [6] ampliaron la investigación sobre la asignación de tareas al ámbito de la robótica colaborativa, al introducir un modelo adaptativo que ajusta la velocidad del robot en función de la distancia entre el robot y el operador humano, con el propósito de equilibrar la productividad y la seguridad. Sus hallazgos demostraron mejoras significativas en el rendimiento, aunque también revelaron compensaciones inherentes, particularmente la dificultad de mantener la seguridad sin comprometer la productividad. Estos resultados subrayan la necesidad de mecanismos de adaptabilidad en tiempo real en entornos de trabajo dinámicos.

Yuan et al. [7] propusieron un marco de asignación adaptativa de tareas (ATA-HRL) para equipos compuestos por múltiples humanos y múltiples robots (MHMR), empleando aprendizaje por refuerzo jerárquico para mejorar la adaptabilidad de las tareas. Su enfoque de dos etapas, que comprende la asignación inicial de tareas (ITA) y la reasignación condicional de tareas (CTR), resultó eficaz; no obstante, el estudio destacó la importancia crítica de realizar asignaciones iniciales precisas, especialmente en entornos caracterizados por alta incertidumbre.

De manera similar, Tamali et al. [8] investigaron la asignación distribuida de tareas en sistemas multirrobot, utilizando un algoritmo voraz para optimizar la distribución de tareas en entornos complejos. Su enfoque, basado en simulaciones e implementado mediante el sistema operativo de robots (ROS), demostró mejoras notables en la eficiencia de finalización de tareas; sin embargo, se identificaron la escalabilidad y las limitaciones de comunicación en escenarios del mundo real como desafíos clave para futuras investigaciones.

1.3. Inteligencia artificial explicable en la resolución de problemas mediante trabajo colaborativo

Los estudios revisados presentan un conjunto diverso de enfoques y perspectivas sobre la evaluación colaborativa y la XAI, destacando la participación activa de los usuarios y la mejora en la calidad de las explicaciones mediante técnicas de trabajo colaborativo y mecanismos de entrada selectiva.

A pesar de sus diferentes objetivos, estos trabajos comparten un énfasis común en aprovechar la retroalimentación humana para mejorar la interpretabilidad y aumentar la precisión de los modelos de inteligencia artificial, consolidando así la sinergia entre el juicio y los sistemas automatizados de aprendizaje.

Tanto Jain et al. [9] como Kou et al. [10], [11] emplearon el trabajo colaborativo para mejorar las explicaciones de la inteligencia artificial, aunque sus enfoques difirieron en alcance y aplicación.

Jain et al. [9] se centraron en evaluar las técnicas de XAI mediante un “juego con propósito” (GWAP), que permitió a los usuarios clasificar métodos como LIME y Grad-CAM en función de su nivel de interpretabilidad. Esta estrategia basada en el juego identificó a Grad-CAM como el método de XAI más efectivo para la clasificación de imágenes.

En contraste, Kou et al. [10] desarrollaron Crowd Graph, un marco de conocimiento multimodal diseñado para detectar y explicar las fauxtografías en publicaciones de redes sociales, mediante la integración de datos textuales y visuales.

Ambos estudios aprovecharon el potencial de la participación colectiva para generar retroalimentación significativa y mejorar el rendimiento de los sistemas IA. Sin embargo, una limitación crítica en ambos enfoques radica en la fiabilidad de los datos generados mediante crowdsourcing, lo que pone de relieve la necesidad de mecanismos más robustos para verificar y mantener la calidad de los datos.

Kou et al. [11] examinaron además el trabajo colaborativo mediante el marco HC-COVID, orientado a la detección y explicación de la desinformación relacionada con la COVID-19. El diseño jerárquico de HC-COVID, que integra contribuciones tanto de trabajadores expertos como no expertos, constituye una extensión de su investigación previa.

Este enfoque multinivel mejoró de manera significativa la precisión en la detección de desinformación y la calidad de las explicaciones generadas. Sin embargo, al igual que otros modelos basados en crowdsourcing, enfrenta el desafío persistente del sesgo y la inconsistencia en los datos aportados por participantes no expertos, lo que resalta la necesidad de marcos más estructurados que garanticen la fiabilidad y la precisión de los resultados.

Sawant et al. [12] y Lai et al. [13] abordaron el sesgo y la subjetividad en las explicaciones de la inteligencia artificial, especialmente en dominios socialmente sensibles, como la detección de discurso de odio y el comportamiento comunicativo de los usuarios.

Sawant et al. [12] emplearon una clasificación basada en XAI mediante TabNet, con el propósito de identificar discursos de odio en lenguas con recursos limitados, incluido el hindi, y demostraron cómo los contextos sociopolíticos pueden introducir sesgos en las anotaciones humanas.

En comparación, Lai et al. [13] desarrollaron un marco de explicación selectiva que adapta las explicaciones generadas por la IA a las preferencias del usuario, considerando factores como la relevancia y la anormalidad, lo que permite interacciones más sensibles al contexto.

Ambos estudios enfatizan la importancia de alinear las salidas de la IA con la interpretación humana para reducir el sesgo y mejorar la precisión. Sin embargo, mientras que Sawant et al. [12] demostraron que los contextos sociopolíticos influyen significativamente en el sesgo de los sistemas de IA, Lai et al. [13] se centraron en mitigar la carga cognitiva y los sesgos del usuario mediante mecanismos de entrada selectiva, destacando el delicado equilibrio entre la participación humana y la autonomía de la IA.

Una comparación crítica entre estos estudios revela que, si bien el trabajo colaborativo (crowdsourcing) constituye un enfoque eficaz para mejorar las explicaciones de la inteligencia artificial, también introduce desafíos significativos relacionados con la calidad de los datos y el control del sesgo.

Por ejemplo, la dependencia de los datos generados mediante crowdsourcing en Jain et al. [9] y Kou et al. [10], [11] demuestra que, aunque estos métodos pueden incrementar el rendimiento del sistema, implican de forma inherente el riesgo de inconsistencias en la calidad del contenido generado por humanos.

De manera similar, Sawant et al. [12] y Lai et al. [13] resaltaron la vulnerabilidad de los modelos de IA que dependen de anotaciones humanas frente a diversas formas de sesgo, en particular en dominios caracterizados por sensibilidades sociopolíticas o alta subjetividad.

A pesar de estas limitaciones, todos los estudios coinciden en que los marcos adaptativos y selectivos—ya sean modelos jerárquicos como HC-COVID, evaluaciones basadas en juegos como Eye into AI o técnicas de explicación selectiva— representan una dirección prometedora hacia sistemas de IA más transparentes, interpretables y centrados en el usuario.

1.4. Gamificación para mejorar la participación del usuario

Los estudios revisados sobre gamificación en diversos contextos —desde la promoción de la salud hasta la formación de empleados y la educación formal—evidencian un enfoque común orientado a la participación activa del usuario, aplicando diferentes elementos de juego para influir en el comportamiento, incrementar la motivación y mejorar los resultados en distintos entornos de aplicación. A pesar de las similitudes en sus objetivos, estos trabajos divergen en sus metodologías y destacan desafíos específicos relacionados con el mantenimiento del compromiso a largo plazo.

Zhang et al. [14] y Hellín et al. [15] examinaron la gamificación como estrategia para el cambio de comportamiento en los ámbitos de la salud y la educación, respectivamente.

Zhang et al. [14] desarrollaron DMCoach+, un sistema gamificado diseñado para promover estilos de vida saludables mediante una estructura de dos niveles que integra metas personales y competencia social. En contraste, Hellín et al. crearon un entorno de aprendizaje gamificado que incorpora puntos, tablas de clasificación y medallas para incrementar la motivación de los estudiantes en cursos de programación.

Ambos estudios demostraron que la gamificación puede mejorar significativamente la participación; aunque también identificaron limitaciones críticas. Zhang et al. [14] observaron que la comunicación unidireccional con los médicos limitó el compromiso sostenido de los usuarios, mientras que Hellín et al. [15] señalaron que los estudiantes con clasificaciones más bajas podían desmotivarse por el efecto de las tablas de posiciones.

Estos hallazgos sugieren que equilibrar la competencia y la interacción personalizada es fundamental para mantener la participación a largo plazo, tanto en contextos de salud como educativos.

Lu et al. [16] y Bitrián et al. [17] investigaron el papel de la gamificación en contextos comerciales, centrándose en la participación del usuario con marcas y aplicaciones móviles.

Lu et al. [16] integraron el marco Mecánicas- Dinámicas-Estética (MDA) en la aplicación Nike Run Club (NRC), destacando que el disfrute fue el factor más significativo para impulsar la participación del usuario y la lealtad hacia la marca.

En contraste, Bitrián et al. examinaron cómo los elementos del diseño de juegos satisfacen las necesidades psicológicas de los usuarios, encontrando que los componentes orientados al logro y a la interacción social aumentaron la participación al satisfacer las necesidades de competencia, autonomía y relación.

Ambos estudios demostraron que la gamificación incrementa la participación del usuario, aunque también resaltaron la importancia de equilibrar la diversión y la personalización para mantener el interés a largo plazo.

Finalmente, Alfaqiri et al. [18] desarrollaron un marco de gamificación para plataformas de capacitación en línea, con un enfoque en la participación de los empleados. La integración de múltiples elementos de juego, como puntos, desafíos y tablas de clasificación, reflejó técnicas utilizadas en contextos educativos y comerciales.

De manera similar a lo encontrado por Bitrián et al. [17], Alfaqiri et al. [18] encontraron que estos elementos incrementaron de manera efectiva la participación; sin embargo, también señalaron que el efecto de novedad tiende a disminuir con el tiempo, lo que coincide con las preocupaciones planteadas en otros estudios respecto a la sostenibilidad a largo plazo de los sistemas gamificados.

1.5. Preocupaciones de seguridad y privacidad en las plataformas de computación colectiva

Owoh y Singh [19] desarrollaron SenseCrypt, un marco destinado a aplicaciones de detección colectiva móvil (MCS), que integra un algoritmo K-means con un esquema de firmado y cifrado agregado sin certificados (CLASC) para gestionar el etiquetado de datos sensibles y garantizar una transmisión segura.

Este enfoque redujo los costos computacionales y la sobrecarga de comunicación, logrando que el marco fuera robusto frente a múltiples vectores de ataque, incluidos los ataques de repetición y falsificación.

No obstante, la adaptabilidad del marco a casos de uso más amplios continúa siendo limitada, lo que indica la necesidad de investigaciones adicionales orientadas a mejorar su escalabilidad y viabilidad de implementación práctica.

En contraste, Li et al. [20] propusieron CrowdSFL, un marco que integra la tecnología blockchain con el aprendizaje federado para proteger los datos de manera descentralizada. Este diseño mantiene la privacidad al conservar los datos de forma local, mientras utiliza contratos inteligentes para habilitar una comunicación segura entre nodos.

El aprendizaje federado redujo significativamente los riesgos de privacidad al evitar la centralización de información sensible, diferenciando este enfoque del método basado en cifrado y firmado (signcryption) empleado en SenseCrypt. Además, la integración de un algoritmo de recifrado basado en ElGamal en CrowdSFL añadió una capa adicional de seguridad.

Aunque los resultados demostraron mejoras en precisión, seguridad y eficiencia computacional, la complejidad del sistema y la sobrecarga de comunicación asociadas con las arquitecturas blockchain fueron identificadas como desafíos clave.

En comparación, ambos marcos ofrecen mecanismos de seguridad robustos para la protección de datos sensibles en entornos de trabajo colaborativo (crowdsourcing). Sin embargo, SenseCrypt se enfoca principalmente en un esquema eficiente de cifrado y firmado (signcryption) eficiente para datos de sensores móviles, mientras que CrowdSFL prioriza la preservación de la privacidad de forma descentralizada, mediante blockchain y aprendizaje federado.

Las sobrecargas de comunicación observadas en el estudio de Li et al. [20] contrastan con la eficiencia computacional demostrada por Owoh y Singh [19], lo que evidencia la compensación inherente entre descentralización y complejidad del sistema.

A pesar de estas diferencias, ambos estudios subrayan la necesidad continua de soluciones adaptables y escalables que garanticen la seguridad y la privacidad de los datos en sistemas distribuidos basados en crowdsourcing.

1.6. IUI adaptativa para mejorar la colaboración y la escalabilidad en el trabajo colaborativo (crowdwork)

Los estudios revisados presentan diversos enfoques para mejorar la colaboración y la escalabilidad en sistemas humano-IA, mediante el uso de marcos adaptativos que integran dinámicamente la intervención humana, los procesos IA y las contribuciones del crowdsourcing. Aunque cada sistema aplica estos principios de manera particular, todos comparten el objetivo de mejorar la eficiencia y la calidad colaborativa dentro de contextos de alta complejidad.

En este marco, Siangliulue et al. [21] desarrollaron IDEAHOUND, un sistema orientado a la ideación colaborativa a gran escala, basado en modelado semántico en tiempo real. Al capturar las interacciones de los usuarios en una pizarra virtual, el sistema genera dinámicamente sugerencias diversas y creativas, fomentando la diversidad de ideas y la participación activa de los colaboradores.

No obstante, la dependencia del sistema de los agrupamientos generados por los usuarios, que en ocasiones carecen de coherencia o claridad semántica, pone de relieve el desafío de aprovechar plenamente los juicios semánticos colectivos generados mediante crowdsourcing.

En contraste, Abbas et al. [21] desarrollaron Crowd of Oz (CoZ), un sistema conversacional de IA en tiempo real que integra crowdsourcing sincrónico para gestionar diálogos sociales complejos, especialmente en el ámbito del apoyo a la salud mental.

A diferencia de IDEAHOUND [22], CoZ pone un énfasis particular en la comunicación afectiva durante las interacciones en tiempo real. Aunque el sistema mejora de manera efectiva la calidad de las conversaciones, enfrenta desafíos asociados con la retención continua de los trabajadores y la garantía de respuestas de alta calidad, lo que subraya la necesidad de una mayor capacitación y del desarrollo de competencias comunicativas y empáticas entre los colaboradores de la multitud.

Por su parte, Ponti y Seredko [23] también analizaron la colaboración humano-IA, centrándose en el contexto de la ciencia ciudadana. Su marco de asignación de tareas delegó actividades simples, como la recolección de datos, a los participantes ciudadanos, mientras que los sistemas de IA y los expertos del dominio asumieron los procesos más complejos, como el análisis de información.

El estudio destaca que el aumento de las capacidades de la IA puede marginar inadvertidamente a los voluntarios, lo que genera preocupaciones sobre la sostenibilidad de su compromiso y participación a largo plazo. Este desafío también fue identificado por Siangliulue et al. [22] en IDEAHOUND, en relación con la agrupación de ideas generadas por los usuarios, lo que refuerza la importancia de diseñar mecanismos de colaboración equilibrados entre la IA y los participantes humanos.

Basándose en el enfoque de los sistemas centrados en el ciudadano, Stein y Yazdanpanah [24] introdujeron C-MAS, un sistema multiagente diseñado para otorgar a los ciudadanos un mayor control en los procesos de toma de decisiones dentro de los dominios de movilidad y energía inteligentes.

Al igual que CoZ [21], C-MAS pone un fuerte énfasis en la privacidad, la equidad y la transparencia, pero amplía estos principios al permitir la participación activa de los ciudadanos en la configuración de decisiones mediante el uso de agentes inteligentes personales.

No obstante, el desafío de la confianza, especialmente en lo relativo a la protección de la privacidad y a la toma de decisiones éticamente responsables, permanece como un problema central, reflejando la misma necesidad de fiabilidad y transparencia observada en el modelo de comunicación afectiva de CoZ.

Por último, Gupta et al. [25] desarrollaron COHUMAIN, un marco diseñado para fomentar la inteligencia colectiva en equipos humano-IA mediante una arquitectura sociocognitiva. Al compartir recursos cognitivos a través de sistemas de memoria y atención transaccional, COHUMAIN busca mejorar la toma de decisiones colaborativa y aumentar la escalabilidad, en paralelo con la ideación colaborativa facilitada por IDEAHOUND [22].

Sin embargo, Gupta et al. identificaron un desafío persistente en el mantenimiento de la confianza a largo plazo entre los colaboradores humanos y los sistemas de IA, un problema también observado por Stein y Yazdanpanah [24] en el contexto de la confianza entre ciudadanos y agentes inteligentes.

Si bien cada uno de estos marcos logra avanzar en la colaboración adaptable y la escalabilidad en diferentes dominios de aplicación, todos comparten desafíos comunes relacionados con la confianza, la retención de participantes y la calidad de los resultados colaborativos. Estos obstáculos recurrentes subrayan la necesidad continua de perfeccionamiento en la formación de los participantes, la asignación dinámica de tareas y la integración humano-IA, a fin de construir sistemas impulsados por multitudes que sean verdaderamente escalables, fiables y eficaces.

2. Materiales y métodos

Esta sección presenta un marco teórico y evaluativo para analizar la eficacia de las interfaces de usuario inteligentes (IUI) adaptativas en sistemas de computación humana escalables. El enfoque se fundamenta en principios consolidados de interfaces adaptativas de bucle cerrado, en las cuales el comportamiento de la interfaz se ajusta continuamente al contexto del usuario y a sus preferencias en evolución.

En este modelo dinámico de retroalimentación, las acciones del usuario generan señales que informan las políticas adaptativas de la IUI, modulando componentes tales como la distribución de tareas, la personalización, la gamificación y la explicabilidad. Este enfoque es coherente con los marcos empleados en los Sistemas Producto-Servicio inteligentes impulsados por IA (SPSS) [26].

Al sincronizar el comportamiento del usuario con las respuestas de la interfaz en tiempo real, este marco proporciona una base teórica robusta para la distribución adaptativa de tareas y el modelado del usuario, elementos esenciales para la optimización de la colaboración humano-IA en entornos de crowdsourcing.

Esta investigación emplea un diseño de estudio de caso mixto, que integra marcos teóricos —como la Teoría de la Actividad, el Modelo de Aceptación Tecnológica y los principios de interfaces de usuario adaptativas—con datos empíricos cuantitativos recopilados de Amazon Mechanical Turk (MTurk), Zooniverse y un entorno clínico basado en inteligencia artificial explicable (XAI).

En lugar de realizar ensayos controlados aleatorizados, el estudio recopiló métricas cuantitativas piloto y las analizó utilizando la metodología de estudio de caso TRIPLE C [27]. Los indicadores de desempeño incluyeron la precisión de las tareas, el tiempo de finalización, las tasas de error, la retención de voluntarios, la precisión diagnóstica y la confianza del clínico, cada uno respaldado por pruebas estadísticas apropiadas para sustentar la validez de los resultados.

La Figura 1 ilustra las capas fundamentales involucradas en la optimización de los entornos de computación humana. El diagrama comprende tres capas principales:

Figura 1.
Figura 1.

Marco conceptual de la IUI adaptativa para la computación humana escalable

  1. 1. Capa de entrada, compuesta por participantes humanos, tareas colaborativas y sistemas de IA.
  2. 2. Capa de IUI adaptativa, que incluye módulos como asignación dinámica de tareas, modelado de usuario, IA explicable, gamificación y medidas de seguridad.
  3. 3. Capa de resultados, que representa los parámetros de salida, incluyendo escalabilidad, colaboración, compromiso e integridad de los datos.

El flujo de tareas y datos se origina en la capa de entrada, donde los participantes humanos y los sistemas de IA interactúan con las tareas asignadas; progresa a través de la capa de IUI adaptativa, donde se procesan y optimizan los parámetros de interacción, y culmina en un mejor rendimiento del sistema dentro de la capa de resultados. Este marco demuestra cómo las IUI adaptativas pueden aprovecharse para mejorar la colaboración y la escalabilidad en entornos de crowdsourcing.

Desde la perspectiva de la teoría de la actividad, un marco interpretativo ampliamente utilizado en la investigación de estudios de caso, el operador (sujeto) interactúa con las tareas (objeto) a través de la IUI (herramienta). La interfaz adaptativa media esta interacción mediante bucles de retroalimentación en tiempo real, lo que mejora el desempeño de las tareas y la eficiencia general del sistema [28].

2.1. Distribución de tareas adaptativas

Desde la perspectiva de la teoría de la actividad, el operador interactúa con la interfaz para alcanzar objetivos específicos, siendo la IUI la que media dinámicamente esta relación mediante retroalimentación en tiempo real.

La distribución adaptativa de tareas mejora la eficiencia de la computación humana en entornos de crowdsourcing al asignar tareas de acuerdo con las habilidades, el desempeño y la experiencia del usuario. La Figura 2 ilustra este modelo: las tareas del conjunto se asignan mediante un sistema de IA que aprovecha la retroalimentación en tiempo real para optimizar las asignaciones futuras.

Figura 2.
Figura 2.

Distribución adaptativa de tareas

Engoques comparables han demostrado su efectividad en la colaboración humano-robot, como el marco de compartición adaptativa de tareas de Schmidbauer et al. [29], basado en las capacidades y preferencias del usuario. De manera similar, en los sistemas de aprendizaje adaptatico, la resignación dinámica de tareas mejora el rendimiento en función de los resultados previos [30].

Este modelo teórico se examina a través de estudios de caso en dominios como la respuesta a desastres, el etiquetado de datos y la planificación urbana, con el objetivo de evaluar la escalabilidad, la practicidad y el desempeño en la computación humana a gran escala.

2.2. Inteligencia artificial explicable en la computación humana

Las estrategias de inteligencia artificial explicable (XAI) y gamificación integradas en este marco se sustentan en el modelo de aceptación tecnológica (TAM), el cual postula que una mayor percepción de utilidad y transparencia incrementa de manera directa la confianza del usuario y la adopción tecnológica [31].

La XAI contribuye a mejorar la confianza, el compromiso y la eficiencia en tareas colaborativas, al proporcionar transparencia sobre los procesos de decisión de la IA frente a los participantes humanos. Modelos de XAI ampliamente adoptados, como LIME y Grad-CAM, incrementan la interpretabilidad de los sistemas: LIME descompone la contribución de características individuales de entrada a una decisión, mientras que Grad-CAM resalta las regiones de la imagen más influyentes dentro de redes neuronales convolucionales (CNN) [32,33]. En conjunto, estas herramientas ayudan a los usuarios a comprender la justificación detrás de los resultados de la IA, fomentando la responsabilidad y la participación informada.

En el trabajo colaborativo práctico, como el etiquetado de datos, el análisis de información y las iniciativas de salud pública, la XAI permite a los participantes validar los resultados generados por la IA e identificar posibles sesgos. Por ejemplo, los colaboradores en plataformas de etiquetado pueden utilizar las explicaciones de LIME para evaluar y corregir las predicciones del modelo, mientras que los clínicos que emplean visualizaciones de Grad-CAM pueden identificar las regiones de las imágenes médicas que influyeron en los diagnósticos automatizados, mejorando la precisión diagnóstica colaborativa y la confianza [34].

Al incorporar la XAI en estudios de caso de diferentes dominios, esta investigación evalúa su impacto en la confianza del usuario, el desempeño de las tareas y el compromiso, trascendiendo las ventajas teóricas para demostrar su aplicabilidad práctica en entornos reales de computación humana, ver la figura 3.

Figura 3.
Figura 3.

Modelo hipotético de inteligencia artificial explicable en la computación humana

2.3. Modelado de usuario y asignación dinámica de tareas

El modelado de usuario construye una representación computacional de las preferencias, la experiencia y el comportamiento individual, lo que permite a los sistemas de trabajo colaborativo —por ejemplo, MTurk, Zooniverse— asignar tareas de forma dinámica según el conjunto de habilidades y desempeño de cada participante.

Técnicas como el filtrado colaborativo, que empareja a los usuarios con tareas basándose en patrones de comportamiento compartido, mejoran la eficiencia y la precisión en la asignación. Por ejemplo, los usuarios que muestran un rendimiento destacado en categorías específicas de etiquetado pueden reasignarse automáticamente a tareas de características similares [35].

El aprendizaje por refuerzo refina este proceso al ajustar las asignaciones en tiempo real de acuerdo con la retroalimentación del desempeño, particularmente en entornos gamificados, donde el sistema aprende las fortalezas y preferencias de los usuarios y optimiza la distribución de tareas [36].

Estas técnicas de modelado fortalecen la personalización y adaptabilidad del sistema, al tiempo que reducen la redundancia de tareas. La asignación personalizada incrementa la participación del usuario al alinear las tareas con sus capacidades individuales, mientras que la reasignación dinámica de tareas complejas favorece la motivación y la productividad [37].

Asimismo, al evitar asignaciones repetitivas, el modelado de usuario previene el aburrimiento y la desconexión, contribuyendo a una colaboración más sostenida y eficiente. Este estudio evalúa estos efectos mediante estudios de caso en plataformas reales como MTurk y Zooniverse, demostrando cómo el filtrado colaborativo y el aprendizaje por refuerzo mejoran la escalabilidad y la efectividad en los sistemas de computación humana [38].

2.4. Gamificación y medidas de seguridad

La gamificación, entendida como el uso de elementos propios del diseño de juegos —por ejemplo, tablas de clasificación, puntos e insignias de recompensas— para incrementar la motivación en contextos no lúdicos, ha demostrado ser altamente efectiva en plataformas de computación humana. Al fomentar tanto la motivación intrínseca como la extrínseca, la gamificación aumenta la retención de participantes y mejora el desempeño en las tareas [39].

Por ejemplo, las plataformas que otorgan insignias de logro y muestran clasificaciones de usuarios suelen reportar niveles más altos de participación y tasas superiores de finalización de tareas [40].

Sin embargo, el incremento de la participación por sí solo no resulta suficiente; los sistemas basados en crowdsourcing deben también abordar los riesgos de seguridad inherentes. Amenazas como las violaciones de datos, la manipulación de tareas y el fraude pueden comprometer tanto la integridad de los datos como la confianza del usuario.

Para mitigar estas vulnerabilidades, son esenciales medidas de seguridad robustas, que incluyan cifrado avanzado, protocolos de autenticación, el uso de Certificateless Aggregate Signcryption (CLASC) y marcos de seguridad basados en blockchain [41].

Cuando se integran de manera efectiva, una gamificación bien diseñada junto con arquitecturas de seguridad sólidas permite que las plataformas colaborativas escalen de forma eficiente, preservando la confianza, la participación sostenida y la protección integral de los datos.

2.5. Estudios de caso

Estudio de caso 1: Amazon Mechanical Turk (MTurk)

Amazon Mechanical Turk (MTurk) es una de las principales plataformas de crowdsourcing de microtareas, que permite a empresas, investigadores y organizaciones asignar tareas de inteligencia humana (HIT)—operaciones de pequeña escala que requieren juicio humano— a una fuerza laboral global distribuida.

Estas tareas, que abarcan desde el etiquetado de datos y la clasificación de imágenes hasta la participación en encuestas, hacen de MTurk una plataforma idónea para evaluar la distribución adaptativa de tareas, el modelado de usuario y la gamificación.

Gracias a su amplia base de usuarios y a sus mecanismos flexibles de asignación de tareas, MTurk ofrece un entorno experimental práctico para analizar cómo las metodologías adaptativas pueden mejorar la eficiencia, incrementar la participación y optimizar la asignación dinámica de tareas en sistemas de computación humana.

Estudio de caso 2: Zooniverse

Zooniverse, la plataforma de ciencia ciudadana más grande del mundo, permite a los participantes contribuir a una amplia variedad de proyectos de investigación mediante la clasificación de datos, el análisis de imágenes y la transcripción de textos históricos.

Como plataforma de computación humana basada en crowdsourcing, Zooniverse depende de la participación pública activa, lo que la convierte en un entorno idóneo para explorar la distribución adaptativa de tareas, el modelado de usuario y la gamificación, con el fin de optimizar la participación, la eficiencia de las tareas y la escalabilidad del sistema.

Estudio de caso 3: Salud pública

En el sector de salud, los modelos de IA se utilizan cada vez más para el apoyo diagnóstico, el modelado predictivo y el análisis automatizado de imágenes médicas. Aunque estos modelos logran altos niveles de precisión en la detección de enfermedades, su falta de transparencia genera preocupaciones sobre la confianza y la interpretabilidad.

La inteligencia artificial explicable (XAI) aborda este desafío al hacer comprensibles los procesos de decisión de la IA, permitiendo a los profesionales de la salud validar las predicciones y colaborar de manera más efectiva con los sistemas automatizados.

Este estudio de caso examina cómo LIME (Local Interpretable Model-agnostic Explanations) y Grad-CAM (Gradient-weighted Class Activation Mapping) aumentan la confianza y la transparencia en el análisis de imágenes médicas asistido por IA.

3. Resultados y discusión

La evaluación se desarrolla conforme a los principios de reporte TRIPLE C (Context, Case, Complexity), un marco reconocido para la evaluación sistemática de estudios de caso que abarca el contexto, los métodos y la complejidad [27, 42]. Este enfoque garantiza el rigor científico mediante la triangulación de datos cuantitativos y cualitativos a través de métricas de desempeño verificables.

Cada estudio de caso establece objetivos de evaluación definidos y mide los resultados utilizando indicadores cuantitativos como la precisión de las tareas, el tiempo de finalización, la tasa de error, la retención de voluntarios, la precisión diagnóstica y las puntuaciones de confianza.

Este enfoque estructurado y basado en datos incrementa la objetividad del análisis y sustenta los hallazgos empíricos dentro de un protocolo de evaluación claramente definido, asegurando la consistencia y comparabilidad entre los distintos casos analizados.

La Figura 4 ilustra el desempeño en la finalización de tareas dentro de la plataforma de crowdsourcing Amazon Mechanical Turk (MTurk). El sistema de asignación adaptativa de tareas implementado en Mturk mejora significativamente la eficiencia operativa, al asignar tareas complejas a trabajadores experimentados, lo que se traduce en mayor precisión y reducción de los tiempos de finalización.

El modelado de usuario personalizado incrementa la participación al adaptar la distribución de tareas según las fortalezas individuales, lo que reduce la redundancia, minimiza los desajustes de habilidades y optimiza la asignación dinámica.

Aunque la gamificación no constituye aún una característica central de MTurk, estudios previos sugieren que la integración de incentivos competitivos y basados en recompensas podría aumentar la participación y la retención de trabajadores, especialmente en tareas repetitivas o de baja complejidad, reforzando la motivación sostenida y la calidad del desempeño colaborativo.

Figura 4.
Figura 4.

Desempeño en la finalización de tareas de Mturk

Este estudio de caso demuestra cómo los enfoques adaptativos mejoran la escalabilidad, la efectividad y la participación de los usuarios en plataformas basadas en crowdsourcing. La asignación dinámica de tareas y el modelado de usuario personalizado optimizan los resultados al incrementar la utilización eficiente de los recursos humanos y computacionales.

Aunque los elementos de gamificación aún no están plenamente integrados en la estructura de MTurk, su arquitectura modular lo posiciona como un candidato sólido para futuras implementaciones. Investigaciones posteriores deberían explorar la incorporación de mecanismos gamificados y el perfeccionamiento de las técnicas de perfilado de usuario, con el propósito de maximizar la eficiencia, fomentar la motivación y mantener la participación sostenida en entornos colaborativos a gran escala.

La implementación de la distribución adaptativa de tareas reduce las tasas de error al alinear las tareas con la experiencia y las competencias específicas de los usuarios. El modelado de usuario fortalece la participación al adaptar la asignación de tareas a las fortalezas individuales, lo que aumenta la retención y la satisfacción de los colaboradores.

De igual manera, la gamificación incrementa de forma significativa la motivación, dado que los voluntarios presentan un mayor nivel de compromiso cuando reciben insignias o reconocimientos por hitos alcanzados. La visualización del progreso global del proyecto refuerza el sentido de logro colectivo y promueve la participación continua.

La Figura 5 ilustra el desempeño de la plataforma en términos de tasa de error según el nivel de experiencia del usuario, así como el impacto de los elementos de gamificación en la retención de voluntarios, destacando la relación directa entre personalización, motivación y precisión operativa.

Figura 5.
Figura 5.

Desempeño de la distribución adaptativa de tareas en Zooniverse

Este estudio de caso demuestra cómo las técnicas adaptativas mejoran la escalabilidad, la participación y la eficiencia en plataformas basadas en crowdsourcing. La asignación personalizada de tareas y las estrategias de gamificación fomentan un modelo atractivo, sostenible y participativo para la investigación impulsada por voluntarios.

Zooniverse constituye un referente destacado de cómo la integración de IUI adaptativas en la ciencia ciudadana puede incrementar la participación de los usuarios, mejorar los resultados de las tareas y ampliar la escalabilidad de los sistemas colaborativos. Los principios aplicados en Zooniverse pueden extenderse a otros entornos de computación humana a gran escala, demostrando la viabilidad de los marcos adaptativos en la gestión de proyectos distribuidos.

La Figura 6 ilustra el impacto de la integración de la XAI en los diagnósticos médicos asistidos por IA, destacando su contribución a la transparencia y la confianza en los sistemas automatizados. La incorporación de XAI mejora sustancialmente la interpretabilidad de los modelos diagnósticos.

Figura 6.
Figura 6.

Impacto de la integración de XAI en los diagnósticos médicos asistidos por IA

En particular, LIME permite a los clínicos validar las decisiones de la IA, al identificar las características de la imagen que influyen en la clasificación, mejorando la precisión diagnóstica. De manera complementaria, los mapas de calor generados por Grad-CAM ofrecen explicaciones visuales detalladas, facilitando que los profesionales de la salud interpreten las predicciones del modelo con mayor claridad y ajusten sus diagnósticos de forma más informada.

La combinación de ambos métodos fortalece el desempeño de los sistemas de soporte a la decisión clínica (CDSS) en términos de precisión y confianza, promoviendo una colaboración más efectiva entre los sistemas de IA y los expertos médicos. Los análisis demuestran que la inclusión de técnicas XAI reduce la brecha entre las predicciones automatizadas y la interpretación humana, garantizando la verificabilidad y la confiabilidad de las decisiones asistidas.

Este estudio resalta el papel crítico de la XAI en el ámbito sanitario, donde la transparencia en la toma de decisiones es un requisito esencial. La integración de LIME y Grad-CAM en los procesos diagnósticos refuerza la trazabilidad de los resultados y mejora la aceptación clínica de los sistemas de IA.

Las investigaciones futuras deberían orientarse a optimizar la aplicabilidad de la XAI en entornos clínicos, enfocándose en la usabilidad, la confianza y la interacción humano-IA. En consecuencia, los hallazgos de este estudio sugieren que la XAI debe considerarse un componente esencial en el diseño de herramientas de diagnóstico asistidas por IA, especialmente en dominios de alta responsabilidad como la salud, donde la precisión y la explicabilidad son imperativos fundamentales.

En conjunto, los estudios de caso analizados demuestran que, aunque los enfoques adaptativos resultan altamente efectivos en entornos basados en crowdsourcing, su éxito depende de factores contextuales específicos. La gamificación y la asignación adaptativa de tareas incrementan de manera sustancial la participación de los usuarios, así como el desempeño en las tareas dentro de plataformas como MTurk y Zooniverse, consolidándose como estrategias clave para fomentar la motivación sostenida y optimizar la eficiencia colaborativa.

En contraste, la inteligencia artificial explicable (XAI) se revela como un componente esencial para garantizar que los sistemas de IA sean no solo efectivos, sino también transparentes, interpretables y fiables, particularmente en dominios especializados como el sector de la salud, donde la confianza y la verificabilidad de los resultados son críticas.

Este enfoque híbrido, que integra adaptabilidad, explicabilidad y motivación lúdica, subraya la versatilidad y la relevancia de estas técnicas emergentes en la optimización de los sistemas de computación humana.

Los hallazgos ofrecen recomendaciones específicas por dominio —para contextos que demandan altos niveles de escrutinio y confianza— y conclusiones generalizables aplicables a plataformas colaborativas a gran escala, estableciendo un marco de referencia sólido para la investigación futura y el diseño de sistemas humano-IA escalables y éticamente responsables.

3.1. Impacto de los enfoques impulsados por IUI en comparación con sistemas sin IUI

Al comparar explícitamente las metodologías adaptativas impulsadas por IUI con los enfoques sin IUI, se evidencia que las primeras ofrecen mejoras sustanciales en eficiencia, escalabilidad, participación y confianza. Los módulos de distribución adaptativa de tareas, el modelado de usuario y las estrategias de gamificación implementadas en MTurk y Zooniverse superan las limitaciones de la asignación estática de tareas y de los sistemas impersonales, mientras que la XAI incorpora transparencia, colaboración y responsabilidad en los procesos automatizados.

En síntesis, los sistemas impulsados por IUI proporcionan un marco más robusto, escalable y confiable para la optimización de los entornos de computación humana, consolidando una sinergia efectiva entre la adaptabilidad tecnológica, la participación humana y la transparencia algorítmica.

3.2. Limitaciones

A pesar de sus contribuciones significativas, el marco propuesto de IUI adaptativas presenta diversas limitaciones que deben considerarse en el desarrollo y la implementación de sistemas futuros:

  1. 1. Dependencia de modelos de usuario precisos y actualizados: La efectividad de la asignación dinámica de tareas y de la personalización adaptativa depende en gran medida de la exactitud y actualización constante de los modelos de usuario. La investigación actual resalta el desafío de capturar atributos complejos y multidimensionales—como la emoción, el contexto y el comportamiento del usuario— sin comprometer la consistencia del modelo ni la privacidad de los datos personales.
  2. 2. Sobrecarga computacional e integración de módulos: La implementación simultánea de múltiples módulos adaptativos —incluidos asignación de tareas, gamificación, explicabilidad y seguridad—puede imponer una sobrecarga computacional y de mantenimiento significativa. Estudios previos sobre marcos de IUI adaptativas han identificado el rendimiento del sistema, el consumo de recursos y la mantenibilidad del software como desafíos persistentes que limitan su escalabilidad práctica.
  3. 3. Efecto de sobrejustificación en la gamificación: Una dependencia excesiva de recompensas extrínsecas puede reducir la motivación intrínseca de los usuarios, generando el denominado efecto de sobrejustificación. Este fenómeno destaca la necesidad de diseñar estrategias de gamificación equilibradas y sostenibles, que combinen motivación interna y recompensas externas para mantener la participación a largo plazo.
  4. 4. Desafíos de privacidad, seguridad y ética de los datos: Las IUI adaptativas recopilan y analizan información sensible, incluidos patrones de comportamiento y datos del estado del canal (CSI), lo que plantea riesgos relevantes en materia de privacidad, seguridad y ética digital. Garantizar mecanismos sólidos de protección de datos y mantener la transparencia en el procesamiento son condiciones esenciales para preservar la confianza del usuario y cumplir con los principios éticos de la inteligencia artificial responsable.

4. Conclusiones

Este estudio comparativo demuestra la relevancia de integrar enfoques adaptativos —como la distribución adaptativa de tareas, el modelado de usuario, la gamificación y la inteligencia artificial explicable (XAI)— para optimizar los sistemas de computación humana. Mediante una estrategia híbrida, que combina dos estudios de caso de propósito general (Amazon Mechanical Turk y Zooniverse) con un estudio especializado en salud pública apoyado en XAI, la investigación ofrece una visión integral sobre la adaptabilidad, la escalabilidad y la fiabilidad de las interfaces de usuario inteligentes (IUI) adaptativas.

La asignación personalizada y la distribución dinámica de tareas demostraron mejorar de forma significativa el desempeño y la participación en plataformas colaborativas a gran escala. La distribución en tiempo real basada en la competencia del usuario asegura que las tareas sean asignadas a los participantes más calificados, aumentando la productividad y reduciendo la tasa de errores.

Asimismo, la incorporación de elementos de gamificación incrementa la motivación y la participación sostenida de los usuarios, un aspecto esencial para mantener la actividad continua en entornos de crowdsourcing. En el caso de estudio de salud pública, la investigación resalta el papel crítico de la transparencia y la confianza en dominios de alta responsabilidad. La integración de modelos XAI, como LIME y Grad-CAM, mejora la interpretabilidad de los diagnósticos asistidos por IA, permitiendo a los profesionales comprender, verificar y ajustar los resultados generados por los sistemas inteligentes. Esta transparencia colaborativa fortalece la confianza y contribuye a la mejora de los resultados clínicos.

En conclusión, los sistemas de IUI adaptativas se presentan como soluciones escalables, personalizables y confiables, aplicables tanto a plataformas de crowdsourcing de propósito general como a entornos especializados. En conjunto, estos enfoques ofrecen una base flexible, transparente y ética para el avance de la computación humana, reforzando la eficiencia, la participación y la responsabilidad en aplicaciones complejas y de alto impacto social.

Contributor Roles

R.J. Martin: Conceptualización, investigación, metodología, validación, escritura – borrador original, escritura – revisión y edición.

Referencias

[1] L. von Ahn and L. Dabbish, “Designing games with a purpose,” Communications of the ACM, vol. 51, no. 8, pp. 58–67, Aug. 2008. [Online]. Available: https://doi.org/10.1145/1378704.1378719

[2] E. Horvitz, “Principles of mixed-initiative user interfaces,” in Proceedings of the SIGCHI conference on Human factors in computing systems the CHI is the limit - CHI ’99, ser. CHI ’99. ACM Press, 1999, pp. 159–166. [Online]. Available: https://doi.org/10.1145/302979.303030

[3] A. J. Quinn and B. B. Bederson, “Human computation: a survey and taxonomy of a growing field,” in Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, ser. CHI ’11. ACM, May 2011, pp. 1403–1412. [Online]. Available: https://doi.org/10.1145/1978942.1979148

[4] C. Schmidbauer, S. Zafari, B. Hader, and S. Schlund, “An empirical study on workers’ preference in human–robot task assignment in industrial assembly systems,” IEEE Transactions on Human-Machine Systems, vol. 53, no. 2, pp. 293–302, 2023. [Online]. Available: https://doi.org/10.1109/thms.2022.3230667

[5] J. Wen, J. Yang, T. Wang, Y. Li, and Z. Lv, “Energy-efficient task allocation for reliable parallel computation of cluster-based wireless sensor network in edge computing,” Digital Communications and Networks, vol. 9, no. 2, pp. 473–482, Apr. 2023. [Online]. Available: https://doi.org/10.1016/j.dcan.2022.06.014

[6] M. Faccio, I. Granata, and R. Minto, “Task allocation model for human-robot collaboration with variable cobot speed,” Journal of Intelligent Manufacturing, vol. 35, no. 2, pp. 793–806, Jan. 2023. [Online]. Available: https://doi.org/10.1007/s10845-023-02073-9

[7] Z. Yuan, R. Wang, T. Kim, D. Zhao, I. Obi, and B.-C. Min, “Adaptive task allocation in multi-human multi-robot teams under team heterogeneity and dynamic information uncertainty,” ICRA 2025, 2024. [Online]. Available: https://doi.org/10.48550/arXiv.2409.13824

[8] A. Tamali, N. Amardjia, and M. Tamali, “Distributed and autonomous multi-robot for task allocation and collaboration using a greedy algorithm and robot operating system platform,” IAES International Journal of Robotics and Automation (IJRA), vol. 13, no. 2, p. 205, Jun. 2024. [Online]. Available: https://doi.org/10.11591/ijra.v13i2.pp205-219

[9] M. Jain, Crowd-Sourced Evaluation of Explainable AI Techniques with Games. Carnegie Mellon University, 2021. [Online]. Available: https://upsalesiana.ec/ing35ar4r9

[10] Z. Kou, Y. Zhang, D. Zhang, and D. Wang, “Crowdgraph: A crowdsourcing multi-modal knowledge graph approach to explainable fauxtography detection,” Proceedings of the ACM on Human-Computer Interaction, vol. 6, no. CSCW2, pp. 1–28, Nov. 2022. [Online]. Available: https://doi.org/10.1145/3555178

[11] Z. Kou, L. Shang, Y. Zhang, and D. Wang, “Hc-covid: A hierarchical crowdsource knowledge graph approach to explainable covid-19 misinformation detection,” Proceedings of the ACM on Human-Computer Interaction, vol. 6, no. GROUP, pp. 1–25, Jan. 2022. [Online]. Available: http://doi.org/10.1145/3492855

[12] M. Sawant, A. Younus, S. Caton, and M. A. Qureshi, “Using explainable ai (xai) for identification of subjectivity in hate speech annotations for low-resource languages,” in 4th International Workshop on OPEN CHALLENGES IN ONLINE SOCIAL NETWORKS, ser. HT ’24. ACM, Sep. 2024, pp. 10–17. [Online]. Available: http://doi.org/10.1145/3677117.3685006

[13] V. Lai, Y. Zhang, C. Chen, Q. V. Liao, and C. Tan, “Selective explanations: Leveraging human input to align explainable ai,” Proceedings of the ACM on Human-Computer Interaction, vol. 7, no. CSCW2, pp. 1–35, Sep. 2023. [Online]. Available: http://doi.org/10.1145/3610206

[14] C. Zhang, P. van Gorp, M. Derksen, R. Nuijten, W. A. IJsselsteijn, A. Zanutto, F. Melillo, and R. Pratola, “Promoting occupational health through gamification and e-coaching: A 5-month user engagement study,” International Journal of Environmental Research and Public Health, vol. 18, no. 6, p. 2823, Mar. 2021. [Online]. Available: http://doi.org/10.3390/ijerph18062823

[15] C. J. Hellín, F. Calles-Esteban, A. Valledor, J. Gómez, S. Otón-Tortosa, and A. Tayebi, “Enhancing student motivation and engagement through a gamified learning environment,” Sustainability, vol. 15, no. 19, p. 14119, Sep. 2023. [Online]. Available: http://doi.org/10.3390/su151914119

[16] H.-P. Lu and H.-C. Ho, “Exploring the impact of gamification on users’ engagement for sustainable development: A case study in brand applications,” Sustainability, vol. 12, no. 10, p. 4169, May 2020. [Online]. Available: http://doi.org/10.3390/su12104169

[17] P. Bitrián, I. Buil, and S. Catalán, “Enhancing user engagement: The role of gamification in mobile apps,” Journal of Business Research, vol. 132, pp. 170–185, Aug. 2021. [Online]. Available: http://doi.org/10.1016/j.jbusres.2021.04.028

[18] A. S. Alfaqiri, S. F. M. Noor, and N. Sahari, “Framework for gamification of online training platforms for employee engagement enhancement,” International Journal of Interactive Mobile Technologies (iJIM), vol. 16, no. 06, pp. 159–175, Mar. 2022. [Online]. Available: http://doi.org/10.3991/ijim.v16i06.28485

[19] N. Pius Owoh and M. Mahinderjit Singh, “Sensecrypt: A security framework for mobile crowd sensing applications,” Sensors, vol. 20, no. 11, p. 3280, Jun. 2020. [Online]. Available: http://doi.org/10.3390/s20113280

[20] Z. Li, J. Liu, J. Hao, H. Wang, and M. Xian, “Crowdsfl: A secure crowd computing framework based on blockchain and federated learning,” Electronics, vol. 9, no. 5, p. 773, May 2020. [Online]. Available: http://doi.org/10.3390/electronics9050773

[21] T. Abbas, Affective Real-Time Crowd-Powered Conversational Systems. Eindhoven University of Technology, Sep. 2022, proefschrift. [Online]. Available: https://upsalesiana.ec/ing35ar4r22

[22] P. Siangliulue, J. Chan, S. P. Dow, and K. Z. Gajos, “Ideahound: Improving large-scale collaborative ideation with crowd-powered realtime semantic modeling,” in Proceedings of the 29th Annual Symposium on User Interface Software and Technology, ser. UIST ’16. ACM, Oct. 2016, pp. 609–624. [Online]. Available: http://doi.org/10.1145/2984511.2984578

[23] M. Ponti and A. Seredko, “Human-machinelearning integration and task allocation in citizen science,” Humanities and Social Sciences Communications, vol. 9, no. 1, Feb. 2022. [Online]. Available http://doi.org/10.1057/s41599-022-01049-z

[24] S. Stein and V. Yazdanpanah, “Citizen-centric multiagent systems,” in Proceedings of the 2023 International Conference on Autonomous Agents and Multiagent Systems, ser. AAMAS ’23. Richland, SC: International Foundation for Autonomous Agents and Multiagent Systems, 2023, p. 1802–1807. [Online]. Available: https://upsalesiana.ec/ing35ar4r24

[25] P. Gupta, T. N. Nguyen, C. Gonzalez, and A. W. Woolley, “Fostering collective intelligence in human–ai collaboration: Laying the groundwork for cohumain,” Topics in Cognitive Science, vol. 17, no. 2, pp. 189–216, Jun. 2023. [Online]. Available: http://doi.org/10.1111/tops.12679

[26] A. Carrera-Rivera, F. Larrinaga, G. Lasa, G. Martinez-Arellano, and G. Unamuno, “Adaptui: A framework for the development of adaptive user interfaces in smart productservice systems,” User Modeling and User-Adapted Interaction, vol. 34, no. 5, pp. 1929–1980, Aug. 2024. [Online]. Available: http://doi.org/10.1007/s11257-024-09414-0

[27] S. E. Shaw, S. Paparini, J. Murdoch, J. Green, T. Greenhalgh, B. Hanckel, H. M. James, M. Petticrew, G. W. Wood, and C. Papoutsi, “Triple c reporting principles for case study evaluations of the role of context in complex interventions,” BMC Medical Research Methodology, vol. 23, no. 1, May 2023. [Online]. Available: http://doi.org/10.1186/s12874-023-01888-7

[28] L. Uden and N. Willis, “Designing user interfaces using activity theory,” in Proceedings of the 34th Annual Hawaii International Conference on System Sciences, ser. HICSS-01. IEEE Comput. Soc, 2005, p. 11. [Online]. Available: http://doi.org/10.1109/hicss.2001.926547

[29] M. Calzavara, M. Faccio, I. Granata, and A. Trevisani, “Achieving productivity and operator well-being: a dynamic task allocation strategy for collaborative assembly systems in industry 5.0,” The International Journal of Advanced Manufacturing Technology, Aug. 2024. [Online]. Available: http://doi.org/10.1007/s00170-024-14302-3

[30] M. H. Faisal, A. W. AlAmeeri, and A. A. Alsumait, “An adaptive e-learning framework: crowdsourcing approach,” in Proceedings of the 17th International Conference on Information Integration and Web-based Applications & Services, ser. iiWAS ’15. ACM, Dec. 2015, pp. 1–5. [Online]. Available: http://doi.org/10.1145/2837185.2837249

[31] J. C. Cheung and S. S. Ho, “The effectiveness of explainable ai on human factors in trust models,” Scientific Reports, vol. 15, no. 1, Jul. 2025. [Online]. Available: http://doi.org/10.1038/s41598-025-04189-9

[32] M. T. Ribeiro, S. Singh, and C. Guestrin, ““why should i trust you?”: Explaining the predictions of any classifier,” in Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, ser. KDD ’16. ACM, Aug. 2016, pp. 1135–1144. [Online]. Available: http://doi.org/10.1145/2939672.2939778

[33] R. R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh, and D. Batra, “Grad-cam: Visual explanations from deep networks via gradientbased localization,” in 2017 IEEE International Conference on Computer Vision (ICCV). IEEE, Oct. 2017, pp. 618–626. [Online]. Available: http://doi.org/10.1109/iccv.2017.74

[34] K. Borys, Y. A. Schmitt, M. Nauta, C. Seifert, N. Krämer, C. M. Friedrich, and F. Nensa, “Explainable ai in medical imaging: An overview for clinical practitioners – saliency-based xai approaches,” European Journal of Radiology, vol. 162, p. 110787, May 2023. [Online]. Available: http://doi.org/10.1016/j.ejrad.2023.110787

[35] Q.Wang, Y.Wan, F. Feng, and X.Wang, “Threshol optimization of task allocation models in human machine collaborative scoring of subjectiv assignments,” Computers & Industrial Engineering vol. 188, p. 109923, Feb. 2024. [Online]. Available: http://doi.org/10.1016/j.cie.2024.109923

[36] L. Sun, X. Yu, J. Guo, Y. Yan, and X. Yu, “Deep reinforcement learning for task assignment in spatial crowdsourcing and sensing,” IEEE Sensors Journal, vol. 21, no. 22, pp. 25 323–25 330, Nov. 2021. [Online]. Available: http://doi.org/10.1109/jsen.2021.3057376

[37] S. N. Ahmadabadi, M. Haghifam, V. Shah-Mansouri, and S. Ershadmanesh, “Design and evaluation of crowdsourcing platforms based on users’ confidence judgments,” Scientific Reports, vol. 14, no. 1, Aug. 2024. [Online]. Available: http://doi.org/10.1038/s41598-024-65892-7

[38] J. Cox, E. Y. Oh, B. Simmons, C. Lintott, K. Masters, A. Greenhill, G. Graham, and K. Holmes, “Defining and measuring success in online citizen science: A case study of zooniverse projects,” Computing in Science ∓ Engineering, vol. 17, no. 4, pp. 28–41, Jul. 2015. [Online]. Available: http://doi.org/10.1109/mcse.2015.65

[39] S. A. Triantafyllou, T. Sapounidis, and Y. Farhaoui, “Gamification and computational thinking in education: A systematic literature review,” Salud, Ciencia y Tecnología - Serie de Conferencias, vol. 3, p. 659, Mar. 2024. [Online]. Available: http://doi.org/10.56294/sctconf2024659

[40] H. Cigdem, M. Ozturk, Y. Karabacak, N. Atik, S. Gürkan, and M. H. Aldemir, “Unlocking student engagement and achievement: The impact of leaderboard gamification in online formative assessment for engineering education,” Education and Information Technologies, vol. 29, no. 18, pp. 24 835–24 860, Jun. 2024. [Online]. Available: http://doi.org/10.1007/s10639-024-12845-2

[41] A. Tomar and S. Tripathi, “Bcsom: Blockchain-based certificateless aggregate signcryption scheme for internet of medical things,” Computer Communications, vol. 212, pp. 48–62, Dec. 2023. [Online]. Available: http://doi.org/10.1016/j.comcom.2023.09.027

[42] P. Runeson and M. Höst, “Guidelines for conducting and reporting case study research in software engineering,” Empirical Software Engineering, vol. 14, no. 2, pp. 131–164, Dec. 2008. [Online]. Available: http://doi.org/10.1007/s10664-008-9102-8

Additional information

redalyc-journal-id: 5055

Alternative link

HTML generated from XML JATS by