La inteligencia artificial (IA) está de moda últimamente en el ojo público. Sin embargo, cómo la IA se está incorporando en beneficio de nuestra vida cotidiana a pesar de su rápido desarrollo sigue siendo un tema esquivo que merece la atención de muchos científicos. Si bien, en teoría, la IA puede reemplazar, o incluso desplazar, a los seres humanos de sus puestos, el desafío sigue siendo cómo las diferentes industrias e instituciones pueden aprovechar este avance tecnológico y no ahogarse en él.
Recientemente, un equipo de investigadores de la Universidad de Ciencia y Tecnología de Hong Kong (HKUST, por sus siglas en inglés) realizó un estudio ambicioso de las aplicaciones de IA en el frente educativo, examinando cómo la IA podría mejorar las calificaciones mientras observaba el comportamiento de los participantes humanos en presencia de un compañero computarizado. Descubrieron que, en general, los maestros eran receptivos a los aportes de AI, hasta que ambas partes llegaron a una discusión sobre quién debería ser el rey supremo. Esto se parece mucho a cómo los seres humanos interactúan entre sí cuando un nuevo miembro incursiona en un territorio existente.
La investigación fue realizada por el Ph.D. del Departamento de Informática e Ingeniería de HKUST. el candidato Chengbo Zheng y cuatro de sus compañeros de equipo bajo la supervisión del Profesor Asociado Prof. Xiaojuan MA. Desarrollaron un miembro del grupo de IA llamado AESER (Automated Essay ScorER) y separaron a veinte profesores de inglés en diez grupos para investigar el impacto de AESER en un entorno de discusión grupal, donde la IA contribuiría en la deliberación de opiniones, haciendo y respondiendo preguntas e incluso votando por la decision final. En este estudio, diseñado de forma similar al método de investigación controlado del « Mago de Oz », un modelo de aprendizaje profundo y un investigador humano formarían un aporte conjunto a AESER, que luego intercambiaría puntos de vista y llevaría a cabo discusiones con otros participantes en una sala de reuniones en línea.
Si bien el equipo esperaba que AESER promoviera la objetividad y brindara perspectivas novedosas que de otro modo se pasarían por alto, pronto se revelaron los posibles desafíos. Primero, existía el riesgo de conformidad, donde la participación de AI pronto crearía una mayoría para frustrar las discusiones. En segundo lugar, se encontró que las opiniones proporcionadas por AESER eran rígidas e incluso obstinadas, lo que frustró a los participantes cuando descubrieron que nunca se podía « ganar » una discusión. Muchos tampoco pensaron que la entrada de AI debería tener el mismo peso y son más aptos para desempeñar el papel de asistente del trabajo humano real.
« En esta etapa, los colaboradores humanos consideran que la IA es algo ‘obstinada’, para bien y para mal », señaló el profesor Ma. « Por un lado, la IA es obstinada, por lo que no teme expresar sus opiniones de manera franca y abierta. Sin embargo, los colaboradores humanos se sienten desconectados cuando no pueden persuadir de manera significativa a la IA para que cambie su punto de vista. Los humanos varían las actitudes hacia la IA. Algunos consideran que ser una sola entidad inteligente, mientras que otros consideran a la IA como la voz de la inteligencia colectiva que emerge de los grandes datos. Por lo tanto, surgen discusiones sobre cuestiones como la autoridad y el sesgo ».
El próximo paso inmediato para el equipo consiste en ampliar su alcance para recopilar más datos cuantitativos, lo que proporcionará información más medible y precisa sobre cómo la IA afecta la toma de decisiones grupal. También buscan explorar modelos de lenguaje grande (LLM) como ChatGPT en el estudio, lo que podría aportar nuevos conocimientos y perspectivas a las discusiones grupales.