Imagen de referencia
Un total de 285 estudiantes universitarios reportaron que las inteligencias artificiales (IA) han aumentado su pereza (68,9%) y sensación de inseguridad (68,6%) según la reciente publicación de un grupo de investigadores de Pakistán, Corea del Sur, Malasia, España y Chile, este último país representado por la coautoría del académico de la Facultad de Ciencias de la Educación UPLA, Dr. Marcelo Arraño-Muñoz.
Así como da cuenta el artículo “Impact of artificial intelligence on human loss in decision making laziness and safety in education” (2023), las inteligencias artificiales son utilizadas en la detección de plagio, los sistemas de análisis de desempeño de estudiantes y los chatbots de inscripción o enrollment, entre muchas otras labores, influyendo así en niveles administrativos, docentes y estudiantiles. En este último nivel de usuario, el artículo se pregunta por los impactos éticos y cognitivos tras la automatización de tareas frente a tres miedos morales como son la seguridad y privacidad, la pérdida de toma de decisiones y la pereza.
“El gran drama que tenemos es que nuestras capacidades de pensar analíticamente y tomar decisiones están afectándose por la utilización de dispositivos móviles y nuevas tecnologías, entonces cabe preguntarse qué está pasando y qué pasará con algo aún más complejo como es la IA”, expresa el doctor en psicología, Marcelo Arraño-Muñoz, haciendo referencia a los problemas actuales de atención, memoria y tolerancia a la frustración.
De esa manera, entre julio y agosto de 2022, los siete investigadores encuestaron a 142 estudiantes universitarios de China y 141 estudiantes universitarios de Pakistán, todos y todas entre los 20 y 26 años, para abordar los tres tópicos mencionados.
Principales hallazgos
Dividido en dos, el cuestionario contó con una primera parte de levantamiento de información demográfica – como género, edad, país y nivel educacional – y una segunda parte con una escala de valoración y estimación tipo Likert con cuatro constructos – Inteligencia Artificial, toma de decisiones, pereza humana y problemas de seguridad y privacidad – compuestos por 21 ítems.
Ítems valorados por los y las encuestadas.
“Evito trabajos, asuntos y asignaciones más complejas”, “Hago a un lado trabajo/tareas y realizo primero lo que me gusta” y “Veo lo que debo hacer, pero no quiero hacerlo”, ítems del constructo de pereza humana, reportaron las mayores cifras de acuerdo entre los y las encuestadas con cifras de 0.870, 0.848 y 0.842, respectivamente. En oposición, frases como “Creo que hay un buen match entre mis decisiones y la decisión apoyada por la tecnología”, “Creo que la IA vuelve la vida más conveniente” e “IA es necesaria para todos”, con 0.454, 0.646 y 0.746, reportaron menores cifras de acuerdo.
De esa manera, el artículo enfatiza la relación significativamente positiva entre las inteligencias artificiales y las variables de estudio con hallazgos que tensionan, principalmente, el uso de inteligencias artificiales y la sensación de inseguridad en función de la privacidad de datos. En este último punto, los investigadores se preguntan qué tan preparados están los sistemas internos de las instituciones educativas para usar y gestionar no sólo los datos personales contenidos, sino también institucionales, de manera adecuada.
“Generalmente, las instituciones educativas no tienen expertos/as en IA, lo que incrementa su vulnerabilidad en el contexto de seguridad y privacidad”, propone el artículo, “incluso si sus usuarios tienen excelentes habilidades y las instituciones trabajan con AI managers, nadie puede negar que cualquier control de seguridad y privacidad puede intervenirse y llevar a problemas serios en estas materias, además de eso, el hecho de que personas con diferentes niveles de habilidades y competencias interactúen [con estos sistemas] en organizaciones educacionales puede llevar a la filtración de información personal e institucional”.
“Pensar como algoritmos”
En esta triada de interacción humano-máquina, tanto a nivel institucional cómo de estudiantado, los impactos en la toma de decisiones y el aumento de la pereza se enmarcan en lo que denominan pensar como algoritmos que se evidencia, por un lado, en las tareas que las instituciones han decidido automatizar, cómo es el desempeño y avance académico de un estudiante, y por otro lado, en decisiones pedagógicas y de aprendizaje que descansan actualmente en inteligencias artificiales generativas.
“[Estas] indudablemente han aumentado los estándares de vida y la han vuelto más sencilla, pero han impactado de tal manera que nos ha vuelto impacientes y apáticos, [y] lenta y gradualmente privará al cerebro humano de su carácter reflexivo y de sus esfuerzos mentales en la medida que ingrese [cada vez más] en muchas más actividades”.
Esto último se demuestra en los ítems de “IA es muy importante para el desarrollo de la sociedad” e “IA puede hacer todo mejor”, ambos del constructo de inteligencia artificial, que reportaron altos niveles de acuerdo, con puntuaciones de 0.792 y 0.782. No obstante, pareciera una pregunta latente y no del todo resuelta en los y las encuestadas que al mismo tiempo indican un menor nivel de acuerdo con el ítem “Creo que la IA vuelve la vida más conveniente” (0.646).
Para el académico del Departamento de Ciencias de la Educación, esto adquiere especial cuidado cuando desconocemos la veracidad de la información proporcionada por las inteligencias artificiales “porque asumimos que la información es correcta y ahí lo volvemos un pensamiento automático, algo que no tenemos por qué cuestionar, sólo hacer lo que nos está diciendo, pero nos priva del ejercicio de creación, de que se nos ocurran nuevas ideas, sino sólo repetir lo que ha decidido la IA”.
Este estudio que demuestra empíricamente las percepciones de un estudiantado mucho más expuesto a la IA fue publicado en el volumen 10 de la revista de acceso abierto Humanities and Social Sciences Communications de Nature, el artículo se encuentra disponible aquí.