“No podemos dejar el trato humano en manos robotizadas
El mundo de las tecnologías cada vez avanza más rápido y está presente en muchos ámbitos de nuestra vida, incluso hasta en los trabajos.
La Inteligencia Artificial (IA) es un elemento que ha aparecido desde hace varios años y que genera división de opiniones entre las personas que lo ven como una solución o un problema.
Leticia Ortega es una estudiante de Cuenca capital que ha finalizado hace poco la carrera de Educación Social en la Facultad de Ciencias de la Educación y Humanidades de Cuenca en la Universidad de Castilla-La Mancha (UCLM) y su Trabajo de Fin de Grado (TFG) se ha centrado en la aplicación de la Inteligencia Artificial en áreas derivadas de su formación. “Límites y dilemas éticos del uso de la IA en Educación Social” es como se llama su estudio que ha resultado ganador del primer premio al mejor Trabajo Fin de Grado -TFG- del curso 2023-2024, que ha otorgado el Aula de Estudios y Formación en el Ámbito Laboral de UGT-Castilla-La Mancha de la UCLM.
Eligió esta temática porque considera que “estamos viviendo el auge de los modelos asistidos por Inteligencia Artificial”, que cada vez llegan a más ámbitos. “En educación superior se está poniendo el foco en el fraude académico, pero en Educación Social estaba pasando como desapercibido”, comenta la educadora social.
Percibió que la administración quería perseguir un modelo asistido por IA y, a raíz de eso, pensó en temas como “la automatización de la desigualdad” o cómo estas tecnologías podrían dejar a pacientes “en situaciones de máxima vulneración” por los efectos de su aplicación.
De ahí que Ortega, ponga en valor el papel del educador social “reivindicando la dignidad de las personas y la potencialidad” que tienen.
En su trabajo, encontró evidencias del uso de la IA en la zona de Cataluña en el ámbito de los servicios sociales, donde utilizan modelos de lenguaje natural entrenados con expedientes de usuarios de estos servicios para que las propias inteligencias establezcan, a nivel individual o de comunidades, perfiles de desempeño, asignación de recursos o establecer intervenciones a “priori” individualizadas. En este sentido, estos procesos automáticos podrían ayudar a identificar si una persona tiene riesgo de sufrir vulnerabilidad en un futuro o no. Algo con lo que Ortega no está de acuerdo, ya que “las personas no somos ciencias exactas”.
Aunque no solo ha tratado de encontrar evidencias en el uso de estos modelos en servicios sociales, sino también el cuestionamiento de “hasta qué punto estas tecnologías pueden cambiar nuestra vida, si es para bien en algunos casos o, en otros, van a transgredir la dignidad de las personas y el uso de las relaciones humanas, el cuidado del uno sobre el otro”.
Por todo ello, Ortega considera que no se puede tratar a las personas “como entes replicadas” y resalta la figura del educador social “en el trato humano” para no dejar nuestras vidas en “manos robotizadas”.
En definitiva, ha creado lo que denomina una guía de “buenas práxis” para profesionales de la Educación Social que estén inmersos en procesos asistidos por modelos de IA.
Actualmente, tras la carrera trabaja en la Asociación Colombine de la capital al mismo tiempo que compagina sus estudios de Máster universitario en Antropología Aplicada en la UCLM, donde no descarta profundizar más en este trabajo.