¿QUIÉN VIGILA AL VIGILANTE?

Así va a cambiar China la educación global (y es terrorífico)

En el verano de 2017, el país oriental dio luz verde a un nuevo proyecto de inteligencia artificial. Ahora sabemos cómo está influyendo en las aulas de los colegios e institutos

Foto: Colegio a las afueras de Pekín. (Reuters/Jason Lee)
Colegio a las afueras de Pekín. (Reuters/Jason Lee)

Hace dos años, la Comunidad de Madrid implantó el programa Talis Video de la OCDE, que registraba las clases de matemáticas de segundo de la ESO para analizar las experiencias de los profesores y comparar sus prácticas. La grabación en vídeo, aun voluntaria, levantó ampollas. Algo que también ocurrió cuando José Antonio Marina sugirió la posibilidad de grabar las clases como forma de mejora. Una herramienta cada vez más extendida que, probablemente, generará muchos desencuentros durante los próximos años, a medida que se popularice.

Muchos de los que mostraron sus reservas ante la propuesta –y, muy probablemente, aquellos que la defendían– se quedarán boquiabiertos ante la implantación del programa NGAIDP (siglas en inglés de “Plan de Desarrollo de una Nueva Generación de Inteligencia Artificial”) en las aulas chinas, que promete marcar un antes y un después en la relación entre docentes y estudiantes. Básicamente, porque bajo la alambicada retórica utilizada en el informe presentación, publicado en julio de 2017 (“el uso de tecnología inteligente para acelerar la promoción de modelos de formación personal y reformas de métodos educativos”) se oculta lo que, a simple vista, parece un sencillo programa de espionaje y valoración del estudiante afín al polémico programa de crédito social.

Algunos colegios han ocultado la implantación del programa a padres y alumnos para evitar que se manifestasen en contra de él

La información que teníamos hace tan solo un año era limitada. Sabíamos que el sistema de “gestión del comportamiento de la clase inteligente” (CCS) escaneaba la clase cada 30 segundos para registrar el comportamiento de los estudiantes, incluidas sus expresiones faciales. La actitud del alumno era clasificada en seis conductas diferentes: leyendo, escribiendo, alzando la mano, de pie, escuchando al profesor o reclinándose sobre la mesa. El teórico objetivo era ayudar a los profesores y padres a conocer el comportamiento de sus hijos y alumnos, y poder intervenir cuanto antes.

No ha sido hasta esta semana, cuando la revista 'The Disconnect' ha publicado un extenso reportaje escrito por Xue Yujie, cuando se han conocido con mayor detalle los entresijos del programa. Especialmente, los más peliagudos, como el desconocimiento del sistema por parte de los estudiantes de algunos colegios. Es el caso de la Escuela de Secundaria de Niulanshan, donde sus alumnos (como el protagonista del reportaje, Jason) reconocen haber descubierto que estaban siendo grabados después de ver una imagen suya subida a la red social Weibo, donde aparecía categorizado con una etiqueta con su número de identidad y su estado (centrado, distraído, etc.). La polémica había surgido después de que el hashtag #ThankGodIGraduatedAlready (#GraciasADiosYaMeGradué) se viralizase.

Foto: iStock.
Foto: iStock.

La razón aducida por el centro para mantener en secreto el proyecto piloto hasta que los padres y los profesores estuviesen “listos” era la posibilidad de que sus reservas pudiesen provocar el final del experimento. Actualmente, hay siete centros en toda China que engloban a 28.000 estudiantes como parte de este proyecto piloto. No en todos ellos se ha ocultado la implantación del sistema, y el reportaje de Yujie cita un instituto de la provincia de Zheijang donde los estudiantes saben que le están grabando y por qué. En este caso, las quejas vienen motivadas por el intrusismo del sistema: uno de los estudiantes recuerda que la cámara es capaz de recoger con detalles incluso lo que escriben en el cuaderno.

Te observan

La ejecución ha sido un poco diferente a la teoría. El sistema de “cuidado de la clase”, como se conoce, utiliza la tecnología de una empresa llamada Hanwang Technology, una de las startups boyantes de China. Una cámara del tamaño de una mandarina se coloca encima de la pizarra, y toma una fotografía por segundo de la clase entera. La instantánea es enviada a un servidor que se encuentra localizado en el mismo centro. Allí, la inteligencia artificial de Eigenface reconoce los rostros de los alumnos y lo clasifica en cinco categorías. La información es encriptada y clasificada en el servidor, y los algoritmos recogen la información pasada y presente del estudiante para crear una puntuación semanal de 1 al 100. Dependiendo del centro, esta está disponible para alumnos, padres o profesores.

Uno de los alumnos se pregunta si el hecho de bostezar más de la cuenta puede truncar las posibilidades de acudir a la universidad que desea

La información es presentada con un profundo nivel de detalle. Por ejemplo, desgrana hasta con dos decimales cuánto tiempo pasa un estudiante concentrado o vagueando. Pongamos, por ejemplo, un 8,02%. O un 97,34%. Como ocurre en la clasificación de la liga, estas cifras aparecen junto a gráficos de curvas (que muestran la mejora o el empeoramiento del rendimiento individual), flechas verdes hacia arriba (¡bien!) o rojas hacia abajo (uy, uy, uy, cuidado). También, el número de preguntas respondidas al profesor o la participación en clase. No solo eso, sino que como si un VAR educativo se tratase, la información almacenada puede consultarse a posteriori para ver qué estaba haciendo determinado alumno a determinada hora.

La meta final es, en teoría, disponer de más información para mejorar el rendimiento de los estudiantes. Sin embargo, como recuerdan sus detractores, llama la atención que las clasificaciones empleadas sean tan “disciplinarias”. Es decir, no se fija tanto en los resultados finales del alumno como en su comportamiento durante la clase, analizando su gestualidad corporal y facial para identificar si está prestando o no atención. Es muy revelador el miedo que muestra uno de los alumnos entrevistados, al preguntarse si el hecho de bostezar en clase más de la cuenta puede truncar sus posibilidades de acudir a la universidad que él desea.

Foto: iStock.
Foto: iStock.

Para entender el alcance de estos sistemas de vigilancia (y castigo, si se quiere citar a Foucault) conviene recordar la dura competitividad del sistema educativo chino. Dado que la mayor parte de la población proviene del entorno rural, obtener una buena puntuación en el 'gaokao', el “examen más difícil del mundo” por su dureza que equivale a la Selectividad española, puede determinar el futuro de una familia. Casi 10 millones de estudiantes se presentan cada año, y menos del 40% conseguirán llegar a la universidad. De ahí que esta herramienta se convierta también en una forma de vigilancia adicional para los niños más estresados del planeta; cada año, decenas de ellos se suicidan antes de dichas pruebas.

En China… ¿y en Occidente?

Aún estamos lejos de que un sistema así se implante en Occidente. Para empezar, por las previsibles resistencias que despiertan no solo entre profesores que no desean que su trabajo sea registrado, sino también por alumnos y padres con una conciencia más desarrollada de la privacidad, muy distinta a una China que ha vivido décadas bajo un régimen comunista. Lo cual, no obstante, no quiere decir que no haya empresas desarrollando propuestas similares, si bien la mayor parte de innovación en tecnología artificial se centra en la creación de contenidos o la automatización de tareas sencillas. Por ejemplo, como también ocurre en 60.000 colegios de China, a la hora de corregir automáticamente los ensayos escritos por los alumnos.

En Princeton se han realizado escáneres cerebrales de los estudiantes mientras aprenden para comprender cómo funciona su cerebro

Un artículo publicado por la consultora McKinsey el pasado año sobre el rol de la educación en la Inteligencia Artificial señalaba otra posible dirección. En él, la directora de ciencias computacionales de la Universidad de Princeton, Jennifer Rexford, explicaba uno de los proyectos en desarrollo en el centro. Se trataba de escáneres cerebrales de los estudiantes mientras veían vídeos, con el objetivo de entender cómo se refleja el aprendizaje en el cerebro. Una vez se tengan los datos, se aplicará 'machine learning' a los datos recogidos. Ya no solo nos observan sino que se meten en nuestro cerebro, dirán los detractores.

Sin embargo, el motivo más común para implantar nuevas formas de vigilancia es raramente académico, y tiene más que ver con la seguridad. Algo especialmente común en Estados Unidos, donde los tiroteos en colegios e institutos son tristemente frecuentes, y donde los arcos de detección de metales han pasado a forma parte del paisaje escolar. El pasado año, el permiso concedido a la policía de Los Ángeles para acceder a las 2.500 nuevas cámaras de seguridad presentes en UCLA provocó la protesta de los estudiantes, que lo vieron como la implantación de un estado policial a costa de su privacidad.

Otro proyecto de inteligencia artificial, esta vez puesto en marcha bajo el paraguas de la CIPA (la Ley de Protección de la Infancia en Internet) registra todo lo que los 50 millones de colegiales de EEUU teclean en sus ordenadores. Como manifestaba Girard Kelly, el director de privacidad de una ONG llamada Common Sense Media, “un esfuerzo bienintencionado para monitorizar a los estudiantes sigue subiendo el listón hasta montar un estadio de vigilancia en la clase”. Ese es el gran riesgo, que bajo los razonables objetivos del rendimiento académico y la seguridad, la inteligencia artificial se convierta en un panóptico en el que todo el mundo en todo momento pueda estar siendo vigilado.

Alma, Corazón, Vida

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
7 comentarios
Por FechaMejor Valorados
Mostrar más comentarios