Logaritmo y Futuro

El algoritmo es hoy tema de relevancia en el mundo, decisiones, privacidad, futuro, justicia, entre otros, giran a su alrededor, aquí una muestra para alertarnos y colocar en el debate, para llamar tu atención y pedirte no seas indiferente, la vida te pedirá tomar posición.

Por qué ‘Deshazte del algoritmo’ es el futuro de la protesta política

Los estudiantes que desafían la debacle de los niveles A han expuesto la política antidemocrática de los modelos predictivos

«En el futuro, las injusticias algorítmicas podrían significar que las opciones de las personas en educación, salud, justicia penal e inmigración se vean disminuidas por un cálculo que no presta atención a nuestra personalidad individual». Fotografía: Echo / Getty Images / Juice Images RF

Una pesadilla improbable que acechaba a los estudiantes en el pasado era abrir un sobre para encontrar los resultados del examen de otra persona dentro. El 13 de agosto, para decenas de miles de estudiantes de nivel A en Inglaterra, esto se convirtió en una realidad. El algoritmo predictivo desarrollado por el regulador de calificaciones Ofqual ignoró el arduo trabajo de muchos jóvenes en un proceso que atribuyó peso al desempeño pasado de escuelas y universidades. Como un adolescente describió la experiencia de ser degradado : «Me conecté a las 8 am y comencé a sollozar».

Tres días después, la debacle de nivel A desató protestas en las ciudades inglesas, con jóvenes que portaban carteles que decían «El algoritmo me robó el futuro» y «A la mierda el algoritmo». Las protestas marcaron una convergencia inusual de política y modelos predictivos. El hecho de que el gobierno posteriormente cambiara su decisión, permitiendo a los estudiantes volver a las calificaciones evaluadas por el centro (CAG), podría verse como un punto de inflexión cuando los efectos de la injusticia algorítmica se enfocaron claramente para que todos los vean.

Las injusticias de los modelos predictivos nos acompañan desde hace algún tiempo. Los efectos de modelar el potencial futuro de las personas, tan claramente reconocidos y desafiados por estos estudiantes, también están presentes en los algoritmos que predicen qué niños podrían estar en riesgo de abuso, qué solicitud de visa debería denegarse o quién tiene la mayor probabilidad de cometer un delito. . Nuestras oportunidades de vida, si obtenemos una visa, si nuestros reclamos de asistencia social están marcados como fraudulentos o si estamos designados en riesgo de reincidencia, están estrechamente vinculados con los resultados algorítmicos. ¿Podría el escándalo de nivel A ser un punto de inflexión en la forma en que pensamos en los algoritmos y, de ser así, qué cambio duradero podría provocar?

La resistencia a los algoritmos a menudo se ha centrado en cuestiones como la protección de datos y la privacidad. Los jóvenes que protestaban contra el algoritmo de Ofqual estaban desafiando algo diferente. No se centraron en cómo se podrían usar sus datos en el futuro, sino en cómo los datos se habían usado activamente para cambiar su futuro. Los caminos potenciales abiertos a los jóvenes se redujeron, limitando sus oportunidades de vida según una predicción indirecta.

El algoritmo Ofqual fue la encarnación técnica de una idea profundamente política: que una persona es tan buena como dictan sus circunstancias. La métrica no tuvo en cuenta qué tan duro había trabajado una escuela, mientras que su sistema de apelación buscaba negar la reparación individual, y solo la «clasificación» de los estudiantes se mantuvo de los insumos de los centros. En el futuro, desafiar las injusticias algorítmicas significará prestar atención a cómo las opciones de las personas en educación, salud, justicia penal, inmigración y otros campos se ven disminuidas por un cálculo que no presta atención a nuestra personalidad individual.

El escándalo de nivel A convirtió a los algoritmos en un objeto de resistencia directa y expuso lo que muchos ya saben que es el caso: que este tipo de toma de decisiones implica mucho más que una serie de pasos computacionales. En sus diseños y suposiciones, los algoritmos dan forma al mundo en el que se utilizan. Decidir si incluir o excluir una entrada de datos, o ponderar una característica sobre otra no son meras cuestiones técnicas, también son proposiciones políticas sobre cómo puede y debe ser una sociedad. En este caso, el modelo de Ofqual decidió que no es posible que una buena enseñanza, el trabajo arduo y la inspiración puedan marcar una diferencia en la vida de un joven y sus calificaciones.

La política del algoritmo fue visible para todos. Muchas decisiones, desde lo que constituye una entrada de tema “pequeña” hasta si el logro previo de una cohorte debe empujar hacia abajo en la curva de distribución, tuvieron efectos profundos y arbitrarios en la vida real. La estudiante A, que asistió a un pequeño sexto curso independiente, estudiando historia antigua, latín y filosofía, cada uno con entradas de menos de cinco, habría recibido sus resultados sin ajustar por el algoritmo. Mientras tanto, la estudiante B, en un sexto curso de una gran academia, que estudia matemáticas, química y biología, habría tenido sus resultados degradados por el modelo de estandarización y se habría perdido las calificaciones de la oferta universitaria.

Los resultados algorítmicos no son lo mismo que las decisiones responsables. Cuando los maestros de todo el país reunieron la evidencia de cada uno de sus estudiantes, agonizando por las clasificaciones, discutiendo diferencias marginales en las calificaciones simuladas o en los cursos con sus colegas, hubo una incertidumbre profunda e inevitable, particularmente cuando se toman en cuenta las desigualdades educativas . La Royal Statistical Society ha expresado las dificultades e incertidumbres asociadas con algo tan complejo como anticipar calificaciones, aunque su oferta de prestar su experiencia a Ofqual fue rechazada.

Lidiar abierta y transparentemente con cuestiones difíciles, como cómo lograr la equidad, es precisamente lo que caracteriza la toma de decisiones éticas en una sociedad. En cambio, Ofqual respondió con acuerdos de no divulgación, sin ofrecer información pública sobre lo que estaba haciendo mientras probaba modelos de la competencia. Su enfoque era propietario, reservado y opaco. Se perdieron oportunidades para una rendición de cuentas pública significativa.

Los algoritmos ofrecen a los gobiernos el encanto de las soluciones definitivas y la promesa de reducir las decisiones intratables a resultados simplificados. Esta lógica va en contra de la política democrática, que expresa la contingencia del mundo y el carácter deliberativo de la toma colectiva de decisiones. Las soluciones algorítmicas traducen esta contingencia en parámetros claros que se pueden modificar y pesos que se pueden ajustar, de modo que incluso los errores importantes y las imprecisiones se pueden ajustar o ajustar. Esta cosmovisión algorítmica es la de defender la “robustez”, la “validez” y la “optimización” de los sistemas opacos y sus resultados, cerrando espacios para los desafíos públicos que son vitales para la democracia.

Esta semana, una generación de jóvenes expuso la política del algoritmo. Eso en sí mismo puede ser un punto de inflexión importante.

Pubicado en The Guardian. 19 de agosto de 202• Louise Amoore es profesora de geografía política en la Universidad de Durham, y autora de Cloud Ethics: Algorithms and the Attributes of Ourselves and Others0.

Total visitantes:
9351

Total vistas de página:
27560

Comparte esto en tus redes sociales ...
Share on Facebook
Facebook
0Tweet about this on Twitter
Twitter
Pin on Pinterest
Pinterest
0
0

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *