Las colaboraciones entre las Big Tech y los gobiernos no siempre tienen buenos fines, aunque aparentemente sea así. Uno de esos episodios terribles que parece sacado de Black Mirror tiene su origen en Argentina y de protagonistas a Microsoft y al Ministerio de la Primera Infancia de la norteña provincia de Salta.

En una investigación llevada a cabo por Wired, se ha destapado cómo la tecnológica y el gobierno desarrollaron y pusieron en funcionamiento un algoritmo para predecir el embarazo adolescente utilizando datos invasivos de miles de niñas.

El medio cuenta cómo bajo el nombre de Plataforma Tecnológica de Intervención Social, el algoritmo desarrollado por Microsoft podría prever con cinco o seis años de anticipación, con nombre, apellido y dirección, qué niña estaba predestinada en un 86 % a tener un embarazo adolescente.

Una suerte de Minority Report para predecir las posibilidades de que una niña se quede embarazada cuando alcance la adolescencia. El objetivo final era utilizar el algoritmo para predecir qué niñas, en función de si residían en zonas de bajos ingresos, se quedarían embarazadas en los próximos cinco años. Una idea que puede tener un fin en la planificación familiar, pero que nunca se reveló qué pasaba cuando el algoritmo señalaba a una niña en cuestión como potencial embarazo adolescente. Ni tan poco se doto de trasparencia a los datos o en nivel de invasión de la privacidad de las menores.

Un algoritmo opaco y que, en realidad, solo servía para violar los derechos de las niñas y las mujeres

Janko Ferlič/Unsplash

Todo bajo una férrea información opaca. Según Wired, se alimentó al algoritmo con datos privados las niñas, incluyendo edad, etnia, país de origen, discapacidad y otros datos como si la casa de la niña tenía agua caliente en el baño. 200.000 personas en total, incluidas 12.000 mujeres y niñas de edades comprendidas entre los 10 y 19 años.

Y lo grave no termina ahí. Según Wired, "agentes territoriales" visitaron las casas de las niñas y mujeres en cuestión, realizaron encuestas, tomaron fotos y registraron ubicaciones de GPS, todo para alimentar al algoritmo. La inmensa mayoría eran pobres, inmigrantes o de comunidades indígenas.

Además, según cuentan en Wired, el algoritmo no estuvo sujeto a controles especiales debido a la ausencia total de regulación nacional, y no se llevó a cabo ninguna evaluación de sus impactos en las niñas y mujeres que fueron utilizadas para el algoritmo. De hecho no fue hasta que los propios activistas y la comunidad pusieron presión sobre los políticos para conocer cómo se estaba utilizando una tecnología totalmente opaca que básicamente había nacido, según Wired, para violar los derechos de las niñas y las mujeres. Porque, además, no funcionaban como sus responsables decían:

"El Laboratorio de Inteligencia Artificial Aplicada de la Universidad de Buenos Aires destacó los graves errores técnicos y de diseño de la plataforma y cuestionó las afirmaciones de los desarrolladores de que el modelo hizo "predicciones correctas el 98,2 por ciento de las veces". “Los problemas metodológicos, como la falta de confiabilidad de los datos, plantean el riesgo de que los responsables políticos tomen medidas equivocadas”

Laboratorio de Inteligencia Artificial Aplicada de la Universidad de Buenos Aires

Una suerte de control eugenésico de manos de esos acuerdos gobiernos tecnológica que el fin último, aunque no lo parezca, acaba desembocando en el control estatal sin fiscalizar. Y con un fin lejos de la idea original.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: