Joy Buolamwini advierte que la IA refleja y amplifica desigualdades históricas,lo que representa un reto ético urgente para construir sistemas más justos y diversos.
Comparte
Ciudad de México. Cuando Joy Buolamwini quiso utilizar un sistema de reconocimiento facial para escanear su rostro como parte de un proyecto artístico,se dio cuenta de que para el algoritmo su cara,la de una mujer negra,era invisible.
La computadora ―relató― no identificó su rostro,sólo hasta que lo cubrió con una máscara blanca la máquina la reconoció: ahí fue cuando comenzó a cuestionarse si la tecnología es neutral o si acaso también está permeada de sesgos y puede,de hecho,profundizar la discriminación.
Buolamwini se preguntó a sí misma si la tecnología es un espejo de la sociedad y,por lo tanto,también refleja las desigualdades estructurales de género,etnia o estrato social,o si incluso las amplificaba.
A partir de su experiencia personal y su formación tecnológica,la joven comenzó una investigación como estudiante e investigadora del MIT Media Lab para comprender los sesgos de los algoritmos.
En 2018 y 2019,publicó dos estudios que revelaron cómo los sistemas de reconocimiento facial de Amazon,IBM,Microsoft y otras empresas eran incapaces de identificar los rostros más oscuros de las mujeres con la misma precisión que los de los hombres blancos.
No te pierdas: 8M | Mujeres de vanguard-IA: entre el liderazgo tecnológico y brechas históricas
Su investigación puso la lupa sobre una problemática de la que poco se hablaba en ese entonces. Y hasta la fecha,como fundadora de la Liga de la Justicia Algorítmica,Joy Buolamwini es una voz crítica que cuestiona las perspectivas que dan forma a la tecnología.
“La tecnología del presente nos lleva nuevamente a la discriminación del pasado”,advirtió Buolamwini,investigadora del MIT y autora del libro Unmasking AI,durante su participación en el evento México Siglo XXI en la Ciudad de México.
Su experiencia personal desentraña un patrón: los algoritmos que se presentan como herramientas objetivas reproducen y amplifican los sesgos históricos. El reconocimiento facial es apenas un ejemplo.
Estudios y casos documentados muestran cómo estas herramientas han llevado a arrestos falsos,exclusiones en procesos de contratación y diagnósticos médicos tardíos en personas con piel oscura.
“Los sesgos de la IA son un caleidoscopio de la distorsión”. ―Joy Buolamwini
No se trata sólo de exactitud técnica,puntualizó la investigadora,sino de un problema ético y político: ¿quién decide qué datos se usan para entrenar la Inteligencia Artificial (IA) y con qué fines?
Buolamwini llama a este fenómeno “la mirada codificada”: un filtro invisible que define qué vidas son visibles,qué realidades se consideran universales y cuáles quedan fuera.
Te recomendamos: Reconocimiento facial respalda el sesgo algorítmico: expertos
Cuando hablamos de tecnología,hablamos también de poder: quién establece las prioridades,qué poblaciones se incluyen y cuáles se descartan,explicó.
El riesgo se intensifica en contextos como América Latina,donde la mayoría de los sistemas de IA provienen de países occidentales y no están entrenados con datos representativos de la región.
“Podemos importar tecnologías que creemos útiles,pero si los conjuntos de datos no incluyen a nuestras comunidades,terminamos reforzando desigualdades en lugar de resolverlas”,señaló.
La investigadora enfatizó la necesidad de construir una Inteligencia Artificial con perspectiva local y diversidad cultural,y puso como ejemplo iniciativas africanas que entrenan modelos en lenguas nativas o desarrollan sistemas financieros adaptados a realidades donde los bancos tradicionales no llegan.
El contexto importa. Sin él,la tecnología se convierte en un caleidoscopio de distorsión,aseguró Joy Buolamwini. Desde su perspectiva,la Inteligencia Artificial no es sólo un campo de innovación,sino un terreno de disputa ética y social.
Si se acepta sin cuestionar,puede convertirse en un mecanismo que actualiza viejas discriminaciones bajo un lenguaje de modernidad e innovación. Pero si se enfrenta críticamente,también puede abrir caminos hacia una tecnología más justa y representativa.