Accede sin límites desde 55 €/año

Suscríbete  o  Inicia sesión

“El feminismo tiene mucho que ofrecer a la ciencia de datos”

Comparte
Pertenece a la revista
Junio 2021 / 92

Fotografía
Berta Rosés

Entrevista

Catherine D'Ignazio

Directora del Laboratorio de Feminismo y Datos del MIT

“El feminismo tiene mucho que ofrecer a la ciencia de datos”

Nos conectamos online. La profesora e investigadora del Massachusetts Institute of Technology (MIT) Catherine D’Ignazio, coautora del libro Data Feminism, desde Boston, y la entrevistadora, desde Barcelona. La entrevista comienza tarde. El tema central son las tecnologías, pero el ordenador de España falla; el teléfono también. No funcionan Zoom ni Skype. Luego se ve la imagen, pero no funciona el sonido. Hasta que, por fin, 20 minutos después, comienza la conversación. 
 

Smart cities, smart phones, smart tech… pero acaba de fallar todo. ¿Realmente es tan inteligente todo esto? 

Ja. Es una buena pregunta. ¡Nooo! Quiero decir: hay algo mágico e increíble sobre las tecnologías. Es bastante mágico que podamos hacer esta videollamada, pero, al mismo tiempo, pienso en el trabajo de personas como Mary Gray, que escribió un gran libro llamado Trabajo Fantasma, en el que muestra la cantidad de trabajo humano que hay detrás de las tecnologías smart.  Por ejemplo, cuando llamamos a un taxi por medio de una aplicación y de pronto el taxi aparece mágicamente, hay cantidad de trabajo humano detrás. Mi pedido puede haber llegado a un ser humano que está en India, que verifica que yo puedo hacer este viaje y los datos del conductor. Luego pasa el pedido al conductor y entonces me avisa. En lenguaje técnico se llama human in the loop (requiere la interacción humana). A las compañías tecnológicas les gusta mostrar que todo es automático, pero detrás hay muchísimo trabajo humano. La palabra smart no es más que marketing. Y es también una manera de devaluar el trabajo humano que hay detrás.
 

Usted se define a sí misma en Twitter como una mamá hacker ¿Por qué?

Pasé 15 años trabajando como programadora de software, de bases de datos y desarrollos web. Y también soy una hacker en el sentido de hackear sistemas, de apropiarse de una forma creativa de los sistemas tecnológicos. Y también soy madre. Tengo tres hijos. También pienso que hacker y mamá nunca van juntas. E hice una nueva categoría.

Se puede ser una mujer hacker, pero no una mamá hacker... 

Exacto. La gente ha sido un poco peyorativa sobre las mamás y las abuelas y su relación con las tecnologías. Y yo creo que pueden hacer un muy buen trabajo. 

Usted es profesora en el departamento de urbanismo. ¿Por qué son tan importantes los datos en el urbanismo?

La realidad del planeamiento urbanístico, de la administración del día a día de las ciudades, muestra que cada vez más las ciudades sacan provecho de las nuevas tecnologías,  de sistemas de bases de datos urbanos: en los presupuestos, el pago de salarios, el mantenimiento de las calles, los contratos de servicios...  Y, por supuesto están surgiendo algunas tecnologías smart como los semáforos inteligentes, sensores ambientales en lugares públicos que miden la contaminación del aire y este tipo de cosas. En este terreno hay una oportunidad y un peligro. Una ciudad es un lugar interesante desde el punto de vista público. En un mundo ideal, es el lugar de la democracia. Y tenemos que asegurarnos de que esas tecnologías se usan en favor de esa democracia. 

¿Preguntando a la ciudadanía?

Con la participación. Hace poco escuché una charla muy interesante de la investigadora Lilly Irani, que cuenta cómo se juntó con una coalición en San Diego para luchar contra los semáforos inteligentes. El Ayuntamiento aprobó los semáforos inteligentes, pero nadie sabía, no era público, que los semáforos no solo se encendían o apagaban automáticamente, sino que también tenían videocámaras, que grababan información de audio y de vídeo y lo hacían público. Es decir, que se podía acceder a toda esa información. 

¿Quién es?

Catherine D'Ignazio (Chapel Hill, North Carolina) dirige el Laboratorio de Feminismo y Datos del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) y, además, es profesora adjunta de Ciencia y Planificación Urbana de la misma universidad estadounidense. Se interesa por las “formas creativas de democratizar la ciencia de datos para la justicia social”. Recientemente escribió el libro Data Feminism (solo disponible en inglés) junto con su colega del MIT Lauren F. Klein. Fotografías Berta Rosés

 

Un estado de vigilancia total.

Sí. El tema es cuándo esa tecnología cruza la línea y rompe la promesa democrática.

Usted también tiene una especialización en arte. ¿Cómo se mezclan todas estas cosas? El arte, los mapas, los datos, el feminismo…

Mi entrada en los datos fue siempre desde el punto de vista visual. Es fascinante el modo en que podemos coger los datos y tratarlos de una manera visual, accesible para las personas. Puede ser con visualizaciones o de manera artística. Creo que es una función democrática. Muchas veces los que trabajamos con bases de datos usamos diagramas muy complicados. Y dependiendo de tu área, esto puede excluir a mucha gente. 

Sí que saben mostrar los datos para vender publicidad. ¿Cómo podemos usar esos datos para bien?

Esa es la cuestión central. El problema es que los datos son caros. Es caro recogerlos, guardarlos, mantenerlos. Necesitas gente muy cualificada para manipular los datos, analizarlos, construir tecnologías. Yo a veces me río de la analogía de la nube, porque da la sensación de que los datos están en algún lugar en medio de la nada. Pero de hecho están en unos enormes servidores que ocupan muchísimo espacio, con un montón de electricidad para enfriar los ordenadores. Y el tema es quién tiene los recursos para hacer esto. Y son esencialmente corporaciones: las Google, las Facebook… Y también gobiernos ricos y universidades de elite. Cada uno de esos actores tienen sus propios incentivos. Las corporaciones quieren beneficios. Los gobiernos, dependiendo del contexto, pueden hacerlo por unas u otras razones, no siempre loables. Y las universidades quieren contribuir a investigaciones académicas. No es necesariamente malo, pero este es el contexto en el que nos movemos: cómo hacemos para que puedan tener acceso a esto personas u organizaciones que no tienen esta estructura.

Suena complicado.

Es muy complicado. Si alguien quiere entrar en estas compañías debe tener un perfil de ingeniería de software. Y  muchos estudios documentan que estas compañías contratan perfiles que favorecen a los hombres blancos. El tema es cómo se democratiza este conocimiento para ONG, grupos comunitarios... Y las investigaciones también. No tendrían acceso a menos que trabajen con socios de investigación como Facebook. Y esto hace que estés ligada a lo que Facebook quiere que estudies: cosas relacionadas con los beneficios. 

"La estadística dice que hay poca paridad de género en las grandes compañías tecnológicas"

"La teoría feminista nos ayuda a analizar ese mundo donde los datos exacerban las desigualdades"

Usted se especializa en feminismo de datos. ¿Por qué?

Tengo un background de desarrollo de software y también en arte y diseño. Para mí, todo esto confluye en los mapas. En cartografía, y más en geografía, hay una vieja conversación sobre el poder y los mapas. Estoy familiarizada con esto desde hace al menos 15 años. Formé parte de grupos por una cartografía alternativa, en el sentido de usar los mapas para desafiar al poder. Cuando llegué a la escuela de posgrado y entré en el MIT Media Lab, a principios de 2010, había una explosión de big data, análisis de predicciones, inteligencia artificial, etc. Y una de las cosas que me sorprendió era que no había en ese momento ninguna conversación sobre desigualdades o discriminación. Desde entonces, por suerte, ha habido muchos avances. Nosotras contribuimos también. Pero para mí ahí fue donde el feminismo de datos realmente comenzó. Lo relevante sobre el feminismo es que trata muy específicamente del poder que lleva a la desigualdad de género y es interseccional también: desigualdad racial, colonialismo, etc. Ponemos nombre a las fuerzas de la desigualdad social. Y con los datos podemos tener acceso al análisis. El feminismo ayuda a ver ese mundo donde los datos exacerban las desigualdades, la forma en que los datos son utilizados, discriminando a las personas.

¿Podría dar un ejemplo de esto? 

Una de las cosas que tienen los mapas es la mirada desde arriba, desde una distancia importante. Eso es genial en un sentido, pero también es una manera muy masculina de mirar las cosas. Le da a quien mira la ilusión de pensar que puede verlo todo, entenderlo todo y controlarlo todo. Nos lleva a la era colonial, en la que los colonos miraban el mapa y controlaban el territorio. Desde la perspectiva feminista nos enfrentamos a esto. No es que no utilicemos los mapas. Pero hay otras miradas que queremos mostrar. Unas miradas más de situación, una cartografía feminista. Por ejemplo, un mapa feminista en el que estoy trabajando ahora es sobre violencia y feminicidios, algo que se está difundiendo mucho en Latinoamérica. Muchos de los que hacen los mapas están usando un tipo de cartografía familiar para enfrentarse a los gobiernos. Donde les dicen a los gobiernos de alguna manera que permiten esa violencia de género.

Mapean los lugares donde se produce la violencia de género.

Sí. Es lo que llamamos “libros contables de datos y contabilidad estadística”. Y vemos ¿qué debe ser contado? Porque en muchos casos no es importante contabilizar los feminicidios. De hecho, en España hay un grupo llamado feminicidio.net en el que cuentan la violencia y los feminicidios con una definición legal diferente. En las leyes españolas se toma en cuenta solo la violencia ejercida por compañeros íntimos. Y aquí contabilizan con una mirada más abierta, y muestran que el fenómeno es peor de lo que parece. 

Hay más en el feminismo de datos.

Realmente se trata de justicia: cómo caminamos hacia una igualdad real. La teoría feminista tiene mucho que ofrecer a la ciencia de datos. No es algo dado o conocido. Si hablas de feminismo con especialistas en ciencia de datos te dirán: “¿de qué me estás hablando?”. No es una conexión que la gente haga normalmente. Por eso estamos aquí. La teoría feminista tiene este gran análisis de cómo funciona el poder. Estamos reproduciendo el racismo, el sexismo y el clasismo. Las tecnologías ofrecen este modo de pensar que está detrás. Llegamos a algoritmos sexistas porque vivimos en un mundo sexista. Tenemos que luchar contra esto. 

¿Podría dar un ejemplo de machismo de datos?

Hablaré del fabuloso trabajo de Joy Buolamwini. Joy es una mujer afroamericana, originaria de Ghana. Su piel es muy oscura y es colega mía en el MIT. Estaba en una clase probando un sistema de reconocimiento de caras y no detectaba su propia cara. Entonces puso a un amigo blanco y  el sistema detectó su cara. Un amigo asiático, y detectó su cara. Entonces ella literalmente se puso una máscara blanca, y el sistema vio su cara. Auditó los datos del sistema y encontró lo que ella llama "una mayoría pálida y masculina”. La cadena de datos era en un 88% de hombres blancos. Claro que el sistema falla y, por supuesto, no es intencional. Tiene que ver con la falta de diversidad en estos equipos, con los incentivos de beneficios y con la falta de chequeos de igualdad. Nadie audita estos sistemas para decir: ¿hay muestras de sexismo? ¿De racismo? ¿De qué manera? 

 

“Llegamos a algoritmos sexistas porque vivimos en un mundo sexista. 
Tenemos que luchar contra esto” 

¿Ustedes hacen chequeos, auditorías de este tipo en su laboratorio?

Una de mis estudiantes, Wonyoung So lo está haciendo. Está analizando la discriminación racial en temas de vivienda, cómo los que alquilan viviendas hacen un cribado automático de los candidatos. La auditoría muestra la posible discriminación, básicamente racial, y revertirla.

Usted ha explicado que básicamente quienes hacen esas tecnologías son hombres blancos. ¿Cómo se hace activismo feminista de datos?

Es un gran problema. Y va a peor. Hay un informe de un grupo llamado AI Now (Artificial Intelligence Now Institute). La estadística es mala si miras la paridad de género en las grandes compañías tecnológicas. Ellos vieron  que solo el 12% de los investigadores de inteligencia artificial en las corporaciones eran mujeres. Es una receta para el desastre.

¿Cómo podemos hacer las personas que no tenemos nada que ver con este mundo para ayudar a cambiar las cosas?

Esta conversación debe ser pública. Mucha gente piensa que solo puede opinar si entiende la tecnología. Y no es el caso. Tenemos que crear espacios donde la gente se sienta bienvenida en estos diálogos públicos.  Necesitamos gente de campos como el periodismo, las leyes, el activismo, las organizaciones comunitarias sin ánimo de lucro, los espacios de arte... Esta es la gente que puede marcar la diferencia.

Y los gobiernos...

Sin duda, los gobiernos tienen que desempeñar un gran papel. La Unión Europea es la única que está haciendo algo proactivamente. Al menos han hecho el Reglamento General de Protección de Datos. En el contexto de EE UU, hay algo de legislación, algún trabajo sobre la responsabilidad de los algoritmos, pero no es serio. Creo que no solo tiene que haber una legislación sobre este tema. Hay que ser muy proactivo, es decir, no deberían ser las personas quienes muestren cómo les han dañado. Es muy difícil mostrar el sistema algorítmico. Se debería hacer algún tipo de proceso que permita verificar previamente.