Advierte sobre las malas decisiones tomadas en base a algoritmos, que a su juicio están hechos para sesgar y discriminar… aunque sin mala fe

 

Analista e investigadora, Gemma Galdón fundó en 2012 Eticas Consulting, una empresa que realiza auditorías de algoritmos para que las empresas sean conscientes de los sesgos que estos datos con los que trabajan pueden tener. Se intenta evitar así que haya situaciones de desigualdad de oportunidades o de discriminación, mejorando para ello la transparencia.

– ¿Cómo y cuándo surge la idea de formar Eticas Consulting?

– Cuando acabé la tesis, hace casi diez años, me seguían ofreciendo mucha financiación para investigar. No era frecuente ni que hubiera gente trabajando a caballo entre las ciencias sociales y la tecnología, ni tampoco que alguien tan joven, sin plaza fija en la universidad, recibiera este apoyo económico. Cuando pasé del millón de euros de financiación externa, me invitaron a irme. Me llevé los proyectos a casa y tuve que constituir una entidad jurídica para sacarlos adelante. Luego los acabé y contraté gente. Pero seguíamos recabando financiación para investigar temas de impacto de la tecnología en la gente. Al cabo de unos años quise ser más proactiva y responder a esa demanda de investigación para entender mejor cómo impacta la tecnología en la sociedad.

– ¿Qué dificultades encontró?

– Siempre digo que hemos tenido mucha suerte. Sin quererlo, tenemos el interés de un montón de actores públicos y privados. Nunca me plantee algo así. Todo lo que supone tener una organización económica me ha desbordado y me ha costado mucho, sobre todo encontrar espacios de apoyo que entiendan qué es ser mujer emprendedora. Si no naces con ese espíritu emprendedor estás muy sola. A veces no pedía dinero, sino solo ayuda.

– ¿Por qué emprendió entonces?

– Por responsabilidad. Tus proyectos son como tus hijos. No tenía espíritu emprendedor pero me he comprometido a acabar esta investigación. Y ha habido retos complicados durante estos diez años. Ya no tenemos proyectos de vida o muerte, aunque creo que la auditoría algorítmica debe ser estándar. Hay personas afectadas por malas decisiones algorítmicas, pero no hay visibilidad de esto. Por eso es gratificante lo que hacemos; somos útiles.

– ¿Cuándo observa que hay un problema con los algoritmos?

– Por características sociotécnicas. Hay mucha gente que emplea la tecnología desde fuera, yo la uso desde dentro. Era consciente de los problemas que había, pero también de que si cambias la forma de codificar eliminas ese impacto social. Estos problemas no están hechos con mala fe, sino por desconocimiento. A los ingenieros no les habían explicado que, si no tenían en cuenta a cada colectivo específico, esos grupos serían discriminados.

– ¿Cuáles son esos obstáculos?

– Se habla mucho de los sesgos, porque son permanentes. Pero los algoritmos están hechos para sesgar y discriminar. El tema es cómo y a quién. Los algoritmos siempre premian la norma, lo que es más abundante. Por ejemplo, los sistemas bancarios se basan en las series históricas, por lo que siguen premiando al hombre. Se coge el ‘big data’ del pasado y se concluye que el mejor cliente es hombre, mientras que la mujer es un cliente de riesgo. Se les da diez veces más crédito, aunque el historial de la mujer sea mejor y seamos mejores pagadoras. Nadie limpia los datos para evitar esa discriminación estadística.

– ¿Cómo se pueden arreglar esos sesgos? ¿Es solo tecnología?

– La tecnología es el problema y la solución a la vez. Sería genial que hubiera más alfabetización digital y que los ingenieros fueran más humanistas. La inteligencia artificial y los datos se ha mantenido muy cerrados en la ingeniería, pero deben tener nociones de impacto social. Para eso hay que hacer equipos multidisciplinares. Llevo viendo esto diez años y hay una ruptura de confianza entre la sociedad y la tecnología. Ha abusado mucho de la ciudadanía y ahora debemos recuperar nuestro espacio, hacer una tecnología mejor.

– ¿La población es consciente?

– No, porque hay mucha opacidad respecto a los procesos. Deberíamos saber cuándo somos sujetos de procesos automatizados. Pero creo que va a cambiar.

– ¿Y las empresas?

– Tampoco. No hay mala fe, sino desconocimiento. Se cree que la tecnología es mágica. Asumimos que una persona puede fallar, pero no que lo pueda hacer la tecnología. Confiamos ya más en las máquinas que en los humanos y no nos protegemos de las malas decisiones de los algoritmos. Y algunos son de mala calidad, lo que lleva a que se tomen malas decisiones en su programación.

Ecosistemas femeninos para emprender

Gemma Galdón ha recibido ya varios premios por su trayectoria profesional. «Están muy bien, pero no son suficientes», dice. «Faltan más cosas para que las mujeres nos sintamos cómodas», como referentes y colegas a quien llamar. «Cada proyecto nuevo es un premio para mi pero nos faltan ecosistemas femeninos, ver a más mujeres en estos roles».

Sabe que para cambiarlo algunas aristas pueden atajarse a corto plazo, pero otras conllevan más tiempo. «Se nos tiene que ver más, se tiene que confiar en nosotras para dirigir y hay que acompañar a otras mujeres. El emprendimiento también tiene que entender a las mujeres», reivindica. «En ética de código la mayoría somos mujeres, pero en España eso no se considera innovación porque no es como un nuevo aparato –critica–. Eso hace que te quedes fuera de muchas ayudas y financiación».

«Crear espacio sociotécnicos no se considera innovación», insiste Galdón, quien añade que «muchas mujeres estamos mejorando procesos, pensando fuera de la caja». «Y a eso hay que darle visibilidad», afirma.

ARANTXA HERRANZ
Gemma Galdón, en un descanso de su jornada diaria de trabajo. / 
D. BLANCO / ARGIA
https://www.ideal.es/tecnologia/confiamos-maquinas-propios-humanos-entrevista-gemma-galdon-20210611115201-ntrc.html
A %d blogueros les gusta esto: