23 noviembre 2024

Cómo la inteligencia artificial puede agrandar la brecha social

Los algoritmos se nutren de la información que le dan los humanos y, con ello, también beben de sus sesgos. Los expertos aseguran que una IA más ética es posible

Hace unos años, una investigación de la Unión Estadounidense por las Libertades Civiles (ACLU) llegó a una llamativa conclusión. Aun siendo juzgados por los mismos delitos, las sentencias que condenaban a las personas de color imponían penas un 20% más largas que las que lo hacían con personas blancas.

La razón de esta divergencia entre los tiempos en prisión de unos y otros no era casual, como recuerda en ‘El enemigo conoce el sistema’ Marta Peirano, sino que la raíz del problema estaba en la tecnología. La herramienta TI que usaba la justicia estadounidense y que le ayudaba a evaluar el riesgo de reincidencia estaba sesgada. De las personas blancas decía que era la mitad de probable que reincidiesen. De las negras, apuntaba que lo eran el doble.

 

La inteligencia artificial (IA) está cada vez más presente en el día a día. No la vemos y no la sentimos, pero desde que nos levantamos hasta que nos vamos a dormir —pero incluso a veces mientras dormimos: cada vez se alimentan más bases de datos con información de los patrones de sueño— nos acompaña a todas partes y en todas ocasiones.

La IA calcula las mejores rutas en los sistemas de mapas, nos responde a las preguntas que le hacemos vía asistentes virtuales o están detrás del ‘bot’ que ayuda a gestionar ese fallo en el billete de avión comprado para las vacaciones. Y no solo eso: también está detrás de cada vez más decisiones claves y fundamentales, como detectar fraudes en los movimientos de las cuentas bancarias o ayudar a diagnosticar enfermedades.

A más potencia, más responsabilidad

Y si bien el potencial de la inteligencia artificial parece inmenso y sus retornos muy favorables, no hay que olvidar que —como ya han ido demostrando otras tecnologías antes— estas herramientas no son exactamente neutrales. No están al margen del mundo en el que se usan. Si en él existen brechas y problemas, la IA también funcionará en esos parámetros.

¿Tiene la inteligencia artificial un impacto en las brechas sociales? «Sí, por supuesto, sí. La IA al final automatiza procesos que los humanos ya realizamos y cualquier efecto negativo que pueda haber en esos procesos, como la discriminación, la inteligencia artificial lo automatiza e incluso, y no intencionadamente, lo esconde», apunta Joan Casas-Roma, investigador de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC).

Ya en 2018 McKinsey alertaba en uno de sus análisis sobre el futuro de la IA y su impacto en la economía que, si bien esta herramienta tendría un papel muy importante en el crecimiento futuro, los países en vías de desarrollo no jugaban con las mismas cartas que los desarrollados.

Entre el momento del informe y 2030, esperaban que la inteligencia artificial estuviese detrás de un aumento del 16% del PIB global. Sin embargo, las tasas de crecimiento de los países ricos (entre el 20 y el 25% de beneficios) y de los en vías de desarrollo (entre el 5 y el 15%) divergirían. Las razones estaban en el muy diferente punto de partida: si no se corregía, la brecha entre unos y otros —y el dominio de los primeros sobre los segundos— aumentaría.

De la riqueza al género

Otro ejemplo claro de cómo la IA puede ampliar las brechas sociales está en la de género. La UNESCO teme no solo que la aumente sino que además empobrezca a las mujeres, puesto que la probabilidad de desempeñar un trabajo que será automatizado por la IA es más alta entre ellas que entre los hombres.

A eso hay que sumar que el diseño de la inteligencia artificial le ha llevado a perpetuar comportamientos y visiones machistas : la escasa presencia de las mujeres en el trabajo en IA —solo son menos del 25%— no ayuda a romper con el patrón.

Paradigmático —y recurrentemente mencionado cuando se habla de esta cuestión— es el caso de Amazon, que usaba un algoritmo para ayudar a su equipo de recursos humanos a filtrar las candidaturas recibidas. Hace unos años se dio cuenta de que estaba penalizando a las mujeres, puesto que, como en el pasado no habían ocupado muchos puestos de trabajo en la compañía, había aprendido que no eran las personas adecuadas. «No era culpa del sistema», explica Idoia Salazar, presidenta de OdiseIA (un organismo centrado en lograr el «buen uso de la inteligencia artificial»), «sino de que se había entrenado con datos del histórico, en el que había más hombres que mujeres que accedían a esos puestos».

Si hasta entonces todos los desarrolladores de software habían tenido cierto perfil, el sistema simplemente asume que eso es lo que debe ser, a menos que alguien lo corrija.

Corregir la IA

Ahí está la base del problema y el por qué la IA ahonda en esas brechas sociales. Como apunta Salazar, si los datos están ya sesgados y no se hace el trabajo de darle un equilibrio, la herramienta simplemente seguirá los patrones que ve como establecidos.

Pero esto es también lo que puede llevar a que se cambien las cosas, porque el potencial de la inteligencia artificial es muy elevado y aprovechar sus ventajas puede mejorar mucho las cosas. La IA podría ayudar a reducir esas brechas y a corregirlas, siempre que se tenga claro qué se hace y cómo —por eso se habla cada vez más de inteligencia artificial ética— y si no se olvida al humano en todo este proceso.

Salazar recuerda, por ejemplo, el potencial de los bancos de datos públicos —algo en lo que trabaja ya el Gobierno de España, recuerda— y que democratizarán el acceso a la IA, pero también insiste en la importancia de que al final esté «el humano en el centro».

«Estas herramientas pueden ayudar a las personas a tomar mejores decisiones, mejor fundamentadas y menos limitadas por los sesgos humanos», insiste, recordando también el potencial de estas herramientas para gestionar crisis como las de refugiados o las causadas por los desastres naturales de forma rápida y eficiente. Para eso, debe ser, ya de partida, más diversa, tanto en la información que usa como en los equipos que la crea.

El diseño que la hará mejor, la clave

Joan Casas-Roma indica que el dato, sin contexto, no genera soluciones y respuestas, por lo que es muy importante tener presente la ética a la hora de abordar la inteligencia artificial y sus efectos. «Para resolver estas estas brechas, hay que entender qué es lo que las causa: algún problema de desigualdad social», explica.

Hay que comprender a la sociedad y eso no se puede hacer simplemente con un algoritmo. De hecho, los equipos que se centran en estas cuestiones incorporan cada vez más a profesionales de ramas más variadas —las Humanidades son cada vez más importantes para la ciencia— y áreas como la filosofía tienen más peso a la hora de entender cómo se debe diseñar el mundo del futuro para que sea más justo.

Mientras, se trabaja ya en normativas que abordan estos retos. La Unión Europea, por ejemplo, lo está haciendo. «Pero es importante no olvidar que esto es la mitad de la pregunta. Las leyes son reactivas y castigan el daño que está ya hecho», apunta Joan Casas-Roma. «Es importante que tengamos esa parte anterior», afirma. Es ese diseño de partida los que los expertos creen que hará de la IA algo mejor.