La carrera por la inteligencia artificial es la fiebre del oro del siglo XXI. Sin embargo, tiene un coste para el medioambiente y para la sociedad. ¿Es posible hacer las cosas de una manera diferente?

La inteligencia artificial está en boca de todos. Es uno de los elementos al alza, la gran promesa de riquezas futuras y el gran dinamizador esperado de la economía, la tecnología y una larga lista de sectores empresariales. Las proyecciones son muy ambiciosas y nadie quiere quedarse atrás en esta carrera. Sin embargo, eso pasa mientras el planeta se enfrenta a las consecuencias de las revoluciones industriales previas y hace examen de conciencia de qué debería haber hecho para prevenirlas. Medir la huella ambiental y tomar decisiones para reducirla se ha convertido en la nueva normalidad corporativa. La gran cuestión es si esas lecciones se están trasladando a la IA.

El último estudio de la AI Company Data Initiative (AICDI) de la Thomson Reuters Foundation señala que, a pesar de todo, el 97% de las compañías investigadas no está midiendo aún el impacto medioambiental de sus proyectos de IA. Esto es, no hacen un seguimiento de cuánta energía implica su uso o qué huella de carbono tienen sus sistemas de inteligencia artificial. No es el único agujero negro que crea el entusiasmo por la IA. El 68% no mide tampoco el impacto social de sus proyectos.

El 97% de las compañías investigadas no está midiendo aún el impacto medioambiental de sus proyectos de IA

Aunque existen variables geográficas (por ejemplo, solo el 38% de las empresas americanas tienen políticas claras de IA, frente al 53% de las de la región EMEA), las estadísticas muestran una realidad potencialmente preocupante. El entusiasmo está arrasando con la responsabilidad: el abrazar el cambio y las potenciales ventajas que puede aportar la IA ha llevado a que se pierda de vista que también tiene sus riesgos potenciales.

Los más claros son los sociales y éticos, posiblemente porque están más presentes en las noticias y porque son ya uno de los puntos calientes en materia legislativa. Preocupa el impacto que la inteligencia artificial puede tener en los medios, en la propiedad intelectual, en la circulación de fake news y desinformación o en la privacidad.

En este último punto, posiblemente se esté produciendo ahora mismo una de esas fases inaugurales tecnológicas en las que la emoción por lo nuevo neutraliza los potenciales temores. Pasó también con las redes sociales, cuando se compartía todo sin filtro antes de procesar el alcance que eso tenía. En la IA, se suma una falsa sensación de seguridad, de conversación one-to-one que no lo es tal.

Según NordVPN, el 94% de la población española no entiende los riesgos de privacidad al usar la IA en el trabajo y comparte con ella información sensible. «La adopción de la IA en los espacios de trabajo es más rápida que la concienciación de sus riesgos», advierte Marijus Briedis, director de tecnología de NordVPN. «La gente está compartiendo información confidencial con las herramientas sin darse cuenta en dónde acaban esos datos, cómo se almacenan o quién puede tener acceso a ellos», explica. Puede que se sienta que ChatGPT es un colega y que no irá contando por ahí los secretos que se le confían, pero en realidad no lo es.

El 94% de la población española no entiende los riesgos de privacidad al usar la IA en el trabajo

El público general tiene mucho menos presentes los riesgos medioambientales, pero lo cierto es que existen igualmente. Como explica en El imperio de la IA (Península) la investigadora Karen Hao, para no pocas regiones del Sur global estos riesgos no son algo teórico sino algo que están viviendo ya en primera persona.

Más allá de los materiales que se necesitan para crear el hardware que sostiene la IA, los inmensos centros de datos que dan el poder de computación que la inteligencia artificial precisa están esquilmando de recursos naturales a las zonas en las que se ubican. Por supuesto, necesitan electricidad para operar (algo que ya ha llevado a las grandes tech a flirtear con un revival nuclear y hasta con enviar sus centros de datos al espacio), pero también grandes cantidades de agua para mantener la temperatura adecuada. La refrigeración está agotando acuíferos en zonas que ya tenían, en ocasiones, problemas hídricos.

¿Es posible encontrar una tercera vía, una en la que la carrera por la IA no pase factura al planeta y a sus habitantes?

Lo cierto es que la IA se está enfrentando ya a un cierto problema reputacional. Si bien existen muchos entusiastas, también ha empezado a coger carrerilla una visión crítica. Según datos de la Universitat Oberta de Catalunya, aunque el 66% de la población usa IA de forma habitual, menos de la mitad confía en ella. El 76% de la ciudadanía quiere que le digan de forma clara si algo lo ha hecho o no una IA y la idea de contar con sellos que garanticen la obra humana coge fuerza. «Pienso que habrá dos grandes tendencias: una de plena aceptación de la IA como recurso válido para generar contenidos de forma rápida y económica, y otra que potenciará el contenido elaborado sin ningún tipo de apoyo de la IA como distintivo de calidad premium», defiende Ferran Lalueza, profesor de los Estudios de Ciencias de la Información y de la Comunicación de la UOC.

Aun así, y más allá de la dicotomía de IA sí o no, también surgen voces que piden una IA más ética. Una de las vías sería la de entenderla de un modo más transversal, viendo sus potenciales ventajas, pero también sus riesgos. De ese modo, se trabajaría para curarse en salud. En lugar de aceptar el «todo vale» para asegurarse crecimiento, se establecería un estándar ético mínimo como punto de partida. La Unión Europea ya ha creado normativas en esa dirección, algo que podría convertirse en un activo de valor a futuro.

Hao cuenta en El imperio de la IA una historia que sirve de emblema de lo que podría ser la IA ética. Es la de la comunidad indígena que se ha fijado en la inteligencia artificial como palanca para proteger y revitalizar el te reo Maori, la lengua del pueblo maorí que ha ido perdiendo hablantes tras siglos de políticas coloniales. «Los datos son la última frontera de la colonización», le dice a Hao Keoni Mahelona, uno de los cofundadores del proyecto. «La IA no es más que otra forma de apropiación de la tierra», suma. Por eso, qué se hace con la inteligencia artificial y cómo importa. Su proyecto tiene un serio compás moral, en el que todos sus participantes son informados de cómo se usarán sus datos y en el que es la propia comunidad la propietaria y gestora de lo que se logra con ello. La IA vuelve así a la tierra.

Raquel C. Pico