El Parlamento Europeo da el primer paso para limitar el uso de la Inteligencia Artificial
Las comisiones de Libertades Civiles y de Protección de los Consumidores votaron por abrumadora mayoría a favor de limitar el uso de la IA, sin dejar de incentivar la innovación en el sector
El texto se presentará al pleno parlamentario en junio para su adopción y si es aprobado, se iniciarán las negociaciones con los Estados miembros de la UE a fin de acordar una ley definitiva. La UE quiere ser el primer bloque del mundo en dotarse de un marco jurídico integral para limitar los posibles excesos de la IA, sin perjudicar la innovación.
Bruselas propuso hace dos años un ambicioso proyecto de reglamentación a través de una iniciativa de la Comisión Europea. Los países miembros definieron sus posiciones a finales de 2022.
Pero el examen parlamentario se alargó y se retrasó en los últimos meses con el surgimiento de polémicas sobre los peligros de las herramientas de IA capaces de crear textos o imágenes.
El gobierno europeo no tiene del todo claro que ChatGPT y otras herramientas de inteligencia artificial cumplan con la legislación vigente, sobre todo en materia de protección de datos, y ha decidido dar el primer paso para crear unas normas comunes para este tipo de aplicaciones.
Esta semana, el Comité Europeo de Protección de Datos (CEPD), una organización formada por representantes de las distintas autoridades nacionales en esta materia, ha anunciado la creación de un grupo de trabajo que se encargará de evaluar los riesgos que plantean estas nuevas herramientas.
El grupo ha comenzado ya una ronda de consultas con varios expertos para tratar de definir las posibles acciones que se pueden tomar de forma conjunta entre los diferentes países y marcar unas directrices comunes de actuación.
Es una decisión que se ha tomado a petición de la Agencia Española de Protección de Datos, que a principios de semana solicitó al organismo que evaluase las posibles violaciones a la privacidad por parte de ChatGPT.
«La AEPD entiende que las operaciones globales de procesamiento que pueden tener un impacto significativo en los derechos de las personas requieren decisiones coordinadas a nivel europeo», dijo un portavoz de la agencia en un comunicado enviado por correo electrónico.
España, en cualquier caso, no es el único país europeo preocupado por esta cuestión. Desde finales de marzo, el gobierno italiano ha bloqueado el acceso a ChatGPT en el país. Asegura que viola algunas de las normas de protección de datos presentes en Italia (y que son similares a las de otros países europeos). ChatGPT, por ejemplo, no cuenta con un filtro que evite el acceso de menores y no avisa a los usuarios de que durante el uso la herramienta recopila datos personales.
Ha comenzado ya una ronda de consultas con varios expertos para tratar de definir las posibles acciones que se pueden tomar
El gobierno europeo no tiene del todo claro que ChatGPT y otras herramientas de inteligencia artificial cumplan con la legislación vigente, sobre todo en materia de protección de datos, y ha decidido dar el primer paso para crear unas normas comunes para este tipo de aplicaciones.
Esta semana, el Comité Europeo de Protección de Datos (CEPD), una organización formada por representantes de las distintas autoridades nacionales en esta materia, ha anunciado la creación de un grupo de trabajo que se encargará de evaluar los riesgos que plantean estas nuevas herramientas.
El grupo ha comenzado ya una ronda de consultas con varios expertos para tratar de definir las posibles acciones que se pueden tomar de forma conjunta entre los diferentes países y marcar unas directrices comunes de actuación.
Es una decisión que se ha tomado a petición de la Agencia Española de Protección de Datos, que a principios de semana solicitó al organismo que evaluase las posibles violaciones a la privacidad por parte de ChatGPT.
«La AEPD entiende que las operaciones globales de procesamiento que pueden tener un impacto significativo en los derechos de las personas requieren decisiones coordinadas a nivel europeo», dijo un portavoz de la agencia en un comunicado enviado por correo electrónico.
España, en cualquier caso, no es el único país europeo preocupado por esta cuestión. Desde finales de marzo, el gobierno italiano ha bloqueado el acceso a ChatGPT en el país. Asegura que viola algunas de las normas de protección de datos presentes en Italia (y que son similares a las de otros países europeos). ChatGPT, por ejemplo, no cuenta con un filtro que evite el acceso de menores y no avisa a los usuarios de que durante el uso la herramienta recopila datos personales.
El homólogo francés de la AEPD, el CNIL, también está estudiando varias denuncias y quejas sobre el servicio, que ha crecido de forma espectacular en los últimos meses y que puede tener un impacto social profundo.
Varios expertos y académicos, de hecho, han pedido recientemente a las empresas tecnológicas que desarrollan estas herramientas (fundamentalmente OpenAI y Google), que paren el desarrollo de nuevos modelos de lenguaje y herramientas de inteligencia artificial generativas hasta que se pueda acordar un marco ético y legal que proteja a los usuarios.
Esgrimen varias razones para hacerlo. Estos modelos de lenguaje han sido entrenados, por ejemplo, con material protegido por derechos de autor o sin el permiso de los usuarios. Hay también dudas sobre el efecto que podrían tener en el mercado laboral o la difusión de noticas falsas y propaganda.
FOTO: La sede del Parlamento Europeo en Estrasburgo.AP
EL MUNDO
https://www.elmundo.es/tecnologia/2023/04/14/6439c5b4fdddff59b48b45a0.html