Ante el auge de la Inteligencia Artificial, la Unión Europea debate nuevas normas

(Reuters) - Los rápidos avances tecnológicos, como la aplicación de inteligencia artificial (IA) generativa ChatGPT, están complicando los esfuerzos de los parlamentarios de la Unión Europea por acordar leyes de carácter histórico sobre IA, según han declarado a Reuters fuentes con conocimiento directo del asunto.

La Comisión Europea propuso el proyecto de normativa hace casi dos años en un intento de proteger a los ciudadanos ante los peligros de esta tecnología emergente, la Inteligencia Artificial (IA) que en los últimos meses ha experimentado un auge de inversión y popularidad entre los consumidores.

Antes de que se conviertan en ley, los países de la UE y los diputados deben negociar el borrador en un diálogo a tres bandas.

Varios parlamentarios esperaban llegar a un consenso sobre el proyecto de 108 páginas el mes pasado en una reunión en Estrasburgo (Francia) y proceder a un diálogo a tres bandas en los próximos meses.

Sin embargo, la reunión del 13 de febrero, que duró cinco horas, no llegó a ningún acuerdo y los diputados siguen enfrentados en torno a varios aspectos de la ley, según tres fuentes conocedoras de las discusiones.

Aunque el sector espera llegar a un acuerdo a finales de año, se teme que la complejidad y la falta de avances retrasen la legislación hasta el año que viene, y las elecciones europeas podrían suponer la entrada en funciones de eurodiputados con prioridades totalmente distintas.

Tal vez te interese leer: Misiones | Aseguran que las herramientas de inteligencia artificial ponen el asombro y la curiosidad en primer lugar

 

“El ritmo al que se lanzan los nuevos sistemas hace que la regulación sea un verdadero reto”, afirma Daniel Leufer, analista político del grupo de derechos Access Now. “Es un objetivo que se mueve rápido, pero hay medidas que siguen siendo relevantes a pesar de la velocidad del desarrollo: transparencia, control de calidad y medidas para hacer valer sus derechos fundamentales”.

Avances rápidos

Los parlamentarios están trabajando en las más de 3.000 enmiendas presentadas, que abarcan desde la creación de una nueva oficina de AI hasta el alcance de las normas contenidas en la ley.

“Las negociaciones son bastante complejas porque hay muchos comités implicados”, explica Brando Benifei, eurodiputado italiano y uno de los dos parlamentarios que dirigen las negociaciones sobre la ley en proceso. “Los debates pueden ser muy largos. Hay que hablar con unos 20 eurodiputados cada vez”.

Los parlamentarios han tratado de encontrar un equilibrio entre el fomento de la innovación y la protección de los derechos fundamentales de los ciudadanos.

Esto ha llevado a clasificar las distintas herramientas de IA según su nivel de riesgo percibido: desde mínimo a limitado, alto e inaceptable. Las herramientas de alto riesgo no se prohibirán, pero exigirán a las empresas una gran transparencia en sus operaciones.

No obstante, estos debates han dejado poco margen para abordar tecnologías de IA generativa en expansión agresiva como ChatGPT y Stable Diffusion, que han arrasado en todo el mundo, generando a la vez fascinación entre muchos usuarios y controversia.

En febrero, ChatGPT, creada por OpenAI y respaldada por Microsoft, batió el récord de crecimiento de usuarios más rápido de la historia.

Casi todas las grandes tecnológicas participan en el sector, incluidas Microsoft, Alphabet y Meta.

 

Grandes tecnológicas, grandes problemas

Los debates en la UE han suscitado preocupación entre las compañías —desde las pequeñas “startup” o nuevas empresas hasta las grandes tecnológicas— sobre la manera en que la normativa podría afectar a sus negocios y sobre el hecho de determinar si se encontrarían en desventaja competitiva frente a competidoras de otros continentes.

Entre bastidores, las grandes empresas tecnológicas, que han invertido miles de millones de dólares en la nueva tecnología, han presionado intensamente para mantener sus innovaciones fuera del ámbito de la clarificación de alto riesgo que supondría un mayor cumplimiento, más costes y más responsabilidad en torno a sus productos, según las fuentes.

Una encuesta reciente del organismo del sector llamado appliedAI reveló que el 51% de los encuestados espera una ralentización de las actividades de desarrollo de inteligencia artificial como consecuencia de la Ley de IA.

Para hacer frente a herramientas como ChatGPT, que tienen aplicaciones aparentemente infinitas, los parlamentarios introdujeron otra categoría, “Sistemas de IA de propósito general” (GPAIS, por sus siglas en inglés), con el fin de describir herramientas que pueden adaptarse para realizar diversas funciones. Aún no está claro si todos los GPAIS se considerarán de alto riesgo.

Los representantes de las empresas tecnológicas se han opuesto a estas medidas, e insisten en que sus propias directrices internas son lo suficientemente sólidas como para garantizar que la tecnología se implementa de forma segura, e incluso sugieren que la Ley debería tener una cláusula de inclusión voluntaria, en virtud de la cual las empresas puedan decidir por sí mismas si se aplica la normativa.

¿Un arma de doble filo?

La empresa de IA DeepMind, propiedad de Google, que actualmente está probando su propio chatbot de IA llamado Sparrow, dijo a Reuters que la regulación de los sistemas polivalentes era compleja.

“Creemos que la creación de un marco de gobernanza en torno a los GPAIS debe ser un proceso inclusivo, lo que significa que todas las comunidades afectadas y la sociedad civil deben participar”, dijo Alexandra Belias, jefa de política pública internacional de la empresa.

Belias añadió: “La cuestión aquí es: ¿cómo nos aseguramos de que el marco de gestión de riesgos que creamos hoy seguirá siendo adecuado mañana?”.

Daniel Ek, CEO de la plataforma de streaming de audio Spotify —que recientemente lanzó su propio “AI DJ”, capaz de confeccionar listas de reproducción personalizadas— dijo a Reuters que la tecnología era “un arma de doble filo”.

“Hay muchas cosas que tenemos que tener en cuenta”, dijo. “Nuestro equipo está trabajando muy activamente con los reguladores, intentando asegurar que esta tecnología beneficia al mayor número posible de personas y es lo más segura posible”.

Los eurodiputados afirman que la ley será objeto de revisiones periódicas, lo que permitirá actualizarla a medida que surjan nuevos problemas con la IA.

Sin embargo, con las elecciones europeas de 2024 en el horizonte, están bajo presión para entregar algo sustancial a la primera.

“No hay que precipitarse en los debates ni hacer concesiones solo para cerrar el expediente antes de fin de año”, dijo Leufer. “Están en juego los derechos de los ciudadanos”.

 

LA REGION

NACIONALES

INTERNACIONALES

ULTIMAS NOTICIAS

Newsletter

Columnas