Reglamento de inteligencia artificial de la UE


Este artículo fue actualizado por última vez el diciembre 7, 2023

Reglamento de inteligencia artificial de la UE

European artificial intelligence rules

Introducción

Existe una posibilidad cada vez mayor de que la tecnología detrás del chatbot ChatGPT y herramientas de inteligencia artificial similares escapen a las estrictas reglas europeas para la inteligencia artificial, la llamada Ley de Inteligencia Artificial. Un cambio de rumbo sorprendente: este verano tanto los Estados miembros de la UE como el Parlamento Europeo estaban a favor de ello.

Lobby de los principales países

Se debe a un giro de los tres países más grandes de la UE: Alemania, Francia e Italia. Temen que unas normas demasiado estrictas no sólo afecten a los gigantes tecnológicos estadounidenses sino también a los partidos europeos, y quieren evitarlo. La empresa francesa de inteligencia artificial Mistral AI, entre otras, también se ha involucrado con posiciones abiertas.

Ley de IA y sus implicaciones

La Ley de IA lleva años en proceso de elaboración. El principio básico es: cuanto mayores son los riesgos, más estrictas son las reglas. Las reglas ya se idearon antes de que ChatGPT llegara al mercado a finales del año pasado.

La Ley de IA

El punto de partida de la UE en la ley es que los sistemas de inteligencia artificial se clasifican según los riesgos que plantean. Esto adopta una forma piramidal: en la parte superior, los sistemas que están prohibidos, por ejemplo, porque evalúan el comportamiento de las personas, y debajo, los sistemas que se clasifican como de “alto riesgo”.

Esto incluye tecnología que puede tener consecuencias para los derechos legales de los ciudadanos, pero también para la salud, o sistemas que se utilizan para rastrear sospechosos o escanear los CV de los solicitantes.

Aflojar las restricciones

Pero este plan ahora está en duda. El mes pasado, Francia, Alemania e Italia publicaron conjuntamente un documento en el que abogan por que se permita a las empresas elaborar sus propias normas.

Significa que poderosas empresas tecnológicas como Microsoft, Google y Meta, pero también OpenAI, el creador de ChatGPT, se explicarían cómo funciona su tecnología y qué puede y qué no puede hacer. Debería haber algún tipo de supervisión.

Respuesta e inquietudes de la industria

“Entonces no tendrás ningún palo detrás de la puerta”, responde Catelijne Muller, presidenta de la organización de inteligencia artificial ALLAI. Lleva años siguiendo el debate sobre la Ley de IA. “Lo que quieren llegar, por supuesto, es que no puedan recibir multas”. Así también consta en la propuesta de los tres países. Quieren empezar sin un sistema de sanciones y sólo pensar en ello una vez que se hayan cometido varias violaciones.

Según ella, detrás del documento hay un importante lobby tecnológico. No sólo de los gigantes tecnológicos estadounidenses, conocidos por intentar ejercer mucha influencia en todo tipo de cuestiones tecnológicas importantes en Europa, sino también de dos actores europeos. Van Sparrentak señala la IA francesa Mistral y la alemana Aleph Alpha.

Impacto y negociaciones

Mistral tiene veinte empleados, sólo existe desde hace seis meses y ya se dice que vale entre 1.000 y 2.000 millones de euros. Cuatro semanas después de su fundación, la empresa ya recibió una inversión de 105 millones de euros.

El eurodiputado Van Sparrentak afirma que en la última ronda de negociaciones el Parlamento intentará que las normas, por ejemplo en lo que respecta a las pruebas de los sistemas, sean vinculantes. Si eso no funciona, como mucho se pedirá a las empresas que “hagan lo mejor que puedan”.

Normas europeas de inteligencia artificial

Comparte con Amigos


Be the first to comment

Leave a Reply

Your email address will not be published.


*