El Acta de IA de la UE, nacida en 2021, clasifica la tecnología en diferentes categorías de riesgo, desde "inaceptable" hasta riesgo alto, medio y bajo, estableciendo así un marco comprehensivo.
Tras alcanzar un consenso político provisional a principios de diciembre, la UE aseguró el respaldo en la sesión del miércoles del Parlamento, con 523 votos a favor, 46 en contra y 49 abstenciones.
El Acta de IA de la UE, nacida en 2021, clasifica la tecnología en diferentes categorías de riesgo, desde "inaceptable" hasta riesgo alto, medio y bajo, estableciendo así un marco regulatorio comprehensivo.
Se espera que esta regulación entre en vigor al final de la legislatura en mayo, luego de pasar los controles finales y recibir el respaldo del Consejo Europeo. La implementación se llevará a cabo de manera escalonada a partir de 2025.
Algunos países del bloque han abogado previamente por la autorregulación en lugar de restricciones gubernamentales, temiendo que regulaciones excesivas puedan frenar el progreso europeo para competir con empresas chinas y estadounidenses en el sector tecnológico. Entre los detractores se encuentran Alemania y Francia, que albergan algunas de las startups de IA más prometedoras de Europa.
La UE ha estado luchando por mantener el ritmo con el impacto en el consumidor de los avances tecnológicos y la supremacía del mercado de los principales actores.
La semana pasada, el bloque puso en vigor una legislación de competencia histórica destinada a frenar a los gigantes estadounidenses. Con el Acta de los Mercados Digitales, la UE puede tomar medidas contra prácticas anticompetitivas de las principales empresas tecnológicas y obligarlas a abrir sus servicios en sectores donde su posición dominante ha sofocado a los actores más pequeños y ha limitado la libertad de elección para los usuarios.
Las preocupaciones sobre el potencial abuso de la inteligencia artificial han ido en aumento, incluso cuando gigantes tecnológicos como Microsoft, Amazon, Google y el fabricante de chips Nvidia impulsan la inversión en IA.
Los gobiernos temen la posibilidad de deepfakes, formas de IA que generan eventos falsos, como fotos y videos, especialmente ante las próximas elecciones globales clave este año.
Algunos defensores de la IA ya están autorregulando para evitar la desinformación. Google, por ejemplo, anunció que limitará el tipo de consultas relacionadas con las elecciones que se pueden hacer a su chatbot Gemini.
Profesionales legales describieron el acto como un hito importante para la regulación internacional de la inteligencia artificial, señalando que podría allanar el camino para que otros países sigan su ejemplo.
Σχόλια