La normativa aprobada regulará la IA según el nivel de riesgo, estableciendo mayores obligaciones para los sistemas tecnológicos cuando exista un mayor riesgo para los derechos o la salud de las personas.

La propuesta recibió 499 votos a favor, 28 en contra y 93 abstenciones. Los planes originales de la UE para regular el uso de la IA se remontan a 2021, pero el asunto se volvió urgente después de la aparición de ChatGPT, lo que resaltó el rápido desarrollo del sector.
El siguiente paso será iniciar negociaciones directas con los 27 países del bloque para alcanzar un acuerdo sellado para finales de año. Sin embargo, incluso si se alcanza ese objetivo, la normativa no entrará en vigor hasta 2026. Por lo tanto, la UE también deberá negociar un marco provisional y voluntario con las empresas tecnológicas que desarrollan IA.
La ley regulará la IA según el nivel de riesgo, estableciendo mayores obligaciones para los sistemas en sectores considerados de alto riesgo, como la infraestructura crítica, educación, recursos humanos, orden público y gestión de la migración. Además, el Parlamento Europeo agrega condiciones adicionales antes de que se cumpla la clasificación de alto riesgo, incluyendo la posibilidad de dañar la salud, la seguridad, los derechos fundamentales o el medio ambiente.
La Comisión Europea propondrá una legislación concreta llamada AI Act, que se espera que se apruebe definitivamente a principios de 2023. Esta legislación establecerá multas de hasta un 6% de los ingresos globales anuales para las empresas o proveedores de sistemas de IA que no cumplan con la legislación. La legislación europea sobre IA busca regular el uso de la tecnología en lugar de prohibirla, con el objetivo de garantizar un equilibrio entre impulsar la tecnología y establecer límites para proteger los derechos y la seguridad de las personas.




Comentarios