Se aprueba en el Parlamento la Ley de Inteligencia Artificial de la Unión Europea
El Parlamento Europeo ha aprobado la Ley de Inteligencia Artificial de la UE, un amplio marco legislativo para la gobernanza y la supervisión de las tecnologías de inteligencia artificial en la Unión Europea.
EU AI act: first regulation on artificial intelligence
The use of artificial intelligence in the EU will be regulated by the AI Act, the world’s first comprehensive AI law. Find out how it will protect you ⬇️https://t.co/CQqAi7S8lR pic.twitter.com/GzVfIne7tH— Europarl UK (@EPinUK) June 14, 2023
La medida fue aprobada por el Parlamento en una votación celebrada el 14 de junio en la que obtuvo un apoyo mayoritario de 499 votos a favor, 28 en contra y 93 abstenciones. El siguiente paso antes de que el proyecto se convierta en ley consistirá en negociaciones individuales con miembros del Parlamento Europeo para suavizar los detalles. Propuesta inicialmente por la Comisión Europea el 21 de abril, la Ley de Inteligencia Artificial de la UE es un amplio conjunto de normas para el desarrollo de la IA en la UE.
Según un comunicado de prensa del Parlamento Europeo
“Las normas pretenden fomentar la adopción de una IA centrada en el ser humano y fiable y proteger la salud, la seguridad, los derechos fundamentales y la democracia de sus efectos nocivos”.
Una vez aplicada, la ley prohibiría determinados tipos de servicios y productos de inteligencia artificial, al tiempo que limitaría o impondría restricciones a otros. Entre las tecnologías directamente prohibidas están la vigilancia biométrica, los sistemas de puntuación social, la vigilancia policial predictiva, el llamado “reconocimiento de emociones” y los sistemas de reconocimiento facial no selectivos. Los modelos de IA generativa, como ChatGPT de OpenAI y Bard de Google, podrían funcionar con la condición de que sus resultados se etiquetaran claramente como generados por IA.
Una vez que la ley se convierta en ley, cualquier sistema de IA que pueda “suponer un daño significativo para la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas” o “influir en los votantes y en el resultado de las elecciones” se clasificará como de alto riesgo y estará sujeto a una mayor gobernanza.
La aprobación por el Parlamento de la Ley de Inteligencia Artificial de la UE se produce apenas dos semanas después de que el 31 de mayo se convirtiera en ley el proyecto de ley Markets in Crypto Assets (MiCA) de la entidad supranacional. En ambos casos, los líderes del sector fueron algunos de los que lideraron la lucha por la regulación.
El CEO de OpenAI, Sam Altman, ha sido uno de los más firmes defensores de la supervisión gubernamental de la industria de la IA. Recientemente declaró ante el Congreso de EEUU en una audiencia en la que hizo explícita su creencia de que la regulación es necesaria. Sin embargo, Altman también advirtió recientemente a los reguladores europeos contra el exceso de regulación.
En el ámbito de las criptomonedas, la directora general de Ripple para Europa y el Reino Unido, Sendi Young, declaró recientemente a Cointelegraph que cree que la ley MiCA contribuirá a facilitar la “igualdad de condiciones” para las empresas que operan en el sector de las criptomonedas en Europa.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.