UE tiene oportunidad de liderar nueva normativa sobre IA
La secretaria general de Amnistía Internacional, Anges Callamard, hizo pública una declaración el 27 de noviembre en respuesta a la negativa de tres Estados miembros de la Unión Europea a regular los modelos de inteligencia artificial (IA).
Francia, Alemania e Italia llegaron a un acuerdo que incluía la no adopción de normas tan estrictas para los modelos fundacionales de IA, que es un componente básico de la próxima Ley de IA de la UE.
Esto se produjo después de que la UE recibiera múltiples peticiones de agentes de la industria tecnológica que pedían a los reguladores que no regularan en exceso la incipiente industria.
Sin embargo, Callamard dijo que la región tiene la oportunidad de mostrar “liderazgo internacional” con una regulación sólida de la IA, y los Estados miembros “no deben socavar la Ley de IA cediendo a las afirmaciones de la industria tecnológica de que la adopción de la Ley de IA dará lugar a una regulación de mano dura que frenaría la innovación”.
“No olvidemos que ‘innovación frente a regulación’ es una falsa dicotomía que durante años han esgrimido las empresas tecnológicas para eludir una rendición de cuentas significativa y una regulación vinculante.”
Dijo que esta retórica de la industria tecnológica pone de relieve la “concentración de poder” de un pequeño grupo de empresas tecnológicas que quieren estar a cargo del “libro de reglas de IA”.
Amnistía Internacional ha sido miembro de una coalición de organizaciones de la sociedad civil liderada por la Red Europea de Derechos Digitales que aboga por leyes de IA de la UE con la protección de los derechos humanos a la vanguardia.
Callamard dijo que el abuso de los derechos humanos por parte de la IA está “bien documentado” y que “los estados están utilizando sistemas de IA no regulados para evaluar las reclamaciones de bienestar, vigilar los espacios públicos o determinar la probabilidad de que alguien cometa un delito”.
“Es imperativo que Francia, Alemania e Italia dejen de retrasar el proceso de negociación y que los legisladores de la UE se centren en garantizar que las protecciones cruciales de los derechos humanos se hagan ley antes de que finalice el actual mandato de la UE en 2024.”
Recientemente, Francia, Alemania e Italia también formaron parte de un nuevo conjunto de directrices desarrolladas por 15 países y grandes empresas tecnológicas, incluidas OpenAI y Anthropic, que sugieren prácticas de ciberseguridad para los desarrolladores de IA al diseñar, desarrollar, lanzar y supervisar modelos de IA.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.