El organismo de control de datos de Italia exige transparencia para levantar la restricción de ChatGPT
La agencia italiana de protección de datos, conocida como Garante, ha especificado las medidas que OpenAI debe tomar para revocar una orden impuesta a ChatGPT. La orden se emitió en marzo de 2023. El organismo de control sospechaba que el servicio de chatbot de inteligencia artificial (AI) infringía el Reglamento General de Protección de Datos (RGPD) de la Unión Europea y ordenó a la empresa con sede en Estados Unidos que detuviera el tratamiento de datos pertenecientes a personas residentes en el país.
El comunicado del regulador ordena que OpenAI aumente su transparencia y publique una nota informativa en la que describa exhaustivamente sus prácticas de tratamiento de datos. Además, el comunicado le exige a OpenAI que aplique inmediatamente medidas de control de la edad para impedir que los menores accedan a su tecnología y adopte métodos de verificación de la edad más estrictos.
OpenAI debe especificar los fundamentos jurídicos en los que se basa para procesar los datos de las personas para entrenar su IA, y no puede basarse en el cumplimiento de un contrato. Esto significa que OpenAI debe elegir entre obtener el consentimiento del usuario o basarse en intereses legítimos. La política de privacidad de OpenAI hace referencia actualmente a tres bases jurídicas, pero parece dar más peso a la ejecución de un contrato cuando presta servicios como ChatGPT.
Además, OpenAI debe permitir a los usuarios y no usuarios ejercer sus derechos en relación con sus datos personales, incluida la solicitud de corrección de cualquier información errónea generada por ChatGPT o la eliminación de sus datos.
Por otra parte, la agencia reguladora ordenó que OpenAI les permita a los usuarios oponerse al tratamiento de sus datos para entrenar sus algoritmos. También se exige a OpenAI que lleve a cabo una campaña de concienciación en Italia para informar a las personas que su información se está procesando para entrenar sus IA.
Garante ha fijado el 30 de abril como fecha límite para que OpenAI complete la mayoría de estas tareas. A OpenAI se le ha concedido tiempo adicional para cumplir con la exigencia extra de migrar de la tecnología de seguridad infantil existente, basada en la edad, a un sistema de verificación de la edad más resistente.
En concreto, OpenAI tiene de plazo hasta el 31 de mayo para presentar un plan de implantación de una tecnología de verificación de la edad que excluya a los usuarios menores de 13 años (y a los de 13 a 18 años que no hayan obtenido el consentimiento paterno). La fecha límite para implantar este sistema más sólido es el 30 de septiembre.
El viernes 31 de marzo, a raíz de la preocupación suscitada por la agencia nacional de protección de datos sobre posibles violaciones de la privacidad y la falta de verificación de la edad de los usuarios, OpenAI, respaldada por Microsoft, desconectó ChatGPT en Italia.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión
Sigue leyendo:
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.