¿La primera de muchas? La prohibición de ChatGPT en Italia podría desencadenar una oleada de regulación de la IA
Italia ha saltado recientemente a los titulares al convertirse en el primer país occidental que prohíbe el popular chatbot ChatGPT, basado en inteligencia artificial (IA).
La Autoridad Italiana de Protección de Datos (IDPA) ordenó a OpenAI, la empresa con sede en Estados Unidos que está detrás de ChatGPT, que deje de procesar los datos de los usuarios italianos hasta que cumpla el Reglamento General de Protección de Datos (RGPD), la ley de privacidad de los usuarios de la Unión Europea.
La IDPA citó preocupaciones sobre una violación de datos que expuso conversaciones de usuarios e información de pago, la falta de transparencia y la base legal para recopilar y utilizar datos personales para entrenar al chatbot.
La decisión ha suscitado un debate sobre las implicaciones de la regulación de la IA para la innovación, la privacidad y la ética. La medida de Italia fue muy criticada, y su viceprimer ministro, Matteo Salvini, dijo que era “desproporcionada” e hipócrita, pues decenas de servicios basados en IA, como el chat de Bing, siguen funcionando en el país.
Salvini dijo que la prohibición podría perjudicar a las empresas nacionales y a la innovación, argumentando que cada revolución tecnológica conlleva “grandes cambios, riesgos y oportunidades”.
IA y los riesgos a la privacidad
Mientras que la prohibición total de ChatGPT por parte de Italia fue ampliamente criticada en las redes sociales, algunos expertos argumentaron que la prohibición podría estar justificada. En declaraciones a Cointelegraph, Aaron Rafferty, CEO de la organización autónoma descentralizada, StandardDAO, dijo que la prohibición “puede estar justificada si plantea riesgos de privacidad inmanejables”.
Rafferty añadió que abordar retos más amplios relacionados con la privacidad de la IA, como el manejo de datos y la transparencia, podría “ser más eficaz que centrarse en un único sistema de IA.” La medida, argumentó, pone a Italia y a sus ciudadanos “en déficit en la carrera armamentística de la IA”, que es algo “con lo que Estados Unidos también está luchando actualmente”.
Vincent Peters, ex alumno de Starlink y fundador del proyecto de tokens no fungibles Inheritance Art, dijo que la prohibición estaba justificada, señalando que GDPR es un “amplio conjunto de regulaciones en vigor para ayudar a proteger los datos de los consumidores y la información de identificación personal”.
Peters, que dirigió los esfuerzos de Starlink para cumplir el GDPR en su despliegue por todo el continente, comentó que los países europeos que se adhieren a la ley de privacidad se la toman en serio, lo que significa que OpenAI debe ser capaz de articular o demostrar cómo se utiliza y cómo no se utiliza la información personal. No obstante, se mostró de acuerdo con Salvini al afirmar:
“Del mismo modo que ChatGPT no debería ser señalado, tampoco debería quedar excluido de tener que abordar los problemas de privacidad que casi todos los servicios en línea necesitan abordar”.
Nicu Sebe, responsable de IA en la empresa de inteligencia artificial Humans.ai y profesor de aprendizaje automático en la Universidad de Trento, Italia, declaró a Cointelegraph que siempre hay una carrera entre el desarrollo de la tecnología y sus correlativos aspectos éticos y de privacidad.
Sebe dijo que la carrera no siempre está sincronizada y que, en este caso, la tecnología lleva la delantera, aunque cree que los aspectos éticos y de privacidad pronto se pondrán al día. Por ahora, la prohibición era “comprensible” para que “OpenAI pueda ajustarse a la normativa local sobre gestión de datos y privacidad”.
El desajuste no es exclusivo de Italia. Otros gobiernos están desarrollando sus propias normas para la IA a medida que el mundo se acerca a la inteligencia artificial general, término utilizado para describir una IA capaz de realizar cualquier tarea intelectual. El Reino Unido ha anunciado planes para regular la IA, mientras que la UE parece adoptar una postura prudente a través de la Ley de Inteligencia Artificial, que restringe fuertemente el uso de la IA en varias áreas críticas como los dispositivos médicos y los vehículos autónomos.
¿Se ha sentado un precedente?
Italia podría no ser el último país en prohibir el acceso a ChatGPT. La decisión de la IDPA de prohibir ChatGPT podría sentar un precedente a seguir por otros países o regiones, lo que podría tener importantes implicaciones para las empresas mundiales de IA. Rafferty, de StandardDAO dijo:
“La decisión de Italia podría sentar un precedente para otros países o regiones, pero los factores específicos de cada jurisdicción determinarán cómo responden a las preocupaciones de privacidad relacionadas con la IA. En general, ningún país quiere quedarse atrás en el potencial de desarrollo de la IA”.
Jake Maymar, vicepresidente de innovación del proveedor de software de realidad aumentada y virtual The Glimpse Group, dijo que la medida “sentará un precedente al llamar la atención sobre los retos asociados a la IA y las políticas de datos, o la falta de ellas”.
Para Maymar, el discurso público sobre estas cuestiones es un “paso en la dirección correcta, puesto que una gama más amplia de perspectivas mejora nuestra capacidad de comprender el alcance total del impacto”. Peters, de Inheritance Art, se mostró de acuerdo y afirmó que la medida sentará un precedente para otros países que entran en el ámbito de aplicación del RGPD.
Para aquellos que no aplican el GDPR, establece un “marco en el que estos países deben considerar cómo OpenAI maneja y utiliza los datos de los consumidores”. Sebe, de la Universidad de Trento, cree que la prohibición se debe a una discrepancia entre la legislación italiana sobre gestión de datos y lo que “se suele permitir en Estados Unidos”.
Equilibrio entre innovación y privacidad
Parece claro que los agentes del sector de la inteligencia artificial tienen que cambiar su enfoque, al menos en la UE, para poder prestar servicios a los usuarios sin dejar de contar con el beneplácito de los reguladores. Pero, ¿cómo pueden equilibrar la necesidad de innovación con las preocupaciones por la privacidad y la ética a la hora de desarrollar sus productos?
No es fácil responder a esta pregunta, dado que el desarrollo de productos de IA que respeten los derechos de los usuarios puede plantear concesiones y dificultades.
Joaquín Capozzoli, Director General de la plataforma de juegos Web3 Mendax, afirmó que se puede lograr un equilibrio “incorporando medidas sólidas de protección de datos, realizando revisiones éticas exhaustivas y entablando un diálogo abierto con usuarios y reguladores para abordar las preocupaciones de forma proactiva”.
Rafferty, de StandardDAO, declaró que en lugar de destacar ChatGPT, es necesario un enfoque global con “normas y reglamentos coherentes para todas las tecnologías de IA y las tecnologías de medios sociales en general”.
Equilibrar innovación y privacidad implica “dar prioridad a la transparencia, el control del usuario, una sólida protección de datos y principios de privacidad por diseño”. La mayoría de las empresas deberían “colaborar de alguna manera con el gobierno o proporcionar marcos de código abierto para la participación y la retroalimentación”, dijo Rafferty.
Sebe se refirió a los actuales debates sobre si la tecnología de la IA es perjudicial, incluida una reciente carta abierta en la que se pedía una pausa de seis meses en el avance de la tecnología para permitir un análisis introspectivo más profundo de sus posibles repercusiones. La carta recibió más de 20,000 firmas, entre ellas las de Elon Musk, CEO de Tesla, Steve Wozniak, cofundador de Apple, y Chris Larsen, cofundador de Ripple.
La carta plantea una preocupación válida a Sebe, pero esa pausa de seis meses es “poco realista”. Además añadió:
“Para equilibrar la necesidad de innovación con la preocupación por la privacidad, las empresas de IA deben adoptar políticas de privacidad de datos y medidas de seguridad más estrictas, garantizar la transparencia en la recopilación y el uso de datos, y obtener el consentimiento del usuario para la recopilación y el procesamiento de datos”.
El avance de la inteligencia artificial ha aumentado su capacidad para recopilar y analizar cantidades significativas de datos personales, dijo, lo que suscita preocupación por la privacidad y la vigilancia. Para él, las empresas tienen “la obligación de ser transparentes sobre sus prácticas de recopilación y uso de datos y de establecer medidas de seguridad sólidas para salvaguardar los datos de los usuarios”.
Otras preocupaciones éticas que deben tenerse en cuenta son los posibles sesgos, la responsabilidad y la transparencia, según Sebe, puesto que los sistemas de IA “tienen el potencial de exacerbar y reforzar prejuicios sociales preexistentes, dando lugar a un trato discriminatorio de grupos específicos”.
Capozzoli, de Mendax, dijo que la empresa cree que es “responsabilidad colectiva de las empresas de IA, los usuarios y los reguladores trabajar juntos para abordar las preocupaciones éticas, y crear un marco que fomente la innovación al tiempo que resguarda los derechos individuales”.
Maymar, de Glimpse Group, declaró que los sistemas de IA como ChatGPT tienen “un potencial infinito y pueden ser muy destructivos si se utilizan mal”. Para que las empresas que están detrás de estos sistemas puedan equilibrarlo todo, deben conocer tecnologías similares y analizar dónde se encontraron con problemas y dónde tuvieron éxito, añadió.
Las simulaciones y pruebas revelan agujeros en el sistema, según Maymar; por tanto, las empresas de IA deberían esforzarse aparentemente por innovar, ser transparentes y responsables.
Deberían identificar y abordar de forma proactiva los posibles riesgos e impactos de sus productos sobre la privacidad, la ética y la sociedad. Si lo hacen, probablemente podrán generar confianza entre los usuarios y los reguladores, evitando -y potencialmente revirtiendo- el destino de ChatGPT en Italia.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.