China establece reglas más estrictas para entrenamiento de modelos de IA generativa
China ha publicado regulaciones de seguridad preliminares para empresas que ofrecen servicios de inteligencia artificial generativa (IA), que incluyen restricciones sobre las fuentes de datos utilizadas para el entrenamiento de modelos de IA.
El miércoles 11 de octubre, las regulaciones propuestas fueron publicadas por el Comité Nacional de Normalización de Seguridad de la Información, compuesto por representantes de la Administración del Ciberespacio de China (CAC), el Ministerio de Industria y Tecnología de la Información y agencias de aplicación de la ley.
La IA generativa, como se ejemplifica en los logros de ChatGPT de OpenAI, adquiere la capacidad de realizar tareas mediante el análisis de datos históricos y genera contenido nuevo, como texto e imágenes, basado en este entrenamiento.
El comité recomienda realizar una evaluación de seguridad sobre el contenido utilizado para entrenar modelos de IA generativa públicamente accesibles. El contenido que exceda el “5% en forma de información ilícita y perjudicial” será designado para ser incluido en una lista negra. Esta categoría incluye contenido que promueve el terrorismo, la violencia, la subversión del sistema socialista, el daño a la reputación del país y acciones que socavan la cohesión nacional y la estabilidad social.
Las regulaciones preliminares también enfatizan que los datos sujetos a censura en Internet en China no deben servir como material de entrenamiento para estos modelos. Este desarrollo llega poco más de un mes después de que las autoridades regulatorias dieran permiso a varias empresas tecnológicas chinas, incluido el prominente motor de búsqueda Baidu, para presentar sus chatbots impulsados por IA generativa al público en general.
Desde abril, la CAC ha comunicado consistentemente su requisito de que las empresas proporcionen evaluaciones de seguridad a los organismos reguladores antes de introducir servicios impulsados por IA generativa al público. En julio, el regulador del ciberespacio publicó un conjunto de pautas que rigen estos servicios, que los analistas de la industria notaron que eran considerablemente menos onerosas en comparación con las medidas propuestas en el borrador inicial de abril.
Las recién reveladas estipulaciones de seguridad preliminares requieren que las organizaciones que se dediquen a entrenar estos modelos de IA obtengan el consentimiento explícito de las personas cuyos datos personales, incluida la información biométrica, se utilizan para el entrenamiento. Además, las pautas incluyen instrucciones detalladas para evitar infracciones relacionadas con la propiedad intelectual.
Los países de todo el mundo están lidiando con el establecimiento de marcos regulatorios para esta tecnología. China considera la IA como un ámbito en el que aspira a competir con Estados Unidos y ha fijado sus ambiciones en convertirse en un líder mundial en este campo para 2030.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.
Sigue leyendo:
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.