TikTok, Snapchat y otros se unen para combatir el contenido de abuso infantil generado por IA
Una coalición de importantes plataformas de redes sociales, desarrolladores de inteligencia artificial (IA), gobiernos y organizaciones no gubernamentales (ONG) han emitido una declaración conjunta comprometiéndose a combatir el contenido abusivo generado por IA.
El 30 de octubre, el Reino Unido emitió la declaración de política, que cuenta con 27 firmantes, incluyendo a los gobiernos de Estados Unidos, Australia, Corea, Alemania e Italia, junto con las plataformas de redes sociales Snapchat, TikTok y OnlyFans.
También fue firmado por las plataformas de IA Stability AI y Ontocord.AI, y varias ONG que trabajan para la seguridad en internet y los derechos de los niños, entre otros.
La declaración dice que, aunque la IA ofrece “enormes oportunidades” para enfrentar las amenazas del abuso sexual infantil en línea, también puede ser utilizada por depredadores para generar ese tipo de material.
Reveló datos de la Internet Watch Foundation que, dentro de un mes, de 11,108 imágenes generadas por IA compartidas en un foro de la dark web, 2,978 mostraban contenido relacionado con el abuso sexual infantil.
El gobierno del Reino Unido dijo que la declaración representa un compromiso de “buscar entender y, según corresponda, actuar sobre los riesgos derivados de la IA para combatir el abuso sexual infantil a través de los foros existentes”.
“Todos los actores tienen un papel que desempeñar para garantizar la seguridad de los niños ante los riesgos de la IA de vanguardia.”
Se alentó la transparencia en los planes para medir, supervisar y gestionar las formas en que la IA puede ser explotada por los delincuentes sexuales infantiles, y a nivel nacional para elaborar políticas al respecto.
Además, tiene como objetivo mantener un diálogo sobre cómo combatir el abuso sexual infantil en la era de la IA. Esta declaración se emitió antes de que el Reino Unido celebrara su cumbre mundial sobre seguridad en la IA esta semana.
Las preocupaciones sobre la seguridad infantil en relación con la IA han sido un tema importante de discusión ante la rápida aparición y uso generalizado de la tecnología.
El 26 de octubre, 34 estados en Estados Unidos presentaron una demanda contra Meta, la empresa matriz de Facebook e Instagram, por preocupaciones sobre la seguridad infantil.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.