Los países del G7 lanzarán un código de conducta sobre inteligencia artificial, según informe
Los países del Grupo de los Siete (G7) tienen programado llegar a un acuerdo sobre un código de conducta de inteligencia artificial (IA) para desarrolladores el 30 de octubre, según un informe de Reuters.
Según el informe, el código consta de 11 puntos que tienen como objetivo promover una “IA segura, segura y confiable en todo el mundo” y ayudar a “aprovechar” los beneficios de la IA, al tiempo que aborda y soluciona los riesgos que plantea.
El plan fue redactado por líderes del G7 en septiembre. Afirma que ofrece orientación voluntaria sobre acciones para “organizaciones que desarrollan los sistemas de IA más avanzados, incluidos los modelos de base más avanzados y los sistemas de IA generativa”.
Además, sugiere que las empresas deberían publicar informes sobre las capacidades, limitaciones, uso y abuso de los sistemas que se están construyendo. También se recomiendan controles de seguridad robustos para dichos sistemas.
Los países involucrados en el G7 incluyen a Canadá, Francia, Alemania, Italia, Japón, el Reino Unido, Estados Unidos y la Unión Europea.
Cointelegraph se ha puesto en contacto con el G7 para confirmar el desarrollo y obtener información adicional.
El G7 de este año tuvo lugar en Hiroshima, Japón, y se celebró una reunión entre todos los Ministros de Tecnología y Digitales participantes el 29 y 30 de abril.
Los temas tratados en la reunión incluyeron tecnologías emergentes, infraestructura digital e IA, con un punto de la agenda dedicado específicamente a la IA responsable y la gobernanza global de la IA.
El código de conducta de IA del G7 llega en un momento en que los gobiernos de todo el mundo intentan navegar por la aparición de la IA con sus útiles capacidades y sus preocupaciones. La UE fue uno de los primeros organismos gubernamentales en establecer pautas con su histórica Ley de IA de la UE, cuyo primer borrador fue aprobado en junio.
El 26 de octubre, las Naciones Unidas establecieron un comité asesor de 39 miembros para abordar problemas relacionados con la regulación global de la IA.
El gobierno chino también lanzó su propia regulación de IA, que comenzó a tener efecto en agosto.
Dentro de la industria, el desarrollador del popular chatbot de IA ChatGPT, OpenAI, anunció que planea crear un equipo de “preparación” que evaluará una variedad de riesgos relacionados con la IA.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.