Un senador estadounidense presiona a las empresas tecnológicas para que etiqueten los contenidos generados por IA
El senador estadounidense Michael Bennet ha instado a las empresas tecnológicas a etiquetar los contenidos generados por IA y a vigilar cualquier contenido engañoso producido por inteligencia artificial (IA).
En una carta enviada el 29 de junio a los ejecutivos de las principales empresas tecnológicas relacionadas con IA, entre ellas el creador de ChatGPT, OpenAI, Microsoft, Meta, Twitter y Alphabet, Bennet subrayó que los usuarios deben ser conscientes de cuándo se utiliza IA para crear contenidos.
Bennet dijo que las imágenes falsas tienen consecuencias perturbadoras para la economía y la confianza, especialmente cuando tienen una orientación política.
“Seguir produciendo y difundiendo contenidos generados por IA sin identificadores claros y fácilmente comprensibles supone un riesgo inaceptable para el discurso público y la integridad electoral.“
El senador también hizo hincapié en que, si bien algunas empresas han comenzado a etiquetar algunos contenidos generados por IA, las políticas son “alarmantemente dependientes del cumplimiento voluntario”.
In the letter, Bennet asks company executives to answer concerns about standards in identifying AI-generated content, implementing those standards and the repercussions for rule violations by July 31.
En la carta, Bennet pide a los ejecutivos de las empresas que respondan antes del 31 de julio a sus inquietudes sobre las normas de identificación de los contenidos generados por IA, la aplicación de esas normas y las repercusiones en caso de infracción.
La única empresa que ha respondido hasta ahora es Twitter, que al parecer lo ha hecho con un emoji de caca.
Los legisladores europeos también han expresado su temor a que los contenidos de IA no etiquetados conduzcan a la desinformación.
El 5 de junio, Vera Jourova, vicepresidenta de Valores y Transparencia de la Comisión Europea, declaró a los medios de comunicación que cree que las empresas que utilizan herramientas de IA generativa con “potencial para generar desinformación” deberían etiquetar los contenidos creados para frenar la propagación de la desinformación.
Aunque Estados Unidos no cuenta actualmente con una legislación exhaustiva sobre IA, el 8 de junio los legisladores estadounidenses propusieron dos proyectos de ley bipartidistas dirigidos a la transparencia y la innovación en el ámbito de la IA.
Uno de los proyectos, propuesto por el senador demócrata Gary Peters y los senadores republicanos Mike Braun y James Lankford, exigiría transparencia al gobierno en cuanto al uso de la IA.
El otro, de Bennet y su compañero senador demócrata Mark Warner, junto con el senador republicano Todd Young, establecería una Oficina oficial de Análisis de la Competencia Global.
Bennet también hizo comentarios en marzo de 2023 dirigidos a la inestabilidad de la criptoindustria tras el colapso de Signature Bank.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión
Sigue leyendo:
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.