Orden de Biden es “sin duda desafiante” para la IA de código abierto
La semana pasada, el Gobierno del Presidente de Estados Unidos, Joe Biden, emitió una extensa orden ejecutiva destinada a proteger a los ciudadanos, los organismos gubernamentales y las empresas garantizando las normas de seguridad de la IA.
La orden establecía seis nuevas normas de seguridad y protección de la IA, junto con intenciones de uso ético de la IA en los organismos gubernamentales. Biden dijo que la orden se alinea con los propios principios del gobierno de “seguridad, protección, confianza, apertura”.
My Executive Order on AI is a testament to what we stand for:
Safety, security, and trust. pic.twitter.com/rmBUQoheKp
— President Biden (@POTUS) October 31, 2023
Mi Orden Ejecutiva sobre IA es un testimonio de lo que defendemos:
Seguridad y confianza.
Incluye mandatos tan amplios como compartir los resultados de las pruebas de seguridad con las autoridades para las empresas que desarrollen “cualquier modelo de base que suponga un grave riesgo para la seguridad nacional, la seguridad económica nacional o la salud y seguridad públicas nacionales” y “acelerar el desarrollo y uso de técnicas de preservación de la privacidad”.
Sin embargo, la falta de detalles que acompaña a tales declaraciones ha dejado a muchos en la industria preguntándose cómo podría potencialmente ahogar a las empresas en el desarrollo de modelos de primer nivel.
Adam Struck, socio fundador de Struck Capital e inversor en IA, dijo a Cointelegraph que la orden muestra un nivel de “seriedad en torno al potencial de la IA para remodelar todas las industrias”.
También señaló que, para los desarrolladores, anticiparse a los riesgos futuros según la legislación basada en suposiciones de productos que aún no están totalmente desarrollados es complicado.
“Esto es sin duda un reto para las empresas y los desarrolladores, sobre todo en la comunidad de código abierto, donde la orden ejecutiva era menos directiva”.
Sin embargo, dijo que la intención de la administración de gestionar las directrices a través de jefes de IA y consejos de gobernanza de IA en agencias reguladoras específicas significa que las empresas que construyan modelos dentro de esas agencias deben tener una “estrecha comprensión de los marcos reguladores” de esa agencia.
“Las empresas que siguen valorando el cumplimiento y la privacidad de los datos y los fundamentos algorítmicos imparciales deben operar dentro de un paradigma con el que el gobierno se sienta cómodo”.
El Gobierno ya ha publicado más de 700 casos de uso de la IA a través de su sitio web “ai.gov”.
Martín Casado, socio general de la empresa de capital riesgo Andreessen Horowitz, publicó en X, antes Twitter, que él, junto con varios investigadores, académicos y fundadores en IA, ha enviado una carta a la Administración Biden por su potencial para restringir la IA de código abierto.
“Creemos firmemente que el código abierto es la única manera de mantener el software seguro y libre de monopolios. Por favor, ayuden a difundirlo”, escribió.
1/ We’ve submitted a letter to President Biden regarding the AI Executive Order and its potential for restricting open source AI. We believe strongly that open source is the only way to keep software safe and free from monopoly. Please help amplify. pic.twitter.com/Mbhu35lWvt
— martin_casado (@martin_casado) November 3, 2023
La carta calificaba la orden ejecutiva de “excesivamente amplia” en su definición de determinados tipos de modelos de IA y expresaba el temor de que las empresas más pequeñas se vieran enredadas en los requisitos necesarios para otras empresas más grandes.
Jeff Amico, jefe de operaciones de Gensyn AI, también publicó una opinión similar, calificándola de “terrible” para la innovación en Estados Unidos.
Biden’s AI Executive Order is out and it’s terrible for US innovation.
Here are some of the new obligations, which only large incumbents will be able to comply with pic.twitter.com/R3Mum6NCq5
— Jeff Amico (@_jamico) October 31, 2023
Struck también hizo hincapié en este punto, afirmando que aunque la claridad normativa puede ser “útil para las empresas que están creando productos de IA en primer lugar”, también es importante tener en cuenta que los objetivos de las “grandes tecnológicas” como OpenAI o Anthropic difieren en gran medida de las nuevas empresas de IA en fase inicial.
“Me gustaría que los intereses de estas empresas en fase inicial estuvieran representados en las conversaciones entre el gobierno y el sector privado, ya que así se puede garantizar que las directrices reguladoras no sean excesivamente favorables sólo a las empresas más grandes del mundo”.
Matthew Putman, CEO y cofundador de Nanotronics, líder mundial en fabricación con IA, también comentó a Cointelegraph que la orden señala la necesidad de marcos regulatorios que garanticen la seguridad de los consumidores y el desarrollo ético de la IA a mayor escala.
“El modo en que se apliquen estos marcos normativos depende ahora de las interpretaciones y acciones de los reguladores”, afirmó.
“Como hemos presenciado con las criptomonedas, las restricciones de mano dura han obstaculizado la exploración de aplicaciones potencialmente revolucionarias”.
Putman afirma que los temores sobre el potencial “apocalíptico” de la IA son “exagerados en relación con sus perspectivas de impacto positivo a corto plazo”.
En su opinión, es más fácil para quienes no participan directamente en el desarrollo de la tecnología construir narrativas en torno a los hipotéticos peligros sin observar realmente las aplicaciones “verdaderamente innovadoras”, que, según él, se están produciendo fuera de la vista del público.
Industrias como la fabricación avanzada, la biotecnología y la energía están, en palabras de Putman, “impulsando una revolución de la sostenibilidad” con nuevos controles de procesos autónomos que están mejorando significativamente los rendimientos y reduciendo los residuos y las emisiones.
“Estas innovaciones no se habrían descubierto sin la exploración intencionada de nuevos métodos. En pocas palabras, es mucho más probable que la IA nos beneficie que nos destruya”.
Mientras la orden ejecutiva aún está fresca y los conocedores del sector se apresuran a analizar sus intenciones, el Instituto Nacional de Normas y Tecnología (NIST) de Estados Unidos y el Departamento de Comercio ya han empezado a solicitar miembros para su recién creado Consorcio del Instituto de Seguridad de la Inteligencia Artificial (IA).
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.