El CEO de OpenAI testificará ante el Congreso de EEUU junto con un defensor de la “pausa de IA” y un ejecutivo de IBM
Sam Altman, CEO de OpenAI, comparecerá por primera vez ante el Congreso el 16 de mayo para hablar de la regulación de la inteligencia artificial (IA) en Estados Unidos durante una audiencia sobre supervisión. También testificarán la vicepresidenta de confianza y privacidad de IBM, Christina Montgomery, y el profesor emérito de la NYU, Gary Marcus.
US Senate hearing on #AI Oversight, with @OpenAI CEO @sama, IBM’s @_ChristinaMont and NYU Emeritus Prof. @garymarcus, Tuesday am 10ET. https://t.co/VwiR77F52f
— Gary Marcus (@GaryMarcus) May 10, 2023
Los detalles sobre el orden del día de la audiencia siguen siendo escasos. Su título, “Oversight of A.I.: Rules for Artificial Intelligencel” (lit. “Supervisión de la inteligencia artificial: normas para la IA”), implica que el debate se centrará en la seguridad y la privacidad, al igual que la lista de asistentes previstos.
Será la primera vez que el director ejecutivo de OpenAI, Sam Altman, testifique ante el Congreso, aunque recientemente asistió a una mesa redonda con la vicepresidenta Kamala Harris en la Casa Blanca junto a los directores ejecutivos de Alphabet, Microsoft y Anthropic.
Junto a Altman estarán la vicepresidenta de confianza y privacidad de IBM, Christina Montgomery, miembro del Comité Asesor Nacional de Inteligencia Artificial de EE.UU., y el profesor emérito de la Universidad de Nueva York Gary Marcus, autor superventas del New York Times.
Recientemente, Marcus causó sensación en la comunidad de la inteligencia artificial por su firme apoyo a una “pausa” de seis meses en el desarrollo de la inteligencia artificial impulsada por la comunidad.
La idea de una pausa en la IA se definió en una carta abierta publicada en el sitio web del Future of Life Institute el 22 de marzo. Al momento de la publicación de este artículo, cuenta con más de 27,500 firmas.
El objetivo declarado de la carta es “pedir a todos los laboratorios de IA que pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”.
Sam Altman y Christina Montgomery se encuentran entre los que se oponen a la pausa.
Por su parte, Montgomery explicó su opinión en un artículo publicado en el blog de la empresa IBM titulado “Don’t pause AI development, prioritize ethics instead” (“No detengas el desarrollo de la IA, prioriza la ética en su lugar”), en el que abogaba por un enfoque más preciso de la regulación de la IA:
“Una pausa generalizada en el entrenamiento de la IA, junto con las tendencias existentes que parecen estar quitando prioridad a la inversión en los esfuerzos de ética de la industria de la IA, sólo conducirá a daños y contratiempos adicionales.”
Según otra entrada del blog de IBM, escrita en parte por Montgomery, la empresa cree que la IA debería regularse en función del riesgo -vale la pena señalar que, por lo que sabemos, IBM no tiene actualmente ningún modelo de IA generativa de cara al público.
OpenAI, por su parte, es responsable de ChatGPT, posiblemente la tecnología de IA pública más popular de la actualidad.
En una entrevista con Lex Fridman en un evento del MIT, Altman, CEO de la compañía, apoya el desarrollo seguro y ético de los sistemas de IA, pero cree que hay que “involucrar a todo el mundo en el debate” y “sacar estos sistemas al mundo”.
Esto deja a Marcus como la única excepción, ya que ha sido un firme partidario de la pausa desde sus inicios. Aunque Marcus admite que “no participó en la redacción” de la carta, escribió un artículo en su blog titulado “¿Ha llegado el momento de darle al botón de pausa a la IA?” casi un mes antes de que se publicara la carta abierta.
Aunque es probable que la próxima audiencia del Senado funcione como poco más que un foro para que los miembros del Congreso formulen preguntas, el debate podría tener ramificaciones perturbadoras, dependiendo de a qué expertos se crea.
Si el Congreso determina que la regulación de la IA merece una mano dura, expertos como Montgomery temen que tales esfuerzos puedan tener un efecto paralizador sobre la innovación sin abordar necesariamente los problemas de seguridad.
Este perjuicio podría extenderse a sectores operativos en los que la tecnología de GPT sustenta una plétora de bots y servicios. En el mundo de la tecnología financiera, por ejemplo, los exchanges de criptomonedas están adaptando la tecnología de chatbot para atender a sus clientes, realizar operaciones y analizar el mercado.
Sin embargo, a expertos como Marcus y Elon Musk les preocupa que si no se promulga lo que ellos consideran una política de sentido común relacionada con la supervisión de la IA, la humanidad podría sufrir una crisis existencial.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.
Sigue leyendo:
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.