Olvida a Cambridge Analytica: así es como la inteligencia artificial podría amenazar las elecciones
En 2018, el mundo se conmocionó al enterarse de que la consultora política británica Cambridge Analytica había recopilado los datos personales de al menos 50 millones de usuarios de Facebook sin su consentimiento y los había utilizado para influir en las elecciones de Estados Unidos y otros países.
Una investigación encubierta de Channel 4 News dio como resultado imágenes del entonces director ejecutivo de la empresa, Alexander Nix, sugiriendo que no tenía problemas con engañar deliberadamente al público para apoyar a sus clientes políticos, diciendo:
“Suena horrible decirlo, pero son cosas que no tienen por qué ser ciertas. Siempre que se crean”.
El escándalo fue una llamada de atención sobre los peligros tanto de las redes sociales como del big data, así como sobre lo frágil que puede ser la democracia ante el rápido cambio tecnológico que se experimenta a nivel mundial.
Inteligencia artificial
¿Cómo encaja la inteligencia artificial (IA) en este panorama? ¿Podría utilizarse también para influir en las elecciones y amenazar la integridad de las democracias de todo el mundo?
Según Trish McCluskey, profesora asociada de la Universidad de Deakin, y muchos otros, la respuesta es un rotundo sí.
The Pentagon’s chief digital and AI officer Craig Martell warns that generative AI language models like #ChatGPT could become the “perfect tool” for #disinformation. They lack context and people take their words as fact. #AI #cybersecurity pic.twitter.com/pPCHY2zKJH
— Realtime Global Data Intelligence Platform (@KIDataApp) May 5, 2023
McCluskey dijo a Cointelegraph que los grandes modelos de lenguaje como ChatGPT de OpenAI “pueden generar contenido indistinguible del texto escrito por humanos”, lo que puede contribuir a las campañas de desinformación o a la difusión de noticias falsas en línea.
Entre otros ejemplos de cómo la IA puede amenazar potencialmente a las democracias, McCluskey destacó la capacidad de la IA para producir deep fakes, que pueden fabricar vídeos de figuras públicas como candidatos presidenciales y manipular la opinión pública.
Aunque por lo general todavía es fácil saber si un vídeo es una falsificación, la tecnología avanza rápidamente y con el tiempo llegará a ser indistinguible de la realidad.
Por ejemplo, un vídeo deepfake del ex director ejecutivo de FTX, Sam Bankman-Fried, que enlazaba con un sitio web de suplantación de identidad muestra cómo los labios pueden estar a menudo fuera de sincronía con las palabras, dejando a los espectadores con la sensación de que algo no está del todo bien.
Over the weekend, a verified account posing as FTX founder SBF posted dozens of copies of this deepfake video offering FTX users “compensation for the loss” in a phishing scam designed to drain their crypto wallets pic.twitter.com/3KoAPRJsya
— Jason Koebler (@jason_koebler) November 21, 2022
Gary Marcu, un empresario de IA y coautor del libro Rebooting AI: Building Artificial Intelligence We Can Trust, estuvo de acuerdo con la evaluación de McCluskey, diciendo a Cointelegraph que, a corto plazo, el riesgo más significativo planteado por la IA es:
“La amenaza de una desinformación masiva, automatizada y plausible que abrume a la democracia”.
Un artículo revisado por pares de 2021 de los investigadores Noémi Bontridder e Yves Poullet titulado “El papel de la inteligencia artificial en la desinformación” también destacaba la capacidad de los sistemas de IA para contribuir a la desinformación y sugería que lo hace de dos maneras:
“En primer lugar, [la IA] puede ser aprovechada por grupos de interés malintencionados para manipular a las personas de forma especialmente eficaz y a gran escala. En segundo lugar, amplifican directamente la difusión de tales contenidos”.
Además, los sistemas de IA actuales sólo son tan buenos como los datos que se introducen en ellos, lo que a veces puede dar lugar a respuestas sesgadas que pueden influir en la opinión de los usuarios.
Classic, liberal AI bias. #AI #SnapchatAI #GenerativeAI #ArtificialIntelligence (note: I don’t vote in elections. This was an idea I had to see how programmers designed this AI to respond in politics.) pic.twitter.com/hhP2v2pFHg
— Dorian Tapias (@CrypticStyle) May 10, 2023
Cómo mitigar los riesgos
Aunque está claro que la IA tiene el potencial de amenazar la democracia y las elecciones en todo el mundo, cabe mencionar que también puede desempeñar un papel positivo en la democracia y combatir la desinformación.
Por ejemplo, McCluskey afirmó que la IA podría “utilizarse para detectar y marcar la desinformación, facilitar la comprobación de los hechos, supervisar la integridad de las elecciones”, así como educar e implicar a los ciudadanos en los procesos democráticos.
“La clave”, añade McCluskey, “es garantizar que las tecnologías de IA se desarrollen y utilicen de forma responsable, con las regulaciones y salvaguardas adecuadas”.
Un ejemplo de normativa que puede ayudar a mitigar la capacidad de la IA para producir y difundir desinformación es la Ley de Servicios Digitales (DSA) de la Unión Europea.
Cuando la DSA entre en vigor en su totalidad, las grandes plataformas en línea como Twitter y Facebook deberán cumplir una lista de obligaciones que pretenden minimizar la desinformación, entre otras cosas, o estarán sujetas a multas de hasta el 6% de su facturación anual.
La DSA también introduce mayores requisitos de transparencia para estas plataformas en línea, que les obligan a revelar cómo recomiendan contenidos a los usuarios -a menudo mediante algoritmos de IA- y cómo los moderan.
Bontridder y Poullet señalaron que las empresas utilizan cada vez más la IA para moderar los contenidos, lo que, en su opinión, puede ser “especialmente problemático”, ya que la IA puede moderar en exceso y atentar contra la libertad de expresión.
La DSA sólo se aplica a las operaciones en la Unión Europea; McCluskey señala que, como fenómeno global, sería necesaria la cooperación internacional para regular la IA y combatir la desinformación.
McCluskey sugirió que esto podría ocurrir a través de “acuerdos internacionales sobre ética de la IA, normas para la privacidad de los datos o esfuerzos conjuntos para rastrear y combatir las campañas de desinformación”.
En última instancia, McCluskey afirmó que “combatir el riesgo de que la IA contribuya a la desinformación requerirá un enfoque polifacético”, que incluya “regulación gubernamental, autorregulación por parte de las empresas tecnológicas, cooperación internacional, educación pública, soluciones tecnológicas, alfabetización mediática e investigación continua”.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.