Con más de la mitad de la población mundial lista para votar en las elecciones de todo el mundo este año, los líderes tecnológicos, los legisladores y los grupos de la sociedad civil están cada vez más preocupados de que la inteligencia artificial pueda causar confusión y caos a los votantes. Ahora, un grupo de empresas tecnológicas líderes dicen que se están asociando para abordar esa amenaza.
Más de una docena de empresas tecnológicas involucradas en la construcción o el uso de tecnologías de inteligencia artificial se comprometieron el viernes a trabajar juntas para detectar y contrarrestar contenidos dañinos de inteligencia artificial en las elecciones, incluidas falsificaciones profundas de candidatos políticos. Los firmantes incluyen OpenAI, Google, Meta, Microsoft, TikTok, Adobe y otros.
El acuerdo, denominado “Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024”, incluye compromisos de colaborar en tecnología para detectar contenido engañoso generado por IA y ser transparente con el público sobre los esfuerzos para abordar el contenido de IA potencialmente dañino.
“La IA no creó el engaño electoral, pero debemos asegurarnos de que no ayude a que el engaño florezca”, dijo el presidente de Microsoft, Brad Smith, en una declaración en la Conferencia de Seguridad de Múnich el viernes.
Las empresas tecnológicas generalmente tienen un historial poco estelar en materia de autorregulación y aplicación de sus propias políticas. Pero el acuerdo se produce mientras los reguladores siguen rezagados en la creación de barreras protectoras para las tecnologías de inteligencia artificial que avanzan rápidamente.
Una nueva y creciente cosecha de herramientas de inteligencia artificial ofrece la capacidad de generar rápida y fácilmente texto convincente e imágenes realistas y, cada vez más, video y audio que, según los expertos, podrían usarse para difundir información falsa para engañar a los votantes. El anuncio del acuerdo se produce después de que OpenAI presentara el jueves una nueva herramienta generadora de texto a video de IA increíblemente realista llamada Sora.
“Mis peores temores son que causemos un daño significativo (nosotros, el campo, la tecnología, la industria) al mundo”, dijo el director ejecutivo de OpenAI, Sam Altman, al Congreso en una audiencia en mayo, durante la cual instó a los legisladores a regular la IA.
Algunas empresas ya se habían asociado para desarrollar estándares industriales para agregar metadatos a imágenes generadas por IA que permitirían a los sistemas de otras empresas detectar automáticamente que las imágenes fueron generadas por computadora.
El acuerdo del viernes lleva esos esfuerzos intersectoriales un paso más allá: los firmantes se comprometen a trabajar juntos en esfuerzos como encontrar formas de adjuntar señales legibles por máquina a piezas de contenido generado por IA que indiquen dónde se originaron y evaluar sus modelos de IA para determinar sus riesgos de generar contenido de IA engañoso y relacionado con las elecciones.
Las empresas también dijeron que trabajarían juntas en campañas educativas para enseñar al público cómo “protegerse de ser manipulados o engañados por este contenido”.
Sin embargo, a algunos grupos de la sociedad civil les preocupa que el compromiso no vaya lo suficientemente lejos.
“Las promesas voluntarias como la anunciada hoy simplemente no son lo suficientemente buenas para enfrentar los desafíos globales que enfrenta la democracia”, dijo en un comunicado Nora Benavidez, asesora principal y directora de justicia digital y derechos civiles del organismo de control de tecnología y medios Free Press. “En cada ciclo electoral, las empresas tecnológicas se comprometen a cumplir un conjunto vago de estándares democráticos y luego no cumplen plenamente esas promesas. Para abordar los daños reales que plantea la IA en un año electoral ajetreado… Necesitamos una moderación sólida del contenido que implique revisión, etiquetado y aplicación de la ley por parte de humanos”.