miércoles, 17 abril 2024
Search
Close this search box.
Search
Close this search box.

¿Será suficiente la marca de agua para evitar desinformación electoral con IA en 2024?

Este año está prevista la realización de varios comicios en el mundo, lo que ha puesto de relieve la necesidad de prevenir campañas de desinformación y el potencial uso de Inteligencia Artificial para manipular al ciudadano.

Numerosas elecciones están por realizarse este 2024 a escala global. A los comicios en El Salvador, en el cual resultó reelegido Nayib Bukele, le seguirán otros cinco en América Latina: Panamá, República Dominicana, México, Uruguay y Venezuela, en ese orden. La llegada de estos procesos ha puesto sobre el tapete público la necesidad de prevenir campañas de desinformación y el potencial uso de inteligencia artificial, para manipular al ciudadano.

El pasado mes de enero, Sam Altman, director general de OpenAI, creadora de ChatGPT, anunció que la empresa planea prevenir que sus productos sean empleados para crear campañas de desinformación electoral este año. Anunció que, en concreto, la compañía prohibirá el uso de su tecnología para crear chatbots que se hagan pasar por candidatos o gobiernos reales, y pondrá una marca de agua digital a las imágenes de IA creadas con su generador DALL-E, con la finalidad de que se pueda conocer si una imagen difundida en otro site se creó utilizando la herramienta de IA.

OpenAI es sólo una entre las muchas herramientas avanzadas de inteligencia artificial. Ciertamente, el ejemplo que está poniendo esta startup de inteligencia artificial, con sede en San Francisco, Estados Unidos, es loable, pues permea un ensayo de políticas y medidas para evitar incidir, a través de manipulación con deep fake, en los procesos comiciales. Altman añadió que no permitirá a sus usuarios crear aplicaciones para campañas políticas hasta que no se conozca a fondo cuál es el poder persuasivo de su tecnología.

Expertos y asesores en democracia, como Mekela Panditharatne, del programa de democracia del Centro Brennan para la Justicia, han calificado como positivos los anuncios de OpenAI contra la desinformación electoral, pero aún no hay respuesta sobre lo que ocurrirá si otras herramientas distintas a ChatGPT y DALL-E, de OpenAI, siguen su camino sin incorporar acciones de protección contra la desinformación electoral.

La falta de autorregulación por parte de la totalidad de las empresas implicaría mecanismos de regulación que no han sido aún contemplados en materia de inteligencia artificial. La pregunta es, ¿será esto suficiente para frenar la desinformación electoral?

La inteligencia artificial es solo una de las tantas herramientas que pueden usarse para crear desinformación. Desde mentiras en el discurso público, pasando por creación de contenidos distorsionadores de la realidad, tales como usurpaciones de medios, audios de dudosa procedencia, y  descontextualizaciones de hechos con material audiovisual relativo a otras latitudes o correspondientes a instancias temporales pasadas, se usan en la mesa de laboratorios de desinformación.

La inteligencia artificial es solo una de las vertientes. Corresponde a ciudadanos, periodistas e iniciativas como el Observatorio Venezolano de Fake News y Cotejo.info, entre otras, seguir explorando para encontrar herramientas y métodos de verificación, pues el fenómeno de la desinformación en época electoral es una constante en la historia de los procesos de decisión política.