Los procesos electorales de 2024, en riesgo por los ‘deepfakes’

El uso engañoso de la IA supone una amenaza, más aun en el contexto de los procesos electorales, ya que en víspera de elecciones suele haber poco margen para contrastar información engañosa.

10 minutos de lectura

Carlos Luca de Tena Piera, IE University

El 21 de enero de 2024, sólo tres días antes de las primarias presidenciales de New Hampshire, los residentes del estado de Nueva Inglaterra recibieron una llamada telefónica del presidente Biden en la que les instaba a reservar su voto para las elecciones de noviembre. Sin embargo, Joe Biden nunca grabó ese mensaje: se imitó su voz mediante inteligencia artificial para intentar engañar a los votantes demócratas y así desalentar su participación en las primarias.

Este problema no solo atañe a Estados Unidos. En 2024 van a acudir a las urnas ciudadanos de más de 70 países y es probable que vayamos a ser testigos del mayor uso fraudulento de la IA hasta la fecha.

Las campañas de desinformación basadas en IA ya están desafiando la integridad de la democracia. Desde deepfakes que suplantan la identidad de candidatos y decisores, hasta bots que difunden información falsa o engañosa a los votantes, estamos presenciando un proceso muy dañino para nuestras instituciones, precisamente en un momento en el que la confianza en ellas se encuentra en mínimos históricos.

¿Elecciones en peligro?

El uso engañoso de la IA supone una amenaza, más aun en el contexto de los procesos electorales, ya que en víspera de elecciones suele haber poco margen para contrastar información engañosa.

Lo ocurrido en otoño de 2023 en Eslovaquia es un buen ejemplo de ello. Días antes de las elecciones parlamentarias, circularon en las redes unas grabaciones de audio falsas en las que se escuchaba al líder de Eslovaquia Progresista, partido prooccidental y uno de los dos más importantes del país, discutiendo la forma de amañar la votación y proponiendo duplicar el precio de la cerveza. Eslovaquia Progresista fue derrotada y hay quienes señalan que estas pueden haber sido las primeras elecciones de la historia manipuladas mediante contenidos ultrafalsos.

Los sistemas de inteligencia artificial son cada vez más sofisticados y cada día mejoran su capacidad para replicar la realidad, difuminando así los límites entre lo real y lo ficticio. Como señala Tim Harford, columnista jefe de Financial Times:

“Los deepfakes, como todas las falsificaciones, aumentan la posibilidad de que la gente confunda una mentira con la verdad, pero también crean espacio para que confundamos la verdad con una mentira”.

Por tanto, no es de extrañar que los ciudadanos crean no poder distinguir entre lo auténtico y los contenidos generados por IA. Una encuesta del Centro para la Gobernanza del Cambio de IE University confirma que solo el 27 % de los europeos cree que sería capaz de detectar materiales generados mediante inteligencia artificial.

Además, no hay dudas de que los contenidos generados por IA van a adquirir una apariencia cada vez más realista.

Regular la IA

La producción de ultrafalsificaciones bebe de la disponibilidad de grandes cantidades de datos personales: vídeos, datos biométricos, grabaciones de voz, etc. Se trata de un tipo de información que, desde hace unos años, abunda en la web.

El problema es que la mayoría de los usuarios de internet optan por la comodidad en detrimento de la privacidad y no parecen preocuparse por su cada vez más amplia huella digital. De ahí que el potencial de deepfakes prácticamente indetectables siga aumentando.

Ante esta situación, ¿cómo podemos garantizar la protección de la integridad electoral y, sobre todo, cómo podemos preservar la confianza de los ciudadanos en las instituciones?

En primer lugar, necesitamos un marco de gobernanza y una legislación que garanticen una estrecha supervisión de la IA. En el último trimestre de 2023 la Unión Europea y Estados Unidos arrancaron este proceso. En Europa, con el reglamento de Inteligencia Artificial acordado por el Consejo y el Parlamento europeo. Y en Estados Unidos, con la Orden Ejecutiva sobre IA firmada por el presidente Biden.

La ley europea de IA clasifica como sistemas de alto riesgo aquellos que pueden influir en el resultado de las elecciones y en el comportamiento de los votantes, y somete a sus productores a obligaciones específicas.

En Estados Unidos, la orden ejecutiva ha incorporado disposiciones para etiquetar claramente el contenido generado por IA y así evitar engaños. Además, se están tramitando una serie de proyectos de ley que se centran en abordar los contenidos ultrafalsos y los manipulados en las elecciones federales estadounidenses.

Control de daños

Sin embargo, hay quienes opinan que estas medidas no serán suficientes para detener la IA engañosa. Una de las razones es que únicamente imponen responsabilidades al productor del contenido, y no a quien lo distribuye. Por lo tanto, podrían ser ineficaces para frenar la propagación de falsificaciones una vez producidas.

Es por ello que las empresas, los partidos políticos y la sociedad en su conjunto deben también movilizarse para atajar este problema. Además de etiquetar o añadir marcas de agua a los contenidos generados por IA, las empresas –especialmente las tecnológicas– deben desplegar mecanismos para detectar contenidos engañosos generados por IA que permitan denunciarlos o bloquearlos antes de que se propaguen. Quizás debamos explorar cómo usar la propia IA para luchar contra estos contenidos.

Las plataformas de redes sociales deberían también valorar limitar la cantidad de contenidos generados por IA que aparecen en sus feeds, ya que su proliferación aumenta el riesgo de desinformación.

Por último, es vital que los partidos políticos establezcan cortafuegos para evitar que sus candidatos diseminen estos contenidos, garantizando que cualquier contenido falso o engañoso producido mediante IA sea retirado rápidamente.

Más cómodos que precavidos

En el espacio digital, los ciudadanos tienden a favorecer la comodidad en detrimento de la privacidad. De hecho, hasta un tercio de los europeos dice que seguiría utilizando aplicaciones como TikTok aunque las autoridades lo desaconsejaran por motivos de privacidad.

El problema es que nuestra huella digital es un arma de doble filo. Pese a que nos hace la vida más fácil –desbloqueando el teléfono con datos biométricos o usando reconocimiento facial para clasificar fotos– e interesante –compartiendo vacaciones por Instagram o expresando opiniones políticas en X–, también nos expone al riesgo de que nuestros datos personales sean utilizados en nuestra contra, ya sea en el ámbito personal o en el contexto electoral.

Si queremos reducir el riesgo, quizá tengamos que reducir nuestra exposición.

Proteger las democracias

Durante este año electoral, no cabe duda que la IA generativa va a ser masivamente utilizada por actores tanto nacionales como extranjeros para influir en las campañas, tensar el debate político y erosionar aún más la confianza en la democracia. Hacer frente a una IA desgobernada debe ser, pues, una de nuestras prioridades.

Quizás ni los gobiernos, ni las empresas, ni los ciudadanos estemos a tiempo para detener el daño que la IA puede infligir a nuestras democracias. Lo que es innegable es que si nos movilizamos y actuamos con determinación, tendremos mayores posibilidades de mitigar sus impactos negativos.


Una versión en inglés de este artículo se publicó en IE Insights.


Carlos Luca de Tena Piera, Executive Director, Center for the Governance of Change, IE University

Este artículo fue publicado originalmente en The Conversation. Lea el original.

¿Qué te ha parecido este artículo?

¡Gracias por tus feedbacks!

¿Has visto un error de redacción o tienes alguna sugerencia?

Los medios de comunicación independientes no se financia con partidos ni subvenciones, lo hacen sus lectores. Si crees en un periodismo libre e independiente, únete a Diario de España.

The Conversation es un medio de comunicación sin ánimo de lucro que publica noticias e investigaciones en línea, incluyendo la opinión y el análisis de expertos.​Los artículos están escritos exclusivamente por académicos e investigadores

Deja una respuesta

Enable Notifications OK No thanks