Durante la primera jornada de la Conferencia de Seguridad de Múnich, Alemania (MSC), se dio a conocer un acuerdo sin precedentes entre algunas de las mayores empresas tecnológicas del mundo. Google, Meta, OpenAI, Microsoft, TikTok y otras 17 compañías firmaron el ‘Acuerdo Tecnológico para combatir el uso engañoso de la inteligencia artificial (IA) en las elecciones de 2024’. Este acuerdo voluntario tiene como objetivo establecer acciones conjuntas para prevenir que la IA sea utilizada con fines de manipulación electoral.
El pacto, anunciado por Christoph Heusgen, presidente de la Conferencia de Seguridad de Múnich, se centra en la contención de contenido generado por IA, como imágenes, audios y videos, que puedan falsificar o alterar engañosamente la apariencia, la voz o las acciones de candidatos políticos y funcionarios electorales. Aunque el acuerdo no prohíbe explícitamente los deepfakes, se compromete al desarrollo de tecnologías y métodos para detectar, monitorear y etiquetar este tipo de contenido.
El impacto de este acuerdo es crucial, especialmente en un año en el que se espera una histórica participación electoral a nivel global. Según un informe de The Economist, se estima que alrededor de 4,000 millones de personas participarán en procesos democráticos este año. Sin embargo, solo 43 de los 71 países considerados tendrán elecciones plenamente libres y justas.
Los expertos advierten sobre los riesgos asociados al uso de la IA generativa con fines de manipulación electoral. El Foro Económico Mundial ha identificado la desinformación y la polarización política como riesgos significativos para este año. Ante estas preocupaciones, autoridades de diversos países han instado a las grandes empresas tecnológicas a establecer salvaguardas para evitar el uso malicioso de la IA.
Los firmantes acordaron ocho compromisos específicos que serán aplicados cuando “sean relevantes para los servicios que brinda cada empresa”:
- Desarrollar e implementar tecnología para mitigar los riesgos relacionados con el contenido electoral engañoso creado con sistemas de IA, incluidos aquellos de código abierto.
- Evaluar los modelos de IA dentro del alcance de este acuerdo para comprender los riesgos que pueden representar con respecto a la producción de contenido electoral engañoso.
- Detectar la distribución de este tipo de materiales en sus plataformas.
- Tomar acciones para abordar adecuadamente la información engañosa distribuida en sus servicios.
- Fomentar la adaptación entre las industrias que son sensibles al contenido electoral engañoso.
- Proporcionar al público información que transparente las acciones de mitigación.
- Trabajar de manera continua con organizaciones académicas y de la sociedad civil para desarrollar planes de control.
- Apoyar esfuerzos para fomentar la conciencia pública, la alfabetización mediática y la resiliencia de toda la sociedad.
Aunque la mayoría de las grandes tecnológicas han anunciado medidas para prevenir el uso malicioso de la IA, algunas críticas señalan la falta de fechas concretas para su implementación. Rachel Orey, directora adjunta senior del Proyecto Elecciones en el Centro de Políticas Bipartidistas, reconoce el interés de las empresas en proteger los procesos electorales, pero advierte que el acuerdo sigue siendo voluntario y será crucial asegurar su cumplimiento.
En resumen, este acuerdo entre las principales empresas tecnológicas representa un paso importante para proteger la integridad de los procesos electorales frente a la manipulación digital. Sin embargo, su efectividad dependerá de la implementación efectiva de las medidas acordadas y de la vigilancia constante para garantizar su cumplimiento.