Plataformas digitales, su papel en las elecciones europeas 2024

En este año 2024, casi la mitad de la población mundial, en 74 países del mundo1, están llamados a participar en procesos electorales, en un contexto global en el cual la desinformación y los efectos adversos de la tecnología son identificados como dos de los principales riesgos que enfrenta la sociedad actual, según advierte el Global Risk Report 2024.2

Uno de esos procesos es la elección del Parlamento Europeo a realizarse el próximo mes de junio y que en esta oportunidad cuenta con un marco institucional en el cual, el Reglamento del Servicio Digital, se destaca porque el mismo aspira a contrarrestar de forma más efectiva esos riesgos que podrían comprometer seriamente la confianza en el proceso electoral y sus resultados, para lo cual, la Comisión Europea ha tomado una serie de acciones orientadas a garantizar la mayor cooperación y colaboración por parte de todas las plataformas digitales en esa tarea.

Las elecciones del Parlamento Europeo ocurren en un contexto en el cual las plataformas digitales se encuentran fuertemente cuestionadas en distintos países del mundo, principalmente por los efectos que su uso genera en los niños y adolescentes, pero también, porque en el caso particular de TikTok, hay un fuerte cuestionamiento por su relación con China, a tal punto que para USA el tema es un asunto de seguridad nacional.

Así como en Estados Unidos se ha fijado un plazo para que TikTok cambie de inversionistas, so pena de prohibir su operación en ese territorio, decisión que ya ha sido apelada por TikTok; en Europa, según noticias publicadas por varios medios entre ellos El Periódico de España, la candidata del PP a la Comisión Europa y actual presidenta, Ursula Von der Leyen, también advierte que en Europa no se descarta que también se pueda llegar a prohibir esa red social.

En ese sentido, oportuno citar a Von der Leyen cuando afirmó que la Comisión Europea fue «la primera institución del mundo» en prohibir la instalación de TikTok en sus teléfonos corporativos y además, agregó que conoce «exactamente el peligro de TikTok».3

Pero los problemas no se limitan a TikTok, también se extienden a Meta, pues la Comisión Europea, en el marco del Reglamento Europeo de Servicio Digital ha abierto dos procesos en su contra, el primero fue anunciado el 30 de abril el cual abordará específicamente los siguientes aspectos que cito a continuación, por considerar que los mismos permiten conocer el alcance de ese proceso, que claramente está muy vinculado con los efectos de las plataformas digitales en los procesos electorales:4

1.- Publicidad engañosa y desinformación.

La Comisión sospecha que Meta no cumple las obligaciones de la Ley de Servicios Digitales relacionadas con la lucha contra la difusión de anuncios engañosos, campañas de desinformación y comportamientos no auténticos coordinados en la UE. Advierte la Comisión Europea que la proliferación de tales contenidos puede suponer un riesgo para el discurso cívico, los procesos electorales y los derechos fundamentales, así como para la protección de los consumidores.

2. Visibilidad del contenido político.

La Comisión sospecha que la política de Meta vinculada al «enfoque del contenido político», que destituye el contenido político en los sistemas de recomendación de Instagram y Facebook, incluidas sus fuentes, no cumple las obligaciones de la Ley de Servicios Digitales. La investigación se centrará en la compatibilidad de esta política con las obligaciones de transparencia y reparación de los usuarios, así como con los requisitos para evaluar y mitigar los riesgos para el discurso cívico y los procesos electorales.

3.- La falta de disponibilidad de un discurso cívico efectivo de terceros en tiempo real y de una herramienta de seguimiento electoral antes de las próximas elecciones al Parlamento Europeo y otras elecciones en varios Estados miembros.

En esta materia, es importante mencionar que Meta está en proceso de desactivar la herramienta el «CrowdTangh», que aporta información pública útil para el seguimiento de las elecciones en tiempo real por parte de investigadores, periodistas y la sociedad civil, también a través de cuadros de indicadores visuales en directo, sin una sustitución adecuada.

La Comisión Europea recuerda que según las Directrices de la Comisión para los proveedores de plataformas en línea de gran tamaño sobre los riesgos sistémicos para los procesos electorales, en tiempo electoral, deben ampliarse el acceso a dichas herramientas. Por consiguiente, la Comisión sospecha que, teniendo en cuenta la desactivación de CrowdTangh, Meta no ha evaluado y mitigado adecuadamente con diligencia los riesgos relacionados con los efectos de Facebook e Instagram en el discurso cívico y los procesos electorales y otros riesgos sistémicos.

Y esa situación pone en riesgo al discurso cívico y a los procesos electorales en relación con las capacidades de rastreo de la desinformación y la desinformación, la identificación de la injerencia y la supresión de los votantes, y la transparencia general en tiempo real proporcionada a los verificadores de datos, a los periodistas y a otras partes interesadas electorales pertinentes.

La Comisión Europea advierte que se reserva su evaluación de la naturaleza y la inminencia de los daños y espera que Meta coopere con la Comisión presentando sin demora la información necesaria para llevar a cabo dicha evaluación. La Comisión también espera que Meta adopte rápidamente todas las medidas necesarias para garantizar un control público efectivo en tiempo real de su servicio, proporcionando a los investigadores, periodistas y funcionarios electorales un acceso adecuado a las herramientas de seguimiento en tiempo real de los contenidos alojados en sus servicios.

4. El mecanismo para señalar los contenidos ilícitos.

La Comisión sospecha que el mecanismo de notificación y acción de Meta, que permite a los usuarios notificar la presencia de contenidos ilícitos en sus servicios, no cumple las obligaciones de la Ley de Servicios Digitales. Esto incluye la sospecha de que no se cumplen los requisitos por los que este mecanismo debe ser de fácil acceso y fácil de usar. Al mismo tiempo, la Comisión sospecha que Meta no ha establecido un sistema interno eficaz de tramitación de reclamaciones para presentar reclamaciones contra las decisiones de moderación de contenidos adoptadas.

Ese procedimiento se abre, luego de revisar toda la información previa que Meta a facilitado a la Comisión en el marco del Reglamento de Servicios Digitales; por cierto en mayo la Comisión abrió un segundo procedimiento contra Meta, en ese caso, relacionado con la protección de menores.

 

 

La responsabilidad de las plataformas digitales en el proceso electoral europeo de junio 2024

A continuación quiero destacar la forma como las plataformas digitales responden a la exigencia de la Comisión Europea de cumplir con el Reglamento de Servicio Digital y en ese marco institucional, cooperar con enfrentar los potenciales riesgos existentes, en tal sentido menciono lo siguiente:

1.- Acuerdo entre las plataformas.

El portal web de ABC destaca que Meta, Microsoft, OpenAI y otras 17 empresas de tecnología acordaron a principios del mes de febrero trabajar juntas para evitar que contenido engañoso de inteligencia artificial interfiera con las elecciones en todo el mundo este año.5

2.- Meta y TikTok diseñan su estrategia en los idiomas propios de cada país de la Unión Europea:

Meta y TikTok en febrero 2024 anunciaron sus respectivas estrategias para contrarrestar los potenciales riesgos en las elecciones europeas del próximo mes de junio; en el caso de Meta, anunció un Centro de Operaciones Electorales, en alianza con 24 organizaciones independientes que en toda la Unión Europea cubren 22 idiomas en la tarea de verificar datos.6

La plataforma web de Meta registra en su sección sobre la participación en todos los procesos electorales, una cita a Nick Clegg, Presidente de Asuntos Globales de Meta quien afirma que “Meta es la empresa tecnológica que más medidas toma y más invierte para proteger las elecciones en internet, no solo durante los periodos electorales, sino siempre”.

Por su parte, en el caso de TikTok7, su estrategia nos presenta el Centro de Información Electoral, que operará en el idioma de cada uno de los 27 Estados miembros de la UE y particularmente en el caso de España, también su contenido estará disponible en catalán, euskera y gallego8.

El mencionado Centro, dice la web oficial de esta plataforma social, es una estrategia orientada a garantizar que la red social siga siendo un lugar creativo, seguro y confiable.

TikTok, además en su organización interna, destaca que cuenta con una estrategia dedicada al “control de la misión”, que consiste es un equipo especializado en elecciones, dentro del departamento de Trust and Safety orientados a maximixar la eficacia del trabajo en el período previo y durante las elecciones.

3.- Tanto Meta como TikTok destacan que tienen experiencia previa en esta materia electoral

En las respectivas páginas web oficiales, TikTok y Meta hacen referencia a la experiencia previa en materia de elecciones, pero particularmente TikTok es mucho más concreto en aportar información al respecto.

TikTok en su plataforma web oficial, destaca que la iniciativa del Centro de Información Electoral ha sido aplicada previamente en elecciones europeas nacionales en Grecia, Países Bajos, Polonia, Eslovaquia y España. En el caso particular de España, oportuno mencionar, trabajó en alianza con la plataforma Newtral, socio de fact-checking y con la ONG Maldita, que además es también socio en alfabetización mediática, para producir videos educativos sobre el proceso y la desinformación electorales.

4.- Acciones que realizan durante los procesos electorales.

La página web de Meta9 en términos generales nos dice que en todo proceso electoral impulsa las siguientes acciones:

1.- Prevención de interferencia, en ese sentido destaca que cuentan con medidas de seguridad avanzadas para acabar con campañas de manipulación e identificar nuevas amenazas.

2,- Conectando a los votantes, proporcionando información fiable sobre las elecciones y combaten la información errónea en distintos idiomas.

3.- Contrarrestar desinformación, a través de medidas que presenta según la red social que corresponda: facebook, whatsApp e Instagram.

4.- Aumentando la transparencia medidas de seguridad avanzadas para acabar con las campañas de manipulación e identificar nuevas amenazas

Y particularmente sobre las elecciones de junio, nos dice la misma plataforma oficial que Meta está comprometida 10a :

 

  1. Combatir desinformación.
  2. Contrarrestar los intentos para influenciar las elecciones.
  3. Contrarrestar los riesgos de la inteligencia artificial.
En el caso de TikTok, la web oficial nos permite conocer las políticas a las cuales TikTok se compromete durante el las elecciones europeas 2024, ellas son:
  1. Contrarrestar la desinformación, para ello cuenta con moderadores especializados en desinformación y entre sus logros destaca que durante el tercer trimestre del año 2023, el 99% de todo el contenido que eliminaron por desinformación se retiró antes de que fuera reportado.
  2. Fact-checking, en este tema, cuentan con una alianza estrategíca con nueve organizaciones de fact-checking en Europa, que evalúan la exactitud de los contenidos en 18 lenguas europeas diferentes, y etiquetamos cualquier afirmación que no pueda verificarse.
  3. Alfabetización mediática: Invertimos en campañas de alfabetización mediática como estrategia contra la desinformación. En 2023, colaboramos con fact-checkers para lanzar campañas de alfabetización mediática en 18 países europeos.
  4. Disuasión de operaciones encubiertas de influencia, en ese sentido destaca que cuentan con expertos especializados que trabajan para detectar, desarticular y adelantarse a los comportamientos engañosos.  TikTok destaca que en sus informes de Cumplimiento de Normas trimestrales, han informado sobre la eliminación de redes de influencia encubiertas. .

 

Por cierto, TikTok destaca en su web que aproximadamente el 30% de los parlamentarios europeos son usuarios de su plataforma y que en general, cada mes más de 134 millones de europeos utilizan TicToK muchos de ellos sin duda electores para este próximo mes de junio 2024, agregando además, que cuenta con más de 6 mil personas dedicadas a moderar contenidos en los idiomas que se hablan en la Unión Europea.

Así mismo reitera que tienen la política de no permitir la publicidad política pagada, y las cuentas que pertenezcan a políticos o partidos políticos no pueden hacer publicidad o ganar dinero en TikTok.

Sobre las cuentas que pertenezcan a políticos, partidos políticos, gobiernos y organizaciones de noticias, reconoce TikTok que si bien, también desempeñan un papel único en el discurso cívico, la red social elimina su contenido infractor como se hace con cualquier otro usuario, y también aplica políticas de cumplimiento de cuentas pero de una forma más matizada para proteger el interés público. 11

El 8 de abril 2024 en una actualización de los avances en su estrategia, TikTok publica una noticia que cierra indicando que para lograr un espacio seguro, la empresa invertirá 2.000 millones de dólares este año y destaca que co-presiden el Grupo de Trabajo sobre elecciones del Código de Buenas Prácticas sobre Desinformación y colaboran con expertos de toda la región, incluido el Consejo Asesor Europeo sobre Seguridad, para garantizar que el enfoque de TikTok evoluciona para hacer frente a los retos o amenazas emergentes12.

Prueba y preparación para las elecciones de junio 2024

Hasta la fecha de este artículo, hay 2 eventos con los cuales la Comisión Europa evalúa cómo están preparados todos los agentes involucrados en el marco del Reglamento de Servicios Digitales para abordar los desafíos de las elecciones europeas 2024.

El primer evento es un ejercicio de simulación realizado en abril 202413, en el que según la propia Comisión Europea, participaron las plataformas designadas, coordinadores de servicios digitales y organizaciones de la sociedad civl para comprobar la preparación de todos frente a la manipulación electoral y la injerencia en relación con las elecciones europeas

Resulta interesante, revisar algunos de los supuestos que se revisaron durante la simulación porque permite conocer el alcance de esos desafíos:

  1. La manipulación de la información habilitada por «falsificaciones profundas» u otros usos de la inteligencia artificial para distorsionar y manipular contenidos audiovisuales.
  2. Manipulación de la información a través de un comportamiento no auténtico coordinado.
  3. Intentos de supresión de voces, incluso mediante acoso y amenazas en línea.
  4. Difusión intencional de información falsa sobre el proceso electoral para engañar a los votantes.
  5. Incitación en línea a la violencia basada en información manipulada.

Actividad habilitada cibernéticamente que se utiliza para la manipulación de la información.
La Comisión Europea, informa que la simulación permitió:

  1. Probar las medidas, procedimientos y estructuras que las plataformas han establecido para las elecciones al Parlamento Europeo en diferentes escenarios.
  2. Detectar lagunas y áreas de mejora, a la luz de las directrices electorales de la Ley de Servicios Digitales publicadas por la Comisión, e identificó cómo las disposiciones y obligaciones legales en ellas pueden ser utilizadas por los diferentes grupos de partes interesadas;
  3. Se identificaron lagunas y áreas de mejora para seguir mejorando y fortaleciendo la cooperación entre las partes interesadas participantes.

El otro evento se realizó en mayo14, el mismo consistió en una mesa redonda convocada por la Comisión Europea en la que participaron las principales plataformas y motores de búsqueda de internet para asegurarse de que cumplen con sus responsabilidades para salvaguardar las elecciones europeas de acuerdo a la Ley de Servicios Digitales (DSA) comunitaria.

En esa reunión participaron Apple, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, TikTok, Wikimedia, X y YouTube para hacer un balance de cómo están aplicando las directrices electorales en virtud de la DSA, legislación que pretende prevenir las actividades ilegales y nocivas en línea y la difusión de desinformación.

Más allá de la importancia del proceso electoral y sus resultados, las elecciones europeas somete a prueba la capacidad de cooperar de todos los agentes involucrados, principalmente las plataformas digitales, en la tarea compartida de contrarrestar todos esos riesgos que amenazan la credibilidad en el proceso como tal y el compromiso real de todos en preservar los valores en los que se sostiene la democracia.

Carlos Romero Mendoza

@carome31

Acerca de Carlos Romero 154 artículos
Director de Asociación Civil Eccos de Paz. Estudioso e investigador de temas locales y de participación ciudadana, con experiencia en docencia universitaria y autor de varios libros y artículos sobre institucionalidad local.