Accede sin límites desde 55 €/año

Suscríbete  o  Inicia sesión

Desinformación: una victoria para la democracia europea

La Comisión aprueba el “test” de medidas para combatir los bulos diseminados durante las pasadas elecciones europeas

Comparte
Pertenece a la revista
Noviembre 2024 / 129
Fake news

Fotografía
Getty images

Acaba de suceder en Estados Unidos. El candidato a vicepresidente del Partido Demócrata fue acusado de abusar sexualmente de estudiantes. El vídeo, falso, muestra a una supuesta víctima, que acusa al candidato. Se difundió por X (cuyo dueño es Elon Musk, gran seguidor de Donald Trump) y obtuvo más de cinco millones de visitas. Y no es lo único. Musk usó su plataforma para reavivar afirmaciones desacreditadas sobre la validez del resultado de las elecciones americanas. Con estas y otras muchísimas formas de desinformación (a veces mentiras muy claras; otras medias verdades o manipulaciones), se juega la democracia.

Europa lo sabe y trabaja desde 2015 en una serie de medidas para frenar la desinformación. El pasado octubre presentó un informe sobre cómo la batería de acciones llevadas a cabo desde meses antes de las elecciones europeas de junio tuvo éxito. Fue la primera vez que Europa desplegaba un dispositivo de ese calibre. Trabajaron coordinadamente desde los países, las oficinas europeas creadas para dar seguimiento a las noticias y ONG para actuar básicamente en cuatro dimensiones: la sensibilización para que sea la misma sociedad la que pueda dudar de la información y denunciar si considera que algo es incorrecto; actuando —incluso desde lo legal— para que las grandes empresas de redes sociales (especialmente X, Meta y Tiktok) detecten y eliminen la información falsa; para que los organismos designados puedan detectar y actuar inmediatamente sobre el contenido falso, antes de que se expanda, y trabajando directamente con los algoritmos (se utilizan, por ejemplo, bots para alterar el alcance de las publicaciones).

El informe concluye que el dispositivo ha podido gestionar las injerencias esperables.

El Parlamento Europeo ha ido aprobando textos legislativos para proteger a la ciudadanía de la UE frente a la desinformación y la injerencia extranjera.

Pero todavía hay trabajo por hacer. Y hay muchísimo debate tanto en el Parlamento Europeo como en los países miembros. Cuando se trata de un vídeo claramente falso creado con inteligencia artificial o no, o el uso de una imagen que no corresponde (por ejemplo, un ataque en un sitio, que en realidad es de otro lugar), no hay ninguna duda de que es desinformación. Pero fuera de la evidencia ¿quién decide qué es y qué no es desinformación? ¿Dónde están los límites entre preservar la democracia y censurar? Ahí radica la complejidad de la legislación y el debate.

Steven Lee Myers, corresponsal de The New York Times en San Francisco, que cubre desinformación en línea y fuera de línea, explica: “Las calumnias, las mentiras y los trucos sucios —lo que hoy llamamos desinformación— han sido durante mucho tiempo una característica de las campañas presidenciales estadounidenses (...). Sin embargo, a dos semanas de las elecciones, el torrente de medias verdades, mentiras e invenciones, tanto extranjeras como nacionales, ha superado todo lo anterior”.

“El cambio con las redes sociales es de alcance”, coincide Carme Colomina, investigadora sénior especializada en Unión Europea, desinformación y política global del Barcelona Centre for International Affairs (CIDOB). “La propaganda, la desinformación y la mentira han existido siempre. El cambio es que la capacidad de penetración y la velocidad se han multiplicado. A eso debes sumarle la manipulación de vídeos y la IA, que es cada vez más difícil de distinguir”.

Además de sensibilizar sobre la importancia de verificar las fuentes y el pensamiento crítico ante la información (tanto de periodistas como del público), una de las claves de lo que está haciendo la Unión Europea son los procesos legales. En este sentido, la Comisión abrió diferentes procesos contra las grandes plataformas, por incumplir la Ley de Servicios Digitales. Hay actualmente procedimientos abiertos contra X (en marcha desde diciembre de 2023); contra Tiktok (en abril de 2024); contra Aliexpress (en marzo de 2024), y contra Meta (por Instagram y Facebook), en abril y mayo de 2024.

X (antiguo Twitter), en la mira

Según explica Colomina, en un artículo publicado junto con Susana Pérez Soler para el CIDOB, “se calcula que, aproximadamente, el 15% de las cuentas activas en Twitter, por ejemplo, son bots, es decir, no pertenecen a personas reales, sino que son automáticas”. Se trata de conversaciones o cuentas falsas creadas con el objetivo de manipular hacia una idea determinada.

De momento, de todos los procesos abiertos, la Comisión ha informado solo sobre el de X. A finales de julio emitió un informe preliminar en el que acusaba a X de infringir la Ley de Servicios Digitales en ámbitos relacionados con "patrones oscuros, transparencia publicitaria y acceso a los datos para las investigaciones".

“En primer lugar, X diseña y explota su interfaz para las cuentas verificadas con la marca de control azul de una manera que no se corresponde con la práctica del sector y engaña a los usuarios”, indican. “Dado que cualquier persona puede suscribirse para obtener este estado verificado, afecta negativamente a la capacidad de los usuarios para tomar decisiones libres sobre la autenticidad de las cuentas y el contenido con el que interactúan. Hay pruebas de que agentes malintencionados motivados abusan de la cuenta verificada para engañar a los usuarios”.

Además, la Comisión considera que X no respeta la transparencia requerida en materia de publicidad, ya que no proporciona un repositorio de anuncios publicitarios fiable y accesible, sino que establece características de diseño y barreras de acceso que hacen que el repositorio no sea apto para su finalidad de transparencia con respecto a los usuarios. En particular, el diseño no permite la supervisión ni la investigación necesarias de los riesgos emergentes derivados de la distribución de publicidad en línea. Y, en tercer lugar, X “no proporciona acceso a sus datos públicos a los investigadores en consonancia con las condiciones establecidas en la Ley de Servicios Digitales”.

X ahora debe responder por escrito a las conclusiones preliminares de la Comisión. Si, finalmente, se confirmaran los datos del informe, la Comisión podría poner multas de hasta el 6% del volumen de negocios anual mundial de la red social y ordenar que adopte medidas para hacer frente a la infracción. Una decisión de incumplimiento también puede dar lugar a un periodo de supervisión reforzado para garantizar el cumplimiento de las medidas. La Comisión también puede imponer multas coercitivas para obligar a una plataforma a cumplir.

Algo parecido podría esperarle al resto de plataformas.