La mañana en que el Reino Unido votó a favor del Brexit, el mundo despertó a una nueva dimensión del poder digital. No porque las redes hubieran sustituido a las urnas, sino porque las habían condicionado. A golpe de meme, enlace y manipulación emocional, millones de británicos acudieron a las urnas con una narrativa en la cabeza: que su país estaba siendo invadido, que la economía florecería fuera de la Unión, que la élite mentía. Poco después, la trama de Cambridge Analytica revelaría hasta qué punto los datos personales -likes, búsquedas, amistades- habían sido instrumentalizados para perfilar votantes y disparar mensajes diseñados no para informar, sino para influir. El debate sobre las noticias falsas había dejado de ser académico. Se había convertido en un problema electoral.
Las fake news, en su definición más funcional, no son solo noticias falsas. Son narrativas fabricadas con la intención de manipular, polarizar o movilizar a través del engaño. Pueden ser completamente inventadas, exageraciones de hechos reales, titulares maliciosos o incluso informaciones verídicas sacadas de contexto. Su potencia no reside en su contenido, sino en su viralidad. Lo que importa no es que sean creídas, sino que generen reacción. En campañas electorales, esa reacción puede traducirse en votos, abstención o deslegitimación del adversario. El voto se convierte así en el punto final de una cadena de estímulos cuidadosamente orquestados.
La anatomía de esta manipulación es diversa. En la base operan los bots: cuentas automatizadas que replican mensajes, generan trending topics y simulan consenso. En capas intermedias actúan las granjas de contenido, muchas veces localizadas fuera del país, que fabrican noticias al ritmo de la campaña. Más arriba están los influencers orgánicos, individuos con alto impacto que, sin participar directamente en operaciones coordinadas, amplifican los mensajes manipulativos por convicción, por agenda o por ingenuidad. Y en la cúspide está la ingeniería social: la capacidad de diseñar mensajes que exploten miedos, prejuicios o aspiraciones específicas de segmentos poblacionales. Todo ello forma parte de una guerra narrativa donde el objetivo ya no es solo otro partido político, sino la percepción misma del ciudadano.
En muchos casos, la infraestructura de la mentira es privada, profesional y rentable. Existen agencias que ofrecen servicios de manipulación informativa electoral: segmentación avanzada, creación de contenido emocional, despliegue de cuentas falsas, monitorización de reacciones. Se trata de una industria que opera en la frontera entre la publicidad política, la propaganda y el sabotaje. La diferencia entre una campaña legítima y una operación encubierta no siempre es fácil de trazar. Y ese es precisamente uno de los problemas más espinosos del debate: ¿dónde termina la libertad de expresión y comienza la manipulación antidemocrática?
Las respuestas legales no son unívocas. En Europa, la Comisión ha promovido desde 2018 un Código de Buenas Prácticas contra la Desinformación, suscrito por plataformas como Facebook, Twitter o YouTube. En su lógica, la lucha contra las fake news no debe pasar por la censura estatal, sino por la transparencia algorítmica, la desmonetización del contenido fraudulento y la promoción de fuentes fiables. Pero el margen de acción sigue siendo limitado. Las plataformas operan bajo criterios propios, no siempre alineados con el interés público. Y los Estados, en su intento por controlar el problema, se enfrentan al riesgo de caer en un control del discurso.
El caso paradigmático de Estados Unidos en 2016 sigue siendo el ejemplo más citado. Las investigaciones del Senado y de múltiples organismos de inteligencia confirmaron que agentes vinculados al Kremlin orquestaron una campaña masiva de desinformación en redes sociales. Utilizaron identidades falsas, memes polarizantes y mensajes dirigidos a fomentar el desencanto y la abstención entre votantes afroamericanos, mientras reforzaban la base ultraconservadora de Donald Trump. No se trató de cambiar votos, sino de modular el entorno: enfriar el entusiasmo de unos, avivar el miedo de otros. El resultado fue una elección marcada no solo por las urnas, sino por los clics previos.
En Brasil, las elecciones de 2018 estuvieron atravesadas por un fenómeno similar, aunque más localizado. Jair Bolsonaro, entonces candidato, capitalizó una red de grupos de WhatsApp para difundir vídeos, mensajes de voz e imágenes que vinculaban a sus oponentes con el comunismo, el aborto o la corrupción. Buena parte del contenido era falso o profundamente manipulado, pero su efecto fue real. WhatsApp, con su encriptado punto a punto y su estructura cerrada, dificultó cualquier fiscalización. La viralidad escapaba a todo control institucional. En aquel contexto, la justicia electoral brasileña reconoció estar «peleando contra fantasmas»: no se podía regular lo que no se veía.
España ha vivido también sus propios episodios, aunque en menor escala. Durante las elecciones generales de 2019, se identificaron múltiples cuentas en Twitter que amplificaban narrativas falsas vinculadas a inmigración, violencia de género y supuestas manipulaciones informativas de los medios tradicionales. Algunas de estas cuentas operaban desde el extranjero; otras, desde dentro. La Junta Electoral Central, sin embargo, carecía de herramientas legales y técnicas para intervenir. No se podía sancionar algo que no estaba formalmente regulado. Y en esa laguna legal, el daño ya estaba hecho.
El núcleo del problema es siempre el mismo: ¿quién decide qué es verdad durante una campaña electoral? ¿Una junta electoral? ¿Un comité de expertos? ¿Las plataformas digitales? ¿El algoritmo? ¿El propio votante, en un mar de datos cruzados, imágenes sacadas de contexto y titulares diseñados para provocar reacción más que reflexión?
Los algoritmos, por su parte, tienen una responsabilidad innegable. Son los que deciden qué contenido se muestra, con qué prioridad, a quién y en qué momento. Se optimizan para el engagement, no para la verdad. Si una mentira genera más interacciones que un desmentido, el sistema favorece la mentira. No por conspiración, sino por lógica interna. La verdad, en estos entornos, no tiene valor por sí misma: solo lo tiene si es compartida, comentada o monetizada.
En este marco, las propuestas normativas se multiplican. Algunos países han optado por medidas duras, como Filipinas o Singapur, donde la desinformación puede ser penada con prisión. Otros apuestan por la co-regulación: exigir a las plataformas transparencia sobre sus algoritmos, obligarlas a retirar contenido demostrado como falso por organismos independientes y proteger a los denunciantes. Pero todas estas vías enfrentan una misma tensión: el miedo a que combatir la mentira se convierta en excusa para censurar el disenso.
Porque la línea es fina. Una afirmación errónea no es lo mismo que una manipulación deliberada. La crítica dura no equivale al sabotaje informativo. Y una democracia sólida debe resistir el ruido sin apagar las voces.
Más allá del terreno jurídico y de los marcos regulatorios, hay un problema más profundo, casi antropológico: la velocidad a la que circula la mentira es mucho mayor que la capacidad colectiva para verificarla. No se trata únicamente de que falten desmentidos o verificadores. Se trata de que el mundo digital está diseñado para premiar la emoción, la reacción rápida, el titular agresivo. La reflexión llega tarde. Y la duda, cuando aparece, ya es residual.
Debemos comprender, como algo determinante, que la desinformación no se impone: seduce. Se adhiere a prejuicios previos, a emociones latentes, a relatos que deseamos escuchar. La solución, por tanto, no es solo tecnológica. Es cultural.
Algunas iniciativas van en esa dirección. En varios países europeos, como Finlandia o Estonia, se han incorporado módulos de educación mediática en los planes escolares. Se enseña a los jóvenes a cuestionar fuentes, a buscar contextos, a leer entre líneas. En Francia, la ley contra la manipulación informativa en periodo electoral permite a los jueces ordenar la retirada urgente de contenido falso “de manera manifiesta y deliberada”. Pero también protege la crítica, el humor y la opinión. La clave está en la proporcionalidad: intervenir sin ahogar.
En España, la Estrategia de Seguridad Nacional identifica ya la desinformación como una amenaza para la estabilidad democrática. Se han desarrollado proyectos en torno a la Ciberseguridad Electoral y se han firmado convenios con plataformas para actuar con mayor rapidez durante los procesos electorales. Sin embargo, estos mecanismos siguen siendo en gran medida reactivos. Llegan después del daño, cuando la opinión ya ha sido impactada.
La gran pregunta sigue siendo si ¿es posible blindar las elecciones sin blindar la opinión? . Porque todo intento de regulación de la desinformación tropieza con un principio esencial: la libertad de expresión no puede depender de una verdad oficial. En democracia, incluso los discursos erróneos tienen cabida, siempre que no constituyan delito. La clave no está en prohibir, sino en fortalecer. Fortalecer el pensamiento crítico, el pluralismo mediático, la responsabilidad ciudadana.
La responsabilidad de las plataformas es aquí insoslayable, puesto que son actores que moldean la conversación pública. Es decir, que sus decisiones algorítmicas tienen efectos políticos.
La democracia se defiende cada vez que alguien decide no compartir una mentira, cada vez que alguien pregunta antes de creer, cada vez que alguien responde con argumentos en vez de con consignas. La integridad del voto empieza mucho antes de votar. Empieza en la conversación cotidiana, en el consumo informativo, en el modo en que miramos lo que nos llega a través de la pantalla. Y proteger ese espacio -sin convertirlo en una fortaleza ni en un campo de minas- será uno de los mayores desafíos de las democracias del siglo XXI.




