Facebook y Cambridge Analytica desataron una Estrategia Global de Manipulación Electoral que Transformó la Democracia
14 May. 2025
-
El escándalo Cambridge Analytica: cómo se usaron los datos de 50 millones de personas en Facebook para influir en la elección de Donald Trump
-
De Brexit a México: la microsegmentación y la propaganda personalizada revelan un patrón mundial de manipulación política en redes sociales
Renán Castro Hernández/ CAMBIO 22
El 8 de noviembre de 2016, mientras Donald Trump celebraba una victoria electoral tan sorpresiva como ajustada, una silenciosa maquinaria de manipulación operaba detrás de las pantallas.
Millones de votantes estadounidenses habían estado expuestos en Facebook a mensajes políticos milimétricamente dirigidos a sus miedos y deseos. La artífice de esta estrategia fue Cambridge Analytica, una consultora británica que obtuvo de forma indebida los datos personales de 50 millones de usuarios de Facebook en EE.UU. a través de un inocente test de personalidad, y los utilizó para manipular psicológicamente a los votantes en favor de Trump, aquella operación de microsegmentación publicitaria inauguró una era oscura en la que las redes sociales se convirtieron en armas electorales.
Este reportaje desentraña cómo Facebook pasó de ser una red social universitaria a plataforma global de recolección de datos, cómo funcionan sus algoritmos para perfilar y persuadir a los usuarios, y de qué manera el caso Cambridge Analytica –lejos de ser aislado– expuso un patrón de manipulación política replicado en países de todo el mundo.
De Harvard a los datos del mundo: breve historia de Facebook y su imperio de información
La historia de Facebook comienza en 2004 en un dormitorio de Harvard. Lo que nació como un directorio digital para estudiantes rápidamente se abrió al mundo y, con cada nuevo usuario, la empresa de Mark Zuckerberg fue acumulando un tesoro invisible: datos personales. A medida que Facebook crecía en popularidad, también perfeccionaba su modelo de negocio basado en la publicidad altamente segmentada.
En 2006 introdujo el News Feed (muro de noticias), permitiendo monitorear las interacciones sociales; en 2007 lanzó la plataforma de aplicaciones de terceros, que pronto daría lugar a juegos y tests virales; en 2009 implementó el botón “Me gusta”, que multiplicó la participación de los usuarios y –crucialmente– le dio a Facebook una nueva ventana a sus preferencias, cada foto compartida, cada like, cada amistad conectada engrosaba los perfiles digitales que la compañía construía de cada persona.
Pero la recolección de datos de Facebook no se limitó a lo que los usuarios hacían dentro de su perfil. Pronto la empresa desplegó rastreadores por toda la web: cada vez que visitas un sitio que incluye un botón de “Me gusta” o “Compartir” de Facebook, la plataforma registra esa visita e identifica al usuario, obteniendo información incluso cuando no estás navegando directamente en Facebook, sumado a esto, Facebook desarrolló herramientas analíticas y de seguimiento aún más sofisticadas.
Por ejemplo, mediante Facebook Analytics (y el ahora omnipresente Facebook Pixel en páginas externas), los sitios web pueden comparar los datos de sus visitantes con los perfiles de Facebook para obtener datos demográficos y de comportamiento detallados. En la práctica, esto significa que Facebook te sigue la pista dentro y fuera de su plataforma: sabe qué lees, qué compras, dónde te ubicas (a través de la app móvil), e incluso mantiene perfiles “en la sombra” de personas que ni siquiera tienen cuenta, combinando datos de contactos subidos por tus amigos, cookies de navegación y otras fuentes offline.
El resultado de esta evolución es que, hacia mediados de la década de 2010, Facebook se había convertido en una maquinaria global de vigilancia comercial, una base de más de 2.000 millones de usuarios activos cuyos datos podían segmentarse al antojo de anunciantes, “Senador, vendemos anuncios”, resumió Mark Zuckerberg en 2018 al ser interrogado en el Congreso de EE.UU. por el modelo de negocio de su empresa, detrás de esa frase sencilla yace un ecosistema de algoritmos de inteligencia artificial que monitorean todo lo que hacemos en línea para convertir nuestra atención en ganancias publicitarias. Esta posición dominante de Facebook como recolector de datos preparó el terreno para que actores externos –como Cambridge Analytica– pudieran explotar la plataforma y su información con fines políticos poco éticos.
El experimento Cambridge Analytica: cómo se torció la elección de 2016
En 2016, Estados Unidos vivió no solo una contienda electoral polémica, sino también un experimento de manipulación masiva sin precedentes. Cambridge Analytica (CA), una empresa fundada en 2013 como filial del grupo británico SCL, trabajaba tras bambalinas para la campaña de Donald Trump con un objetivo claro, “cambiar el comportamiento de la audiencia”.
Para lograrlo, recurrió a un plan metódico y técnicamente sofisticado. Primero, adquirió una enorme base de datos personales: a través de un cuestionario de personalidad en Facebook aparentemente inocuo –desarrollado por el académico Aleksandr Kogan–, obtuvo acceso no solo a la información de unas 265.000 personas que instalaron la aplicación, sino también a los datos de sus amigos en la red social, sin que estos lo supieran. De ese modo, Kogan recolectó en 2014 información privada (perfiles, “Me gusta”, actualizaciones e incluso mensajes) equivalente a más del 15% de la población estadounidense, y la vendió a Cambridge Analytica, violando las políticas de Facebook que prohibían transferir datos a terceros.
Con esa materia prima en sus manos, Cambridge Analytica pasó a la fase de análisis y perfilación. Sus científicos de datos, inspirados por métodos académicos de psicometría, cruzaron la información de Facebook con los resultados del test de Kogan para inferir perfiles psicológicos detallados de millones de votantes. Usando el modelo de los “cinco grandes” rasgos de personalidad (el modelo OCEAN por sus siglas en inglés: Openness, Conscientiousness, Extraversion, Agreeableness, Neuroticism), CA clasificó a los votantes según su personalidad, gustos y temores. El propio Alexander Nix –director de la firma– alardeó luego de haber logrado elaborar “un perfil de personalidad de cada adulto en Estados Unidos” con el fin de influir en la elección presidencial. Con estas psicografías, Cambridge Analytica podía predecir qué tipo de mensajes resultaría más persuasivo para cada individuo. Un exempleado clave, Christopher Wylie, explicó que sabían exactamente qué contenido, con qué tono y sobre qué tema debía recibir cada usuario para cambiar su forma de pensar, casi de manera individualizada.
Así, durante la campaña de 2016, distintos segmentos del electorado norteamericano fueron bombardeados con propaganda hecha a su medida, Cambridge Analytica y el equipo digital de Trump diseñaron miles de variantes de anuncios y mensajes, por ejemplo, a votantes identificados como indecisos y con alto neuroticismo se les mostraron contenidos alarmistas sobre inmigración o criminalidad, mientras que a perfiles altamente conservadores y sensibles al patriotismo se les enviaron mensajes sobre la Segunda Enmienda y el orgullo nacional.
Las redes sociales de los usuarios se poblaron de publicidad política personalizada y noticias a la carta, cuidadosamente calibradas para explotar sus sesgos. Pero CA no se detuvo en anuncios visibles: según reveló Wylie, la compañía también creó noticias falsas y las diseminó a través de Facebook, blogs y portales afines, buscando sembrar rumores y polarización. Muchas de estas falsedades encontraron terreno fértil en el ambiente ya cargado de la campaña, amplificándose por medio de cuentas automatizadas (bots) y páginas hiperpartidistas.
La pregunta que subyace es: ¿funcionó esta manipulación? Si bien es imposible medir con exactitud cuánto influyeron estas tácticas en el resultado final, las circunstancias sugieren que tuvieron un impacto real. Trump ganó en estados clave (Michigan, Wisconsin, Pensilvania) por márgenes de apenas decenas de miles de votos, y Cambridge Analytica se había enfocado justamente en identificar a esos “persuadibles” en distritos disputados para inclinarlos a su favor.
En retrospectiva, figuras cercanas al operativo digital de Trump reconocieron que Facebook fue “la” herramienta decisiva. Brad Parscale, director de la campaña en redes, llegó a afirmar que 75% del presupuesto digital de Trump se gastó en Facebook, aprovechando la capacidad de la plataforma para probar y optimizar mensajes a una velocidad vertiginosa.
Mientras tanto, la campaña de Hillary Clinton subestimó el poder de la microsegmentación y destinó mucho menos esfuerzo a este frente.
En marzo de 2018, más de un año después de la elección, el escándalo de Cambridge Analytica estalló públicamente gracias a investigaciones periodísticas del The New York Times y The Observer de Londres. Se reveló al mundo la profundidad de la brecha de datos, la consultora había obtenido información personal de decenas de millones de usuarios y la utilizó para influir en la votación que llevó a Trump a la Casa Blanca.
Las reacciones fueron inmediatas, Facebook vio desplomarse su valor en bolsa en US$37.000 millones en un solo día tras conocerse la noticia. Mark Zuckerberg tuvo que pedir disculpas públicas y comparecer ante el Congreso, enfrentando preguntas durísimas sobre la privacidad en su plataforma. “Fue un claro abuso de confianza”, admitió Zuckerberg, mientras activistas lanzaban la campaña #DeleteFacebook y el mundo asimilaba con alarma que una red social usada para compartir fotos de amigos había sido convertida en un instrumento de manipulación electoral a gran escala.
La fórmula se exporta: de Brexit a elecciones en todo el mundo
El caso Cambridge Analytica–Facebook no fue un hecho aislado, sino el destape de un método que ya se estaba ensayando en otros procesos electorales. La propia Cambridge Analytica presumía en su sitio web de haber trabajado en “más de 100 campañas” a lo largo de cinco continentes, incluyendo países de América Latina como Argentina, Brasil, Colombia y México.
En concreto, la firma se atribuía un papel “decisivo” en el triunfo de la campaña de Trump en 2016 y señalaba como otro de sus éxitos al referéndum del Brexit en Reino Unido. Investigaciones posteriores y denuncias de informantes validaron gran parte de estas afirmaciones, pintando un panorama en que tácticas similares de manipulación en Facebook se replicaron en diversas elecciones alrededor del mundo durante la segunda mitad de la década de 2010.
Reino Unido, 2016 – El Brexit. En junio de 2016, los británicos votaron sobre salir de la Unión Europea en un referéndum histórico, detrás de la estrechísima victoria del Leave (51.9% contra 48.1%) se han identificado huellas de la misma estrategia digital. Christopher Wylie –el exdirector de investigación de Cambridge Analytica convertido en denunciante– aseguró que el Brexit no habría triunfado sin la intervención de Cambridge Analytica.
“Absolutamente”, respondió cuando se le preguntó si la participación de CA fue necesaria para lograr la victoria de la salida del bloque. Wylie reveló cómo la firma usó información obtenida ilegalmente de Facebook para influir en esas elecciones (al igual que en las estadounidenses). Explicó que el margen de victoria fue menor al 2% y que se invirtió muchísimo dinero en publicidad a medida basada en datos personales, lo cual “te compra miles de millones de impresiones” dirigidas a grupos específicos que podrían definir el resultado. De hecho, Cambridge Analytica operó en el Brexit mediante una compañía aliada canadiense llamada AggregateIQ (AIQ) –para eludir su vinculación directa–, la cual fue contratada por los promotores del Leave.
El esquema técnico fue similar al de EE.UU., microtargeting de anuncios emocionales y violación de límites de gasto electoral a través de una multiplicación de mensajes en redes, más allá de CA, la campaña del Brexit también se benefició de una ola de desinformación viral en Facebook (con mitos sobre la Unión Europea) y de enjambres de cuentas falsas en Twitter propagando consignas euroescépticas. Estudios posteriores detectaron un claro efecto eco chamber, la audiencia pro-Brexit consumía y compartía contenidos alineados con sus prejuicios, reforzados por el algoritmo de Facebook que priorizaba aquello con lo que ya estaban de acuerdo.
Kenia, 2013 y 2017 – “Operación presidencial completa”. A miles de kilómetros, en África, Cambridge Analytica aplicó sus servicios en procesos electorales con menos reflectores internacionales pero con igual intensidad. En Kenia, la consultora dirigió en la sombra las dos campañas presidenciales de Uhuru Kenyatta (2013 y 2017), el actual mandatario, según reveló un reportaje encubierto de Channel 4 News. Videos filmados con cámara oculta mostraron a ejecutivos de CA jactándose de cómo “manejaron toda la campaña” de Kenyatta: rehicieron la imagen del partido, redactaron el manifiesto, diseñaron la estrategia de comunicación y escribieron los discursos, orquestando casi cada elemento de la contienda. En otras palabras, la empresa no solo hacía marketing sino que prácticamente actuaba como consultor político integral, apoyándose en análisis de datos locales.
También se conoció que Cambridge Analytica estaba dispuesta a emplear tácticas turbias: sus directivos describieron métodos que incluían operaciones de desprestigio contra opositores, como montar situaciones con exespías o sobornos y hasta trampas con prostitutas para chantajear candidatos.
Si bien CA afirmó no haber llevado a cabo tales extremos en Kenia, sí existen evidencias de una campaña digital de miedo, en 2015, en plena pugna electoral keniana, circuló un video propagandístico extremadamente violento que buscaba vincular al candidato opositor con el terrorismo –material que, según The Guardian, fue producido con asesoría de Cambridge Analytica para desincentivar el voto por la oposición, Kenyatta resultó vencedor en ambos comicios en los que CA asesoró, lo que desató críticas dentro del país y pedidos de investigación sobre la influencia extranjera en su democracia.
India, 2014 – La sombra en la mayor democracia. En la India, la consultora británica también dejó huella. Cambridge Analytica operaba a través de su filial local (SCL India) ofreciendo “dirección de campañas políticas”, y afirmó haber tenido entre sus clientes a dos de los principales partidos del país: el Bharatiya Janata Party (BJP) –partido nacionalista hindú de Narendra Modi– y el Congreso Nacional Indio. Un vicepresidente de CA en India, Himanshu Sharma, llegó a detallar en su perfil profesional que la compañía “dirigió con éxito cuatro campañas electorales para el BJP”, incluida la campaña general de 2014 que llevó a Modi al poder. Ambos partidos negaron oficialmente vínculos con Cambridge Analytica, pero la mera posibilidad de que datos de millones de votantes indios hubieran sido analizados para influir en sus preferencias generó un gran revuelo. El gobierno indio ordenó una investigación sobre si datos de usuarios locales de Facebook habían sido comprometidos por CA. Aunque los resultados no se hicieron públicos, el episodio evidenció que incluso la mayor democracia del mundo era vulnerable a estas prácticas de psicopolítica digital.
Latinoamérica – intentos en México, influencia en Argentina. En nuestra región, las revelaciones también apuntaron a injerencias de CA. México fue cortejado activamente por Cambridge Analytica de cara a las elecciones presidenciales de 2018. En 2017, la empresa anunció una alianza con una aplicación móvil llamada Pig.gi (popular en México y Colombia por ofrecer tiempo aire gratis a cambio de responder encuestas y ver publicidad), con la idea de recabar información sobre jóvenes usuarios indecisos. “Existe una gran oportunidad en este país de encontrar los temas que son importantes para la gente y llevarles a votar”, dijo Brittany Kaiser, entonces vicepresidenta de desarrollo de negocios de CA, adelantando sus intenciones. Ese mismo año, Cambridge Analytica publicó ofertas de empleo en Ciudad de México buscando expertos con “amplia experiencia en política” para dirigir campañas en al menos ocho estados del país, indicio de que estaban montando infraestructura local. Si bien la compañía aseguró públicamente que “no está trabajando para ningún partido político de México” –y no hay evidencia de que llegaran a firmar contrato con alguna campaña–, la huella de su paso encendió las alarmas. México, con cerca de 80 millones de usuarios de internet en aquel entonces, representaba un botín de datos muy apetecible.
El Instituto Nacional Electoral (INE) firmó un convenio con Facebook para promover la participación ciudadana, buscando contrarrestar la desinformación, pero quedó la incógnita de cuánto pudieron haber influido consultoras privadas como CA en la contienda mexicana. En Argentina, trascendió que Cambridge Analytica asesoró en 2015 al equipo del candidato Mauricio Macri (alianza PRO) en la antesala de su campaña presidencial, brindando análisis de datos y estrategias de segmentación similares a las que luego emplearía en EE.UU.. Incluso mantuvo conversaciones con sectores del kirchnerismo ofreciéndoles sus servicios, aunque estos no se concretaron. La polémica llevó a que el gobierno argentino abriera una investigación parlamentaria en 2018 para dilucidar la posible injerencia de CA en sus procesos electorales. Brasil, Colombia, Chile y otros países también aparecieron en los documentos internos de CA como mercados en exploración o con proyectos piloto, demostrando que la receta de manipulación de datos no conocía fronteras.
En cada uno de estos casos, se repite un patrón familiar: aprovechando la vasta base de datos de Facebook, consultores políticos poco escrupulosos pudieron segmentar a la población votante, perfilar psicológicamente a segmentos clave y bombardearlos con propaganda adaptada para moldear su opinión. Las narrativas podían variar –antiinmigración en EE.UU., antieuropéa en Reino Unido, étnicas en Kenia, antiincumbencia en India– pero la técnica subyacente era la misma. Y en todos los casos, Facebook fue el vehículo principal: la plataforma que permitió que esos mensajes hiperdirigidos llegaran a las personas precisas, en el momento oportuno y revestidos con el matiz emocional más eficaz.
Dentro del algoritmo: así segmenta y persuade Facebook a sus usuarios
Todo este fenómeno invita a examinar cómo es posible, técnicamente, semejante grado de manipulación personalizada. La clave está en el corazón de Facebook: sus algoritmos de recopilación de datos, segmentación de audiencias y distribución de contenidos. En términos simples, Facebook sabe muchísimo sobre cada usuario y utiliza ese conocimiento para predecir su comportamiento e influir en él –ya sea para que dé click en un anuncio, comparta una noticia o incluso vaya a votar.
Perfilamiento masivo: Cada acción que realizamos en Facebook genera una señal que alimenta el perfil que la compañía tiene de nosotros. No solo lo que explícitamente colocamos en nuestro perfil (edad, ciudad, trabajo) o las páginas que seguimos, sino también nuestros patrones de interacción: qué publicaciones comentamos, cuáles ignoramos, cuánto tiempo vemos un video, si normalmente navegamos desde el móvil o la PC, etc. Algoritmos de aprendizaje automático analizan estos “rastros digitales” para deducir atributos ocultos de nuestra persona. Un estudio de la Universidad de Cambridge ya en 2013 mostró que con suficientes likes, es posible predecir con asombrosa precisión rasgos sensibles: la orientación sexual, las tendencias políticas, las creencias religiosas e incluso la inteligencia de un individuo pueden inferirse de lo que le ha dado “Me gusta” en Facebook. Los investigadores lograron que algoritmos distingan, con más de un 80-90% de acierto, si alguien es hombre o mujer, cristiano o musulmán, liberal o conservador, todo a partir de sus patrones de uso en la red. Este tipo de análisis –que combina big data y psicología– es la base de la segmentación avanzada: Facebook etiqueta a cada usuario con cientos de categorías (desde “amante de los deportes” o “padre joven”, hasta “probable votante progresista” o “interesado en inmuebles”), construyendo un mosaico detalladísimo de identidades y afinidades.
Microsegmentación y anuncios dirigidos: Con esos perfiles, la plataforma ofrece a los anunciantes una capacidad de targeting sin precedentes. Cuando un partido político o campaña desea difundir un mensaje, puede usar las herramientas publicitarias de Facebook para definir audiencias extremadamente específicas: por ubicación geográfica (tan granular como un barrio), por rango de edad, género, nivel educativo, idioma, y –lo más importante– por intereses y comportamientos. ¿Quieres llegar a mujeres indecisas de 30 a 45 años, solteras, que hayan mostrado interés en noticias sobre economía y sigan la página “Madres por la Salud”? Facebook puede crear ese grupo en segundos.
¿Buscas varones rurales de 50+ años, religiosos, que interactúan frecuentemente con contenido sobre armas de fuego? También es posible, esta microsegmentación permite que se envíen mensajes políticos diferenciados a distintos nichos de la población sin que unos se enteren de lo que ven los otros. Son las llamadas “dark ads” o publicaciones oscuras: anuncios que solo ven quienes son parte del público objetivo seleccionado y que no quedan expuestos al escrutinio general.
En la era previa a las redes, un político tenía que calibrar su discurso para las masas y los medios; ahora puede personalizar promesas y argumentos para cada audiencia, incluso si son contradictorios entre sí, con solo cambiar el segmentado de la campaña publicitaria.
Además, los algoritmos publicitarios de Facebook optimizan automáticamente la entrega de anuncios para lograr los mejores resultados según el objetivo deseado (clics, visualizaciones, conversiones). Esto significa que, una vez definidas las audiencias, Facebook prueba múltiples variaciones de un anuncio y prioriza la versión que más engancha a cada subgrupo.
Por ejemplo, si una versión con cierto titular emociona más a personas de perfil A, ese segmento recibirá principalmente esa variante, mientras otro perfil B quizás reaccione mejor a una imagen distinta, por lo que se le mostrará esa.
La plataforma aprende en tiempo real qué contenido funciona mejor con quién, afinando la precisión de la campaña. En 2016, el equipo de Trump explotó esta capacidad al máximo, llegó a difundir miles de anuncios ligeramente diferentes cada día, midiendo cuál generaba más respuesta, en un ciclo de mejora continua, esta automatización inteligente de la propaganda política es lo que hace tan poderosa la combinación de Facebook con analítica de datos: permite la persuasión personalizada a gran escala.
Filtro de noticias y refuerzo psicológico: Pero la influencia no solo viene de los anuncios pagados, el propio algoritmo de Noticias de Facebook (News Feed) desempeña un rol crucial.
Este algoritmo decide qué contenido aparece en la pantalla principal de cada usuario cada vez que la consulta, eligiendo entre miles de publicaciones posibles (de amigos, páginas que sigue, grupos, etc.). ¿Cómo decide qué ves? Simplificando, Facebook prioriza el contenido con el que es más probable que interactúes –dar like, comentar o compartir– porque su modelo de negocio se basa en mantener tu atención tanto tiempo como sea posible.
En principio esto suena inofensivo, incluso útil, ya que significa que ves más cosas de tu interés, el problema es que esta lógica puede crear “burbujas de filtro” y cámaras de eco, el algoritmo te muestra sobre todo aquello con lo que ya tiendes a estar de acuerdo o que provoca reacciones fuertes en ti, y oculta visiones opuestas o información que no se alinea con tus gustos previos. En contexto político, esto amplifica la polarización. Si un usuario ha consumido contenidos de cierta tendencia ideológica, el algoritmo le servirá cada vez más de lo mismo, cerrándole en un círculo de retroalimentación.
Los operativos de desinformación conocen bien esta dinámica y la explotan, inundando la red de contenidos extremos o falsos dirigidos a grupos específicos, logran que esos temas se hagan virales en ciertas comunidades donde la gente “quiere escuchar lo que ya creía previamente” –como explicaba el experto Sasha Talavera sobre la campaña del Brexit–, consolidando prejuicios y aumentando la radicalización.
Facebook durante años negó que su algoritmo fomentara divisiones sociales, pero las evidencias internas contaban otra historia. Una investigación interna de la propia compañía en 2018 concluyó que sus algoritmos “explotan la atracción del cerebro humano hacia la confrontación”, incentivando contenidos polarizantes porque estos generan mayor engagement (más comentarios, más tiempo en la plataforma). Sin embargo, cuando los ingenieros propusieron cambios para desactivar este sesgo nocivo, la cúpula –incluido Zuckerberg– los rechazó por miedo a afectar la participación de ciertos grupos políticos y el negocio.
En resumen, el algoritmo de Facebook estaba diseñado de tal forma que premiaba la indignación y la confrontación, convirtiendo a la plataforma en terreno fértil para la propaganda divisiva. Esto explica por qué campañas como la de Cambridge Analytica se enfocaron en mensajes emocionales extremos: sabían que así el propio sistema de Facebook les daría un empujón extra, viralizándolos orgánicamente.
La persuasión basada en perfiles psicológicos tiene también un efecto más sutil: al adaptar el tono y enfoque del contenido a nuestra personalidad, puede influir en nuestras decisiones casi sin darnos cuenta. Un votante indeciso al que le aparecen en su muro repetidamente noticias (verdaderas o falsas) sobre corrupción de cierto candidato, ads personalizados que “coinciden” misteriosamente con sus preocupaciones expresadas en privado, y comentarios de supuestos conciudadanos reafirmando un sentimiento de hartazgo, puede creer que está formando su opinión de manera autónoma cuando en realidad ha sido guiado paso a paso por un sendero informativo construido para él. La fragmentación del discurso público en miles de microdiscursos privados –uno por cada segmento– erosiona el debate democrático tradicional, donde todos compartían al menos una base común de información. Ahora, cada ciudadano vive su propia versión de la campaña electoral en redes sociales.
El legado de una alerta mundial
La explosión del caso Cambridge Analytica supuso un antes y después en la percepción global sobre las grandes plataformas de internet. Por primera vez, quedó expuesto ante la opinión pública que Facebook –lejos de ser una simple vitrina de la vida social– podía emplearse para manipular la voluntad popular en una elección. Las revelaciones detonaron investigaciones gubernamentales en varios países y promesas de reformas por parte de la empresa. En julio de 2019, la Comisión Federal de Comercio de EE.UU. impuso a Facebook una multa récord de US$5.000 millones por las negligencias en la protección de datos que permitieron el escándalo, la sanción más alta jamás dada a una empresa por violar la privacidad de los consumidores. Facebook también acordó establecer mecanismos internos de supervisión de privacidad. Sin embargo, muchos criticaron que, pese a la multa millonaria, la compañía de Zuckerberg –que genera decenas de miles de millones al año– salió relativamente ilesa y sin una transformación profunda de su modelo.
Cambridge Analytica, por su parte, se declaró en bancarrota y se disolvió en 2018, convertida en paria tras el escándalo. Pero sus métodos no murieron con ella. La caja de Pandora que abrió mostró el camino a futuros actores: desde campañas políticas locales hasta potencias extranjeras han adoptado tácticas de propaganda microdirigida en redes sociales. En la elección presidencial de Brasil de 2018, por ejemplo, se observó un aluvión de mensajes de WhatsApp segmentados geográficamente difundiendo noticias falsas contra determinados candidatos. En las elecciones generales de Estados Unidos en 2020, Facebook implementó mayor transparencia en anuncios políticos y limitó algunas opciones de segmentación, pero la desinformación siguió fluyendo mediante grupos cerrados y perfiles falsos, demostrando que la amenaza evoluciona. Incluso en 2021, una denunciante interna, Frances Haugen, filtró documentos (Facebook Papers) mostrando que la empresa era consciente de que su algoritmo de recomendación en Facebook e Instagram podía perjudicar la salud cívica y mental de los usuarios, pero que priorizó “el crecimiento sobre la seguridad” en repetidas ocasiones.
Hoy en día, la discusión sobre cómo proteger los procesos democráticos de la manipulación algorítmica sigue abierta. Algunos países han comenzado a legislar: por ejemplo, la Unión Europea aprobó leyes como el GDPR (Reglamento General de Protección de Datos) y la Ley de Servicios Digitales, que exigen mayor transparencia y control sobre el uso de datos personales y los algoritmos de las plataformas. En Latinoamérica, ha crecido la exigencia de que empresas como Facebook rindan cuentas por su papel en la difusión de contenidos de odio o engañosos durante campañas electorales. No obstante, regular este ámbito complejo es un desafío enorme, dada la escala global de las redes y lo rápido que evolucionan las técnicas de manipulación.
La trama revelada por Cambridge Analytica en 2018 fue, en definitiva, una llamada de atención urgente. Mostró cómo la información privada de los ciudadanos se había convertido en una mercancía política y cómo la tecnología podía torcer voluntades a gran escala sin que la mayoría siquiera lo notara. Facebook, aquella red nacida para conectar amigos, fue el vehículo de una “gran hackeo” a la democracia, en palabras de observadores. Si bien la empresa ha tomado algunas medidas desde entonces –como restringir el acceso de aplicaciones externas a datos y etiquetar contenidos políticos–, la esencia de su algoritmo de publicidad personalizada permanece.
Y mientras tanto, nuevos actores, desde campañas locales hasta gobiernos autoritarios, han aprendido la lección: los datos son poder.
En las elecciones del futuro, la batalla ya no será solo por emitir el mejor mensaje, sino por quién controla el flujo invisible de la información personalizada.
La historia de Facebook y Cambridge Analytica nos deja una advertencia, cuando las redes sociales conocen a los votantes mejor que ellos mismos, la línea entre persuasión legítima y manipulación se vuelve peligrosamente delgada.
Proteger la integridad del voto en la era digital requerirá vigilancia, alfabetización mediática y quizás repensar las reglas del juego en plataformas que, para bien o para mal, se han convertido en la nueva plaza pública de la democracia.
Este reportaje se fundamenta en investigaciones realizadas por medios internacionales de prestigio como The New York Times, The Guardian y Channel 4 News, así como en declaraciones de figuras clave como Christopher Wylie, exdirector de investigación de Cambridge Analytica, y documentos internos filtrados de Facebook conocidos como Facebook Papers. Además, se incluyen datos de informes oficiales del Congreso de Estados Unidos y de la Comisión Federal de Comercio (FTC), proporcionando una base sólida y verificable para los hechos presentados.
Investigación exclusiva de CAMBIO 22.
redaccionqroo@diariocambio22.mx
GCH