¿Qué
pueden tener en común la AfD (Alternativa para Alemania), el presidente de
Filipinas Rodrigo Duterte, el presidente argentino Mauricio Macri, el primer
ministro indio Narendra Modi, el Partido Nacional Escocés y el presidente
estadounidense Donald Trump? Todos basaron sus campañas electorales en los
consejos de Mark Zuckerberg. Tomando el caso de las elecciones en la India,
Shelley Kasli revela cómo Facebook manipula los procesos democráticos.
n
reciente artículo de Bloomberg ha revelado de qué manera un grupo secreto de
Facebook permitió crear un ejército de troles [1] a favor de gobiernos,
incluyendo en la India, como medio de propaganda tendiente a manipular las
elecciones [2].
Bajo
la luz de los proyectores debido al papel que ha desempeñado Facebook como
plataforma de propaganda política, el cofundador de esa empresa, Mark
Zuckerberg, ha respondido que su misión va más allá de las diferencias entre
partidos políticos.
Pero
la realidad es que Facebook no es un simple espectador en materia de política.
Lo que no dice Zuckerberg es que su compañía colabora activamente con partidos
y dirigentes, incluyendo a los que utilizan esa plataforma para contrarrestar
la oposición –a veces con ayuda de numerosos troles que propagan información
falseada («fake news») e ideologías extremistas [3].
Ese
trabajo es realizado desde Washington por un equipo de Facebook extremadamente
discreto, especializado en temas de política global y encabezado por Katie
Harbath, la ex estratega numérica del grupo republicano que trabajó en 2008 en
la campaña presidencial del ex alcalde de Nueva York, Rudy Giuliani. Katie
Harbath también trabajó en las elecciones realizadas en la India en 2014.
Han
pasado 3 años desde que Facebook contrató a Katie Herbath para dirigir ese
grupo secreto. En esos 3 años, su equipo ha viajado por todo el mundo,
incluyendo la India, y ha ayudado a ciertos dirigentes políticos, poniendo a su
disposición las poderosas herramientas numéricas de la compañía, bajo la forma
de un verdadero ejército de troles, con fines de propaganda.
En
la India, y en muchos otros países, los empleados de ese grupo han ejercido de
hecho funciones de agentes de campañas electorales. Y después de la elección
del candidato, la compañía ha supervisado funcionarios o proporcionado ayuda
técnica en materia de difusión numérica en encuentros oficiales entre jefes de
Estados.
En
Estados Unidos, empleados de ese equipo trabajaron en el terreno durante la
campaña de Donald Trump. En la India, Facebook favoreció la presencia en la red
del primer ministro Narendra Modi, quien hoy cuenta con más seguidores en
Facebook que cualquier otro dirigente político del mundo.
Durante
los mítines de campaña hay miembros del equipo de Katie Harbath junto a
responsables comerciales del sector publicitario de Facebook cuyo papel
consiste en ayudar a la compañía a sacar provecho financiero de la atención que
las elecciones suscitan en las masas. Esos especialistas enseñan a políticos y
dirigentes cómo crear una página de Facebook para su campaña –página que
autentifican con una marca azul–, cómo optimizar el uso de videos para atraer a
la gente y cómo seleccionar eslóganes publicitarios. Al resultar electos esos
candidatos, su colaboración con Facebook permite a la compañía extender aún más
su propia influencia política y mejorar sus posibilidades de evadir las leyes.
El
problema se acentúa cuando Facebook se erige antidemocráticamente en pilar de
la democracia. Freedom House, una seudo ONG con sede en Washington, que milita
por la democracia en todo el mundo [4], reportó en noviembre de 2017 que un
número creciente de Estados «manipulan las redes sociales para socavar las
bases de la democracia» [5]. Eso se traduce en campañas de difamación, de acoso
o de propaganda, campañas que el gobierno respalda discretamente para imponer
su versión de los hechos, silenciar la disidencia y reforzar el poder.
Facebook
abrió su primera oficina en Washington en 2007. La elección presidencial del
año siguiente marcó el surgimiento del primer «presidente Facebook» en la
persona de Barack Obama, quien –con ayuda de la plataforma– logró llevar su
mensaje a millones de votantes durante las semanas que antecedieron la
elección. La cantidad de usuarios de Facebook creció de forma exponencial con
los acontecimientos de las «primaveras árabes» que sacudieron el Medio Oriente
en 2010 y 2011, poniendo de relieve la enorme influencia que la plataforma
ejerce sobre la democracia.
Durante
el periodo en que Facebook escogió a Katie Harbath, la ex partidaria de
Giuliani, para dirigir su grupo político, las elecciones se convertían en un
tema constante en las redes sociales. Facebook comenzó a implicarse poco a poco
en procesos electorales en todas partes del mundo.
Facebook
se asoció a varios de los partidos políticos más controvertidos del mundo,
mientras pisoteaba el principio mismo de la transparencia. Desde 2011, la
compañía está reclamando a la Comisión Electoral de Estados Unidos que le
otorgue una dispensa para la ley que exige transparencia en todo lo
concerniente a la promoción de un partido político, lo cual le habría evitado
la crisis que ahora enfrenta sobre los gastos publicitarios rusos relacionados
con las elecciones de 2016.
Las
relaciones entre la compañía y los gobiernos siguen siendo complicadas. La
Unión Europea ha cuestionado a Facebook por haber permitido que el islamismo
radical prospera a través de su red. La compañía acaba precisamente de publicar
su informe de transparencia, donde explica que entregará a los gobiernos datos
sobre sus usuarios sólo si el pedido está legalmente justificado. De no ser
así, Facebook no vacilará en recurrir a la justicia [6].
Ejércitos
de troles en la India
El
mercado indio es sin dudas el más beneficioso para Facebook en este momento,
por encima del estadounidense. En la India, la cantidad de usuarios crece dos
veces más rápido, sin entrar a mencionar los 200 millones de indios que
utilizan la mensajería WhatsApp, mucho más que en cualquier otro país del
mundo.
En
la época de las elecciones indias de 2014, Facebook ya había trabajado durante
meses en otras campañas. Narendra Modi aprovechó a fondo el respaldo de
Facebook y de WhatsApp para reclutar voluntarios que a su vez extendieron el
mensaje a través de las redes sociales. A partir de la elección de Modi como
primer ministro de la India, la cantidad de suscritos aumentó en 43 millones,
dos veces más que en el caso de Trump.
En
las semanas posteriores a la elección de Modi, Zuckerberg y la directora de
operaciones de Facebook, Sheryl Sandberg, viajaron los dos a la India para
desarrollar un controvertido proyecto de internet gratuito, que tuvo que ser
abandonado debido a las enérgicas protestas que suscitó. Katie Harbath y su
equipo también fueron a la India para impartir encuentros de formación en los
que participaron más de 6 000 altos funcionarios.
A
medida que aumentaba la influencia de Modi en las redes sociales, sus
seguidores iniciaron una campaña de acoso contra sus rivales políticos en
Facebook y WhatsApp. La India se convirtió en un nodo de desinformación,
incluso con propagación de información falsa que provocó motines en los que
murieron varias personas. El país se hizo además extremadamente peligroso para
los partidos de oposición y los periodistas.
Pero
Modi y el Partido Popular Indio (Bharatiya Janata Party, BJP) no fueron los
únicos en utilizar los servicios que Facebook propone. La compañía pretende
poner las mismas herramientas y servicios a la disposición de todos los
candidatos, sin importar su orientación política, así como de grupos poco
conocidos de la sociedad civil.
Lo
interesante es que el propio Mark Zukerberg quiere ser presidente de Estados
Unidos y ya contrató a David Plouffe –consejero de campaña de Barack Obama en
2008– y a Ken Mehlman –consejero de campaña de George Bush hijo en 2004.
Actualmente está trabajando con Amy Dudley –ex consejera del senador Tim
Kaine–, con Ben LaBolt –ex encargado de prensa de Barack Obama– y con Joel
Benenson –consejero de campaña de Hillary Clinton en 2016 [7].
Facebook
manipula las emociones
Un
estudio publicado en 2014 bajo el título Evidencia experimental de un fenómeno
de contagio emocional a gran escala a través de las redes sociales [8] analizó
la proporción entre los mensajes positivos y negativos vistos por 689 000
usuarios de Facebook. El experimento, realizado entre el 11 y el 18 de enero de
2012, trató de identificar efectos de contagio emocional que modificaban el
peso emocional de las informaciones enviadas a los usuarios. Los investigadores
concluyen que por primera vez hallaron «la prueba de que las emociones pueden
propagarse a través de una red informática, [aunque] los efectos vinculados a
esas manipulaciones son limitados».
Este
estudio fue criticado tanto por sus bases éticas como por la metodología
utilizada. Ante la intensificación de la polémica, uno de los principales
instigadores de esa investigación y miembro del equipo responsable de los datos
de Facebook, Adam Kramer, defendió el estudio en un comunicado de la compañía
[9]. Días después, la directora de operaciones de Facebook, Sheryl Sandberg,
emitió una declaración [10], durante su estancia en la India. En una actividad
organizada en Nueva Delhi por la Cámara de Comercio, Sheril Sandberg declaró:
«Este estudio se realizó en el marco de las investigaciones que las empresas
desarrollan para poner a prueba diferentes productos, ni más ni menos. La
comunicación al respecto fue muy mala y nos excusamos por ello. No quisimos
contrariarlos a ustedes.»
¿Para
qué nuevo producto revolucionario realizó Facebook experimentos sicológicos
tendientes a manipular las emociones de sus usuarios? Esos productos
revolucionarios son los ejércitos de troles numéricos utilizados con fines
propagandísticos que difunden fake news (información falsa) para ayudar a sus
clientes durante las elecciones.
Poco
después, el 3 de julio de 2014, USA Today reporta que el grupo EPIC, defensor
del respeto a la vida privada del ciudadano, presentó a la Comisión Federal del
Comercio una denuncia oficial donde estipula que Facebook violó la ley al
realizar una investigación sobre las emociones de sus usuarios sin
consentimiento de estos últimos, y sin tomarse siquiera el trabajo de
informarlos al respecto [11].
EPIC
señala en su denuncia que Facebook engañó a sus usuarios al realizar en secreto
un experimento sicológico sobre sus emociones:
«En
el momento del experimento, Facebook no expuso en su política sobre el uso de
los datos que las informaciones sobre sus usuarios se utilizarían con fines
experimentales. Facebook también omitió informar a sus usuarios que esas
informaciones serían puestas a disposición de los investigadores.»
La
mayoría de los conejillos de Indias utilizados en esos experimentos de
manipulación de las emociones eran ciudadanos de la India [12].
La
mayoría de nosotros no prestamos verdadera atención a lo que se divulga a
través de las redes sociales y la mayor parte de lo que en ellas aparece es más
bien inofensivo. Al menos eso parece a primera vista.
La
realidad es que lo que se pone en internet tiene un impacto aterrador. Según
una investigación conjunta del Laboratorio Nacional del Noroeste del Pacífico y
la Universidad de Washington, el contenido de lo que se pone en las redes
sociales puede ser utilizado por un programa informático para predecir
acontecimientos futuros –quizás incluso para predecir quién será el próximo
primer ministro de la India.
En
un trabajo que acaba de publicar ArXiv [13], un equipo de investigadores
descubrió que las redes sociales pueden ser utilizadas para «detectar y
predecir acontecimientos en el mundo real» [14]. Analizando Twitter es posible
predecir con precisión desórdenes sociales, por ejemplo, cuando las personas
utilizan ciertos hashtags para intercambiar sobre determinados problemas, antes
de que la cólera acabe propagándose en el mundo real.
El
ejemplo más conocido de ese fenómeno tuvo lugar durante las «primaveras
árabes», cuando evidentes señales de protestas y de levantamientos inminentes
aparecieron en la red antes de que la gente se lanzara a la calle.
Pero
también puede ser lo contrario: las redes sociales pueden generar la cólera
que, luego de alcanzar un grado óptimo, puede ser encauzada para provocar
acontecimientos en la vida real, como puede comprobarse en la India desde hace
al menos 2 años, incluso con casos de linchamientos colectivos.
El
funcionamiento de la
industria
del «fake news» en la India
En
la India ha surgido una gigantesca industria de la desinformación o «fake
news», cuya influencia es muy superior al discurso político tradicional y que,
a falta de control, puede llegar a convertirse en un problema de seguridad,
como sucedió con las «primaveras árabes». En momentos en que está en su apogeo
el debate sobre los linchamientos, es necesario que se entienda que ese tipo de
incidentes no se habría propagado tan rápidamente sin el acceso de la juventud
a Facebook, Twitter, Youtube y otras redes sociales que permiten a esa
industria de la desinformación generar y propagar los montajes de videos falsos
y de «fake news». El fenómeno de los linchamientos, que apareció desde hace ya
varios años, es una consecuencia directa de esa industria del «fake news» o
desinformación, que pasa de las redes sociales al mundo real.
Esto
toma otro cariz ahora que se ha revelado que Facebook y WhatsApp conspiraron
con el establishment creando «un ejército de troles» con fines de propaganda
numérica y engendrando explosiones de violencia en suelo indio. Esto es un caso
típico de terrorismo. Hay que recordar que el terrorismo se define como «la
utilización sistemática del terror o de la violencia por parte de un individuo
o un grupo con fines políticos». En el caso que nos ocupa, ese terrorismo es
obra de una compañía extranjera –Facebook– en suelo indio mediante una guerra
numérica de (des)información. ¿Qué estamos esperando para reaccionar contra
tales actos?
Durante
las elecciones presidenciales estadounidenses hubo una campaña de «fake news» o
desinformación. Esta fue parte de la campaña oficial, realizada a su vez con la
colaboración de empresas tecnológicas, y se afirma que hasta los rusos
utilizaron sus propias redes. Ese mismo método se utilizó también para orientar
el debate sobre el Brexit. Mientras escribimos este artículo, esa enorme
industria del «fake news» extiende sus tentáculos sobre la India. Numerosos
deportistas de renombre, «celebrities», economistas y políticos ya han sido
víctimas de la diseminación de contenidos falaces. Es una peligrosa tendencia
que debería ser objeto de estrecha vigilancia por parte de nuestros servicios
de inteligencia en aras de prevenir futuros desastres.
Veamos,
en una breve explicación, cómo funciona todo eso. Se ponen en marcha numerosos
sitios y portales web de diversa legitimidad y financiamiento. Se crean
contenidos específicos para diversas categorías de personas, en función de la
región donde viven, de su ideología, su edad, su religión… contenidos que se
mezclan con una enorme cantidad de material erótico que disimula el objetivo
verdadero. Ese contenido falaz se introduce después en la red social y en
grupos específicos previamente identificados mediante herramientas de análisis
desarrolladas por empresas tecnológicas. A medida que se propaga, esa
información falsa va adquiriendo su propia dinámica y alguien –una celebridad,
algún político o incluso un periodista– acaba repitiéndola. Lo que sucede
entonces ya cae en el rango de la verdadera locura.
Ya
sea a propósito o por ignorancia, los medios dominantes comienzan a propagar
esas mentiras, dedicando la integralidad de sus revistas de prensa al análisis
de esa información falsa o «fake new»… quién dice qué y por qué lo dice, bla
bla bla, en vez de tratar de verificar la autenticidad de tales afirmaciones.
Dado el carácter sensacional de esas falsedades, y también porque personas
influyentes las repiten, esa visión falseada del mundo va a contaminar el mundo
real. ¿Testigos? Las víctimas de linchamientos. Se llega así a un momento en
que es casi imposible distinguir entre lo verdadero y lo falso, diferenciar el
hecho de la ficción, con toda la sociedad radicalizándose en diferentes
facciones que se oponen entre sí basándose en mentiras.
Facebook
y las elecciones indias
En
la época de las elecciones indias de 2014 apareció en la prensa un artículo
sobre el tema «¿Puede Facebook influir en el resultado de la elección india?».
El título revelaba la existencia de un verdadero iceberg. Si Facebook es capaz
de modificar nuestras emociones y de hacernos votar… ¿qué más puede hacer?
[15].
Asombrosamente,
la Comisión Electoral India no encontró nada mejor que firmar un documento
asociándose con Facebook para censar a los votantes durante el proceso
electoral [16]. El doctor Nasim Zaidi, jefe de la Comisión Electoral India
(ECI), declaró:
«Me
siento feliz de anunciar que la Comisión Electoral India va a iniciar un
procedimiento especial destinado a enrolar a los no votantes y, sobre todo, a
quienes nunca han votado. Esto representa un paso adelante hacia la realización
de la consigna de la ECI “Ni un ciudadano olvidado”. Como parte integrante de
esta campaña, Facebook divulgará un recordatorio en diferentes dialectos indios
para el momento de la elección, [recordatorio destinado] a todos los usuarios
de Facebook de la India. Invito a todos los ciudadanos a que se inscriban y a
votar, o sea a reconocer sus derechos y asumir sus deberes. Estoy convencido de
que Facebook dará una nueva envergadura a la campaña de inscripción de
electores iniciada por la Comisión y estimulará futuros votantes a participar
en el proceso electoral y a convertirse en ciudadanos indios responsables.»
Las
17 agencias de inteligencia de Estados Unidos emitieron serias advertencias en
cuanto al impacto de este fenómeno de desinformación sobre su proceso electoral
y su sociedad. Según un centro de investigación en estadística, la mayoría de
los estadounidenses –un espectacular 88%– piensa que la difusión de «fake news»
perjudica su percepción de la realidad cotidiana [17].
Nosotros,
en la India, nos dirigimos hacia un escenario aún más catastrófico. ¿Por qué?
Porque, al revés de lo que sucede en la India, el gobierno de Estados Unidos y
su comunidad de inteligencia exponen públicamente el problema y han trabajado
en una solución ante esa amenaza. ¿Puede la India hacer lo mismo con Facebook
metiendo sus narices en los asuntos internos del país?
Se
crean todo tipo de comisiones, se programan audiencias senatoriales para
aclarar este asunto y se establecen nuevos equipos para contrarrestar
eficazmente esta amenaza contra la sociedad. Mientras se investiga el papel de
Facebook en la elección presidencial estadounidense, se presta poca atención a
cómo el equipo secreto de Facebook influyó en las elecciones indias.
A
la luz de estas revelaciones habría que investigar detalladamente el impacto de
Facebook en las elecciones indias. Es evidente que, para hacerlo, el gobierno
tiene que empezar por reconocer la existencia de esa industria del «fake news»
o de la desinformación para poder después actuar contra ella.
Junto
a Facebook, American Microchip Inc. y la firma japonesa Renesas, contratados
para piratear el código secreto EVM (banco de datos de usuarios) [18], también
deberían ser objeto de una investigación por interferir en las elecciones
indias todos los que han conspirado junto a esas empresas.
Tomar esta amenaza a la ligera sería un grave error.
Shelley Kasli
Fuente
Great Game India (India)
[1] En el lenguaje de los internautas
un trol es alguien que se dedica a generar polémicas, generalmente con
objetivos oscuros. En un foro puede tratarse de alguien cuyos mensajes provocan
constantemente debates que desvirtúan el interés en determinado asunto o
desvían la discusión hacia otra cosa.
[2] “How Facebook’s Political
Unit Enables the Dark Art of Digital Propaganda”, Lauren Etter, Vernon Silver y
Sarah Frier, Bloomberg, 21 de diciembre de 2017.
[3] “India’s Fake News Industry
& Mob Lynchings”, Great Game India News, 6 de julio de 2017.
[4]
«Freedom House: cuando la “libertad” no es más que un pretexto», por Thierry
Meyssan, Red Voltaire, 3 de enero de 2005.
[5] “Freedom on the Net 2017.
Manipulating Social Media to Undermine Democracy”, Freedom House, 14 de
noviembre de 2017.
[6] “Facebook Transparency
Report 2017”, Facebook, enero de 2017.
[7]
«¿Será Mark Zuckerberg el próximo presidente de Estados Unidos?», Red Voltaire,
7 de agosto de 2017.
[8] “Experimental evidence of
massive-scale emotional contagion through social networks”, Adam D. I. Kramer,
Jamie E. Guillory y Jeffrey T. Hancock, Proceedings of the National Academy of
Sciences of the United States of America (PNSA), Vol 111, #24, 17 de julio de
2014.
[9] “The Author of a
Controversial Facebook Study Says He’s ‘Sorry’”, Stephanie Burnett, Time, 30 de
junio de 2014.
[10] “Facebook still won’t say
’sorry’ for mind games experiment”, David Goldman, CNN, 2 de julio de 2014.
[11] “Privacy watchdog files
complaint over Facebook study”, Jessica Guynn, USA Today, 3 de julio de 2014.
[12] “Facebook apologises for
psychological experiments on users”, Samuel Gibbs, The Guardian, 2 de julio de
2014.
[13]
ArXiv es un archivo online de trabajos que van a publicarse en diferentes
sectores de las ciencias. Nota de la Red Voltaire.
[14] “Using Social Media To
Predict the Future: A Systematic Literature Review”, Lawrence Phillips, Chase
Dowling, Kyle Shaffer, Nathan Hodas y Svitlana Volkova, ArXiv, 19 de junio de
2017.
[15] “If Facebook can tweak our
emotions and make us vote, what else can it do?”, Charles Arthur, The Guardian,
30 de junio de 2014.
[16] “Election Commission of
India partners with Facebook to launch first nationwide voter registration
reminder”, Facebook, 28 de junio de 2017.
[17] “Many Americans Believe
Fake News Is Sowing Confusion”, Michael Barthel, Amy Mitchell y Jesse Holcomb,
Pew Research Center, 15 de diciembre de 2016.
[18] “Are Indian Elections
Hacked By Foreign Companies?”, Shelley Kasli, Great Game India News, 17 de
diciembre de 2017.
No hay comentarios:
Publicar un comentario