De la posverdad a la pre-mentira

11/12/2016 - 06:00h

Edgar Welch decidió investigar el domingo pasado si una pizzería en los suburbios de Washington ocultaba una red de pederastia dirigida por Hillary Clinton. Lo decían la redes sociales. Allí podía haber mazmorras y túneles; incluso algún niño a quien rescatar. Así que se presentó en el establecimiento disparando su fusil de asalto AR-15. Irá a la cárcel por ello.

El episodio –que terminó sin víctimas— es estadísticamente inevitable en Estados Unidos, donde circulan 300 millones de armas y donde 13.000 de las 33.000 muertes anuales por disparos son homicidios. Lo que convirtió el incidente en un espectáculo mediático y en un vendaval en las redes fue su coincidencia con el debate nacional sobre las noticias falsas.

Las informaciones falsas, los fakes, y rumores malintencionados son parte de la dimensión perversa de Internet; la que habilita anónimamente a todo tipo de fanáticos para que diseminen su ira y sus prejuicios. Pero cuando la desinformación la difunden profesionales –servicios secretos, activistas, empresas al servicio de partidos políticos o grandes corporaciones— la Web se transforma en un poderoso instrumento de ingeniería social.

La atención reciente sobre la posverdad se ha centrado en Facebook, Twitter y YouTube. Pero la interacción con Internet comporta un peligro mayor y más insidioso. El Big Data –recoger, analizar y ordenar miles de millones de datos recolectados en la red— no sólo permite descubrir las preferencias individuales, sino condicionar su comportamiento.

Facebook realizó hace algún tiempo –sin su consentimiento— un experimento con 689.000 de sus usuarios. Aplicó a una parte un algoritmo por el que solo recibían en su feed los cambios de estado de tono negativo de sus amigos; otro algoritmo hacía lo propio sobre un grupo similar con las entradas de tono positivo.

El Experimento del Estado de Ánimo, publicado en 2014, mostró que un elevado número de participantes reflejaron en su propio muro desánimo u optimismo en función de las entradas, negativas o positivas, transmitidas por sus amigos. Es lo que Adam Kramer, data scientist de la red social, llamó contagio emocional. Un estudio anterior había revelado que los comportamientos también eran contagiosos entre personas afines en la red social.

A raíz del experimento, Enrique Dans, profesor la IE Business School y uno de los expertos españoles más conocidos en Tecnologías de la Información y Comunicación (TIC), comentó que Facebook había abierto "una puerta de entrada a nuestro cerebro" a través de la que "es capaz de programarnos". Y añadió: "no solo tiene esa facultad; además va y la utiliza".

Ese poder crece exponencialmente con la sinergia entre redes sociales y motores de búsqueda, particularmente Google. El buscador –una marca convertida en verbo (to google, googlear)— se consulta 5.500 millones de veces al día. Esas búsquedas alimentan una base de datos gigantesca sobre los hábitos, opiniones, filias y fobias de miles de millones de usuarios.

Es la materia prima sobre la que trabaja el data mining profundo, la minería de datos masiva que han hecho posible los programas de inteligencia artificial. La capacidad computacional actual han elevado los modelos predictivos a una dimensión desconocida.

El referéndum británico del 23 junio sobre la permanencia en la UE y las elecciones americanas del 8 de noviembre coincidieron en algo más que la sorpresa del resultado y el fracaso de los pronósticos. Ese elemento común es analizado por la compañía británica Cambridge Analytica (CA). Fundada por ingenieros y psicólogos de la Universidad de Cambridge, CA ha desarrollado una metodología que denomina behavioral microtargeting (micro-selección conductual de destinatarios) basada en el análisis psicográfico de audiencias en lugar del las inferencias extraídas de las métricas habituales.

La firma combina información obtenida con herramientas como Google Analytics –patrones geográficos, demográficos, socioeconómicos y de consumo— con perfiles propios de 230 millones de personas. Sobre cada uno de estos individuos, CA afirma tener entre 3.000 y 5.000 datos diferentes a los que puede aplicar 100 variables de análisis.

Ese caudal reveló a los estrategas de Trump las claves que conforman las opiniones de colectivos tan pequeños como un barrio concreto y las palancas que activan su comportamiento. Así pudieron adaptar los mensajes (publicidad, mítines, intervenciones en radio y TV locales) a cada grupo con una precisión y poder de convicción inauditos.

Utilizaron para ello herramientas comerciales como los dark post que Facebook ofrece a sus anunciantes que, cruzados con los perfiles psicográficos de CA, multiplicaron su eficacia. Por ejemplo, para apelar a los partidarios de las armas, un usuario previamente caracterizado como escrupuloso y neurótico recibiría en su feed mensajes sobre autodefensa y criminalidad. Por el contrario, si el algoritmo había catalogado a otro receptor como amable y sincero, su entrada oscura mostraría una imagen de un padre enseñando a cazar a su hijo.

No está probado que esos canales selectivos se hayan utilizado también para diseminar noticias falsas. Pero un estudio de la Universidad Elon (Carolina del Norte) ha destapado una trama virtual que ha contribuido a propagar todo tipo de teorías conspirativas. El profesor Jonathan Albright identificó más de 300 webs –entre ellas la ultra Breitbart News y otras de similar corte— y 1,4 millones de URLs que interconectaron en la difusión de no-noticias.

¿Ciencia? ¿Control mental? Académicos y politólogos coinciden en que CA fue vital para contrarrestar la segura victoria de Hillary Clinton en voto popular con la de Trump en votos electorales. Su modelo permitió explotar los caladeros ocultos favorables al republicano en los battleground states (Estados en disputa) como Florida, Pennsylvania, Michigan y Ohio. Contra todos los pronósticos, acabó ganándolos todos. Eso le dio la presidencia.  

Como todo poder, el peligro de tecnologías como la de Cambridge Analytica no es intrínseco; radica en quién la utiliza. Un indicio acerca de su influencia futura es la propiedad de la empresa. Su principal accionista es el multimillonario Robert Mercer. Su hija, Bekah ha sido valedora temprana de Trump y ejerce un fuerte ascendiente sobre su equipo de transición.

Los Mercer son accionistas de referencia de Breitbart News, la web ultraderechista fundada por Steve Bannon, director de la exitosa campaña presidencial y ahora jefe de Estrategia del presidente electo. Bannon se sienta en el consejo de administración de Cambridge Analytica. Según medios como Político.com, CA seguirá trabajando para Trump a través una plataforma de activismo trumpiano que Bekah impulsa al margen del aparato Republicano.

Ni las noticias falsas, ni la probable intervención de Rusia en las elecciones americanas (que Barack Obama ha ordenado determinar antes de abandonar el cargo) son una novedad. El término dezinformatsiya, acuñado en la década de 1930 y atribuido al mismísimo Joseph Stalin, sigue siendo una táctica común. Dov Levin, de la Universidad Carnegie-Mellon en Pittsburgh, afirma que entre 1946 y 2000, EE.UU. y la URRS/Rusia han intervenido secretamente en 117 procesos electorales extranjeros.

El alcance, la ubicuidad y el feedback –voluntario o inconsciente— de Internet y las redes sociales han inaugurado la era de la verdad tenue, de la recién oficializada posverdad.

Pero la utilización tramposa de las tecnologías más innovadoras abren la puerta a un mundo todavía más turbador: el de la pre-mentira, que condiciona la voluntad y amenaza con lograr el mayor sueño del tirano; donde el individuo actúe como le ordena la máquina que él solo controla.