El ‘coco’ del combate a los contenidos falsos en Facebook tiene nombre: Rusia

Los llamados ‘proveedores de servicios de manipulación’ rusos y europeos entregaron más de 5 mil seguidores falsos no solo en esa red social, sino también en YouTube o Instagram.
elfinanciero.com.mx

Las empresas de medios sociales insisten en que están progresando en la lucha contra la manipulación de sus plataformas. Pero dos investigadores que trabajan con un presupuesto extremadamente modesto acaban de demostrar que sus defensas son trasgredidas rutinariamente por toda una industria de manipulación, en gran parte con sede en Rusia.

En un informe para el Centro de Excelencia de Comunicación Estratégica de la Organización del Tratado del Atlántico Norte (OTAN), Sebastian Bay y Rolf Fredheim describieron un experimento que realizaron entre mayo y agosto de este año. En los primeros dos meses, durante e inmediatamente después de la campaña electoral del Parlamento Europeo, contrataron a once “proveedores de servicios de manipulación” rusos y cinco europeos, a quienes encontraron simplemente buscando en la web. Luego, las compañías entregaron 3 mil 530 comentarios, 25 mil 750 ‘Me gusta’, 20 mil visitas y 5 mil 100 seguidores en Facebook, Twitter, Instagram y YouTube, todo ello falso.

Dada la seriedad que las plataformas de redes sociales afirman tener frente a la purga de actividades no auténticas, la tasa de éxito del experimento fue sorprendente. Cuatro semanas después de su publicación, la gran mayoría de los datos falsos seguían en pie. Incluso informarlos a las plataformas no hizo que eliminaran la mayoría.

El estudio revela una gran debilidad en la forma en la que los gigantes de las redes sociales informan sobre sus esfuerzos contra el fraude. Facebook tiene mucho que decir sobre la cantidad de contenido que elimina, por ejemplo, pero es como el alcalde de una ciudad que informa que el 50 por ciento de sus carreteras ahora están libres de baches: nunca se sabe cuál 50 por ciento.

La métrica importante es la cantidad de contenido manipulador que se filtra. Bay y Fredheim descubrieron que, una vez que los profesionales se involucran, la mayor parte de su trabajo es firme, en la medida en que a menudo entregan más de lo prometido por el dinero. Las defensas solo funcionan en el nivel más básico. Los profesionales siempre están un paso adelante.

La OTAN, por supuesto, está principalmente interesada en la manipulación política, y los investigadores descubrieron que algunas de las mismas cuentas que ayudaron a llevar a cabo su estudio “habían sido utilizadas para comprar compromiso en 721 páginas políticas y 52 páginas gubernamentales, incluidas las cuentas oficiales de dos presidentes, la página oficial de un partido político europeo y varios políticos menores y locales en Europa y Estados Unidos”.

Una pregunta importante es si tales esfuerzos realmente funcionan. Un artículo reciente intentaba determinar qué efecto han tenido los ‘trolls’ rusos conocidos como Internet Research Agency (IRA, Agencia de Investigación de Internet) en los comportamientos políticos de EU.

IRA, cuyos empleados y propietario fueron acusados ​​en la investigación del abogado especial Robert Mueller sobre intromisión en las elecciones presidenciales de 2016, utilizó algunas de las mismas técnicas que los investigadores de Stratcom de la OTAN, pero sus cuentas falsas predicaban efectivamente a convertidos. Incluso en aquellos usuarios que interactuaron directamente con las cuentas IRA, los investigadores no encontraron “efectos sustanciales” en sus opiniones políticas, compromiso con la política o actitudes hacia miembros del partido contrario.

Esto no significa que la manipulación de las redes sociales sea ineficaz para fines políticos, pues se necesitaría mucha más investigación para emitir conclusiones radicales. Sin embargo, lo que está claro ahora es que la industria de la manipulación no está orientada principalmente hacia usos políticos. Bay y Fredheim descubrieron que “más de 90 por ciento de los resultados adquiridos en las redes sociales se utiliza con fines comerciales“.

Aunque tiene su sede en Rusia, esta industria no trata de los ‘malvados autores intelectuales’ del Kremlin que intentan convertir la tecnología en contra de la democracia estadounidense. Más bien, se trata de talentosos ingenieros rusos, atrapados en el país equivocado para lanzar grandes empresas comerciales como Facebook o YouTube, que tratan de ganar dinero ‘ordeñando’ las plataformas existentes.

¿Cómo? Por ejemplo ayudan a ‘influencers’ para que estos engañen a los anunciantes. Las tasas de eliminación abismalmente bajas para las reproducciones de videos falsos en el experimento Stratcom muestran que las plataformas no están luchando contra tales abusos de manera suficientemente estricta. No tienen que hacerlo: siguen siendo esencialmente cajas negras desde el punto de vista de un cliente publicitario. Como resultado, tal vez miles de millones de dólares (las estimaciones varían enormemente) se pierden por tal fraude cada año.

Las plataformas han pasado suficiente tiempo intentando, y fallando, solo para demostrar que la autorregulación puede funcionar para ellos. Los gobiernos deberían actuar para proteger no tanto a votantes como a anunciantes de la industria de la manipulación, penalizando así a empresas de redes sociales por su incapacidad para prevenir fraudes y exigiendo más transparencia. Ahora, como escribieron Bay y Fredheim, “los datos son cada vez más escasos y nuestras oportunidades para investigar este campo se reducen constantemente. Esto transfiere efectivamente la capacidad de comprender lo que está sucediendo en las plataformas a las empresas de redes sociales. Se necesita supervisión independiente y con buenos recursos”.

Los formuladores de políticas deben darse cuenta de que la industria de manipulación de plataformas no prospera porque es un arma del Kremlin. El armamento político es solo un efecto secundario de una industria parasitaria construida sobre los defectos del modelo de negocio de las redes sociales. Lo que se necesita regular es el modelo.

*Esta columna no necesariamente refleja la opinión de la junta editorial, del Financiero o de Bloomberg LP y sus dueños.

*Leonid Bershidsk es columista de opinión de Bloomberg para Europa. Es el fundador de la revista rusa de negocios ‘Vedomosti’ y del sitio web Slon.ru

Compartir