Rusia es el rey de la desinformación en Facebook, la empresa – PanaTimes


Rusia e Irán son las dos principales fuentes de actividad falsa coordinada en Facebook (FB), según un nuevo informe publicado por la compañía.

FacebookEl informe, publicado el miércoles, muestra cómo los operadores de influencia encubierta nacionales y extranjeros han cambiado sus tácticas y se han vuelto más sofisticados en respuesta a los esfuerzos de las empresas de redes sociales para tomar medidas enérgicas contra las cuentas falsas y las operaciones de influencia.

Facebook ha eliminado más de 150 redes de actividad falsa coordinada desde 2017, según el informe. Se han vinculado veintisiete redes a Rusia y 23 a Irán. Nueve se originaron en los Estados Unidos.

Estados Unidos sigue siendo el objetivo principal de las campañas de influencia extranjera, FacebookEl informe dijo, destacando 26 esfuerzos de este tipo por una variedad de fuentes desde 2017 hasta 2020 (Ucrania sigue en un distante segundo lugar).

Sin embargo, durante la temporada electoral de 2020, fueron los actores nacionales estadounidenses, no los operativos extranjeros, quienes fueron cada vez más responsables de sembrar la desinformación.

En el período previo a las elecciones, Facebook eliminó tantas redes estadounidenses dirigidas a Estados Unidos con el llamado comportamiento no auténtico coordinado (CIB) como las redes rusas o iraníes, según el informe de la compañía.

“Más notablemente, una de las redes CIB que encontramos fue operada por Rally Forge, una firma de marketing con sede en Estados Unidos, que trabaja en nombre de sus clientes, incluido el Comité de Acción Política Turning Point USA”, dice el informe. “Esta campaña aprovechó las comunidades auténticas y reclutó a un equipo de adolescentes para ejecutar cuentas falsas y duplicadas haciéndose pasar por votantes no afiliados para comentar las páginas de noticias y las páginas de los actores políticos”.

Esa campaña fue reportada por primera vez por The Washington Post en septiembre de 2020. En una declaración al Post en ese momento, un portavoz de Turning Point describió el esfuerzo como “activismo político sincero realizado por personas reales que sostienen apasionadamente las creencias que describen en línea, no un granja de trolls anónimos en Rusia “. El grupo en ese momento se negó a comentar en respuesta a una solicitud de CNN.

Otra red estadounidense, que Facebook anunció que fue destituido en julio de 2020, tenía vínculos con Roger Stone, un amigo y asesor político del ex presidente Donald Trump. La red mantuvo más de 50 cuentas, 50 páginas y cuatro cuentas de Instagram. Tenía un alcance que cubría 260.000 Facebook cuentas y más de 60.000 cuentas de Instagram. (Después FacebookStone compartió la noticia de su prohibición en el sitio de medios sociales alternativos Parler, junto con una declaración: “Hemos estado exponiendo el trabajo ferroviario que fue tan profundo y tan obvio durante mi juicio, por lo que deben silenciarme. Como pronto aprenderán, no puedo ni seré silenciado “).

La presencia de contenido falso y engañoso en las redes sociales se convirtió en la historia dominante que persigue a las plataformas tecnológicas, incluidas Facebook, Twitter y YouTube después de las elecciones de 2016, cuando surgieron revelaciones sobre los intentos de Rusia de inmiscuirse en el proceso democrático de Estados Unidos. Al hacerse pasar por votantes estadounidenses, dirigirse a los votantes con anuncios digitales engañosos, crear noticias falsas y otras técnicas, las campañas de influencia extranjera han buscado sembrar la división dentro del electorado.

El descubrimiento de esas campañas ha llevado a una intensa presión política y regulatoria sobre Big Tech y también ha planteado preguntas persistentes sobre el poder desproporcionado de la industria en la política y la economía en general. Desde entonces, muchos críticos han pedido la disolución de las grandes empresas de tecnología y la legislación que rige cómo las plataformas de redes sociales moderan el contenido de sus sitios web.

Empresas tecnológicas como Facebook han respondido contratando más moderadores de contenido y estableciendo nuevas políticas de plataforma sobre actividades falsas.

En un anuncio separado el miércoles, Facebook dijo que está ampliando las sanciones que aplica a las personas Facebook usuarios que comparten repetidamente información errónea desacreditada por sus socios de verificación de datos. Actualmente, cuando un usuario comparte una publicación que contiene afirmaciones desacreditadas, FacebookLos algoritmos degradan esa publicación en su servicio de noticias, haciéndola menos visible para otros usuarios. Pero con el cambio del miércoles, los infractores reincidentes pueden correr el riesgo de que todos sus puestos sean degradados en el futuro.

Facebook ya había estado aplicando degradaciones generales a nivel de cuenta a páginas y grupos que comparten repetidamente información errónea verificada por hechos, dijo, pero el anuncio del miércoles cubre a usuarios individuales por primera vez. (Las cuentas de los políticos no están cubiertas por el cambio porque las figuras políticas están exentas de Facebookprograma de verificación de datos).

Pero incluso como Facebook ha mejorado sus esfuerzos de moderación, muchos proveedores encubiertos de información errónea han desarrollado sus tácticas, según el informe. Desde la creación de campañas más personalizadas y dirigidas que pueden eludir la detección hasta la subcontratación de sus campañas a terceros, los actores de amenazas están tratando de adaptarse a Facebookla aplicación en un juego cada vez más complejo del gato y el ratón, según la compañía.

“Entonces, cuando juntamos cuatro años de operaciones de influencia encubierta, ¿cuáles son las tendencias?” Ben Nimmo, coautor del informe, escribió en Twitter el miércoles. “Más operadores lo están intentando, pero también están atrapando a más operadores. El desafío es seguir avanzando para mantenerse a la vanguardia y atraparlos”.

.



Source link