Adrian Chen

https://twitter.com/AdrianChen
https://fieldofvision.org/the-moderators

Pocos saben que Adrian Chen, periodista gonzo que escribió para The New York Times, Slate, Wired y ahora el New Yorker, empezó como youtuber cuando Youtube era todavía una mina de oro (si uno era capaz de prestar la suficiente atención y de escarbar entre las performances caseras, los freaks genuinos y lo raro en general). Lo cual da una pista de su agudo olfato para las culturas de internet, del humor negro de foros tipo 4Chan a la propaganda opaca del gobierno. También es fundador del I.R.L. Club, una punto de encuentro regular para que la gente de internet se conozca I.R.L. (= “en la vida real”, en la jerga friki).

Chen ha escrito sobre la Silk Road, un mercado de la Darknet que facilita la compra de drogas en línea; el colectivo anonymous; la cultura de los memes; el fenómeno de los trolls; el Bitcoin, y otras cuestiones aparentemente oscuros que, de hecho, no sólo están configurando el Internet que conocemos, sino también el futuro de nuestra sociedad en red.

En 2012 contactó con Violentacrez, el administrador de varios de los foros más violentos, explícitos y polémicos de Reddit, una “fuente de racismo, pornografía, gore, misoginia, incesto y abominaciones exóticas sin nombre”. Era un hombre de mediana edad que combinaba “su hobby” con una vida tranquila como programador en Texas. Chen decidió “doxearlo”, es decir, revelar su verdadera identidad. Aquel perdió de inmediato su trabajo y fue blanco, a su vez, de acoso online. La historia desató un enorme y complejo debate sobre los trolls y la libertad en Internet.

En 2014 Chen empezó a investigar una serie de extrañas noticias sobre accidentes no reportados en una planta química en Louisiana. Algunos usuarios de Twitter difundieron la noticia a través de decenas de posts e incluso de imágenes falsas y videos. En realidad, no había habido ningún accidente. “Fue una campaña de desinformación altamente coordinada -explicó Chen- que involucró a docenas de cuentas falsas que publicaron cientos de tweets durante horas, apuntando a una lista de figuras elegidas precisamente para despertar la máxima atención”. El hilo del incidente en Twitter le llevó hasta la Internet Research Agency, una oscura empresa de San Petersburgo (Rusia), una “granja de trolls”, que utiliza todo tipo de estrategias para difundir la desinformación. En Rusia, hasta donde viajó, Chen se encontró con una espesa cortina de humo, convirtiéndose, además, en el blanco de una insólita campaña de difamación perfectamente orquestada.

Desde 2014, Adrian Chen ha arrojado luz sobre otra parte oculta de nuestra experiencia diaria en internet: la moderación en las redes sociales. ¿Cómo puede ser que Facebook no esté inundado de pornografía o de material ofensivo o gore? Bueno, de hecho lo está. Sólo que hay un ejército de moderadores subcontratados, que en su mayoría trabajan en países asiáticos, y que se dedican fundamentalmente a censurar los contenidos de acuerdo con las directrices establecidas por el cliente. Esas directrices son, por supuesto, confidenciales y se mantienen en privado, o al menos lo estaban hasta que Chen las publicó.

Las grandes plataformas mantienen deliberadamente en la sombra el trabajo de los moderadores, probablemente porque podría suscitar debates indeseables. “Incluso la tecnología que parece existir sólo en forma de datos en un servidor se basa en el trabajo humano, tan tedioso como potencialmente peligroso”, dice Chen. Además, el estudio de la moderación invisible de los medios sociales revela algo más: “permite a las plataformas un cierto margen de flexibilidad y de negación cuando tienen que lidiar con cuestiones políticas delicadas”.

La moderación se convirtió en un tema candente en 2016, cuando la campaña presidencial de Trump comenzó a ganar terreno en las redes sociales (unos meses antes, había pasado algo parecido en el Reino Unido con la campaña del #brexit). Tanto Facebook como Twitter se vieron envueltos en controversias de enorme resonancia acerca de su capacidad para filtrar noticias falsas (“fake news”) y discursos que inciten al odio (“hate speech”), y fueron muy criticados por ser el soporte de un nuevo tipo de propaganda cuyos efectos no fueron amplificados por los megáfonos gubernamentales, sino por los propios usuarios, o al menos eso es lo que parecía. La defensa de Facebook y Twitter resultó ser una tarea difícil, dada su naturaleza híbrida de comunidades de usuarios, y, al mismo tiempo, de fuentes de información extremadamente influyentes, que, sin embargo, no tiene la obligación de cumplir con las regulaciones ni las directrices profesionales de los medios tradicionales.

The "Trolls, Trumps and Algorithmic Propaganda" session is part of
The New Networked Normal
A European partnership and programme in collaboration with Abandon Normal Devices (UK), Centre de Cultura Contemporània de Barcelona (Catalonia, Spain), The Influencers (Catalonia, Spain), Transmediale (Germany) and STRP (Netherlands).

This project has been funded with support from the European Commission. This communication reflects the views only of the author, and the Commission cannot be held responsible for any use which may be made of the information contained therein.