El lado oscuro de las redes sociales: explorando el sector del trauma en Facebook

 


Introducción

En la era digital, las redes sociales se han convertido en una parte integral de nuestras vidas, proporcionando un espacio para la comunicación, el intercambio y la expresión. Con miles de millones de usuarios en todo el mundo, plataformas como Facebook tienen la responsabilidad de garantizar la seguridad y el bienestar de sus usuarios. Una forma de hacerlo es a través de la moderación de contenidos. Según un estudio de Newton (2019) para The Verge, la moderación de contenido es el proceso de revisión y eliminación de contenido que viola las pautas de la comunidad o los términos de servicio de la plataforma, con el fin de mantener un entorno en línea seguro para los usuarios.

A medida que Internet sigue creciendo, también lo hace el potencial de contenidos nocivos, que van desde la incitación al odio a la violencia gráfica. Para mantener un espacio seguro, las plataformas de medios sociales emplean moderadores de contenidos para filtrar los contenidos inapropiados. En un informe del Data & Society Research Institute, Roberts (2016) destaca que la moderación de contenidos es esencial para proteger a los usuarios de experiencias potencialmente angustiosas o dañinas mientras utilizan plataformas de medios sociales.

Si bien la moderación de contenidos desempeña un papel crucial en el mantenimiento de un entorno en línea seguro, también puede tener un grave impacto en la salud mental de los moderadores. Denominado trauma floor, este término se refiere al entorno de trabajo en el que los moderadores de contenidos están expuestos diariamente a contenidos angustiosos y dañinos. En esta entrada del blog, exploraremos la realidad del trauma floor en Facebook, su impacto en los moderadores de contenidos y las medidas que se están tomando para abordar el problema.

¿Qué es el sector del trauma?

El término trauma floor se refiere al entorno de trabajo en el que los moderadores de contenido están expuestos a contenidos gráficos, perturbadores y dañinos a diario. Según la investigación de Newton (2019) para The Verge, el trauma floor es un espacio metafórico en el que los moderadores se enfrentan constantemente a los peores aspectos de internet mientras trabajan para mantener las plataformas de medios sociales, como Facebook, seguras para los usuarios.

Los moderadores de contenidos son responsables de revisar y filtrar los contenidos que infringen las directrices o las condiciones de servicio de una plataforma. Según Chen (2014) en un artículo para Wired, esto puede incluir una amplia gama de contenidos, como imágenes explícitas, incitación al odio, acoso, violencia gráfica y desinformación. Los moderadores tienen que tomar decisiones rápidas sobre si eliminar, marcar o ignorar contenidos en función de las políticas de la plataforma.

Mientras trabajan en la planta de traumatología, los moderadores de contenidos están expuestos a un flujo constante de contenidos potencialmente dañinos. En su artículo para The Guardian, Tufekci (2018) afirma que los moderadores pueden tener que revisar miles de publicaciones al día, incluido contenido que presenta explotación infantil, crueldad animal y autolesiones. Esta exposición a contenidos gráficos y perturbadores puede tener graves consecuencias en el bienestar mental y emocional de los moderadores.

El impacto en los moderadores de contenido


TEPT y otros problemas de salud mental

La exposición diaria a contenidos gráficos y perturbadores puede provocar graves problemas de salud mental a los moderadores de contenidos. En un estudio de Davenport, B. et al. (2019) publicado en el Journal of Occupational Health Psychology, se descubrió que los moderadores de contenido tenían un mayor riesgo de desarrollar trastorno de estrés postraumático (TEPT) y otros trastornos relacionados con la ansiedad. La exposición constante a imágenes y vídeos angustiosos puede causarles pensamientos intrusivos, pesadillas y angustia emocional, lo que repercute significativamente en su bienestar mental.


Desensibilización y entumecimiento emocional

La exposición repetida a contenidos nocivos puede provocar desensibilización y entumecimiento emocional entre los moderadores de contenidos. En una entrevista con Newton (2019) para The Verge, un exmoderador de contenido mencionó que se habían insensibilizado al contenido gráfico y habían desarrollado un sentido del humor negro como mecanismo de afrontamiento. Este distanciamiento emocional puede contribuir aún más a los problemas de salud mental y afectar negativamente las relaciones personales.


Largas jornadas de trabajo

Los moderadores de contenidos suelen trabajar muchas horas para mantener el volumen de contenidos que deben revisar. En un informe de The Center for Investigative Reporting, Pardes, A. (2020) destaca que los moderadores de contenidos suelen trabajar en turnos que pueden durar hasta 10 horas al día, con pocos descansos. Estas largas jornadas, combinadas con la intensa naturaleza del trabajo, pueden conducir al agotamiento físico y al burnout.

Entorno de trabajo muy estresante. La presión para tomar decisiones rápidas y aplicar con precisión las políticas de la plataforma puede crear un entorno de trabajo de alto estrés para los moderadores de contenidos. En un estudio de Roberts, S. T. (2019) publicado en New Media & Society, se descubrió que los moderadores de contenido a menudo se enfrentan a objetivos de rendimiento y una supervisión estricta, lo que se suma a la naturaleza ya estresante de su trabajo.


Estigma en torno al trabajo

La moderación de contenidos suele ser una profesión infravalorada y estigmatizada. En su artículo para Wired, Chen (2014) explica que los moderadores de contenidos suelen ser trabajadores contratados mal pagados, con seguridad laboral y prestaciones limitadas. La naturaleza de su trabajo también puede conducir al aislamiento y a un sentimiento de vergüenza, ya que pueden ser incapaces o no estar dispuestos a hablar de sus experiencias con amigos y familiares.


Impacto en las relaciones personales

La carga psicológica que supone trabajar en el área de traumatología puede repercutir en la vida personal de los moderadores de contenidos, tensando las relaciones con amigos y familiares. En su artículo para The Guardian, Tufekci (2018) menciona que algunos moderadores de contenido pueden volverse retraídos o irritables, lo que les dificulta mantener relaciones saludables fuera del trabajo.


Estudios de caso y testimonios

Muchos exmoderadores de contenido se han presentado para compartir sus experiencias de trabajo en el piso de trauma. En la investigación de Newton (2019) para The Verge, un moderador explicó que a veces tenían que revisar hasta 200 piezas de contenido gráfico en un solo día, lo que provocaba agotamiento emocional y una sensación de desesperanza. Otro moderador compartió su lucha contra el insomnio, los flashbacks y la ansiedad como resultado de estar constantemente expuesto a contenidos perturbadores.

La angustia emocional y mental que experimentan los moderadores de contenidos puede ser abrumadora. En la entrevista con Pardes (2020) para The Center for Investigative Reporting, un antiguo moderador reveló que desarrolló síntomas de TEPT y luchó contra la depresión debido a la naturaleza de su trabajo. El mismo moderador también mencionó que fue testigo de cómo sus compañeros rompían a llorar o sufrían ataques de pánico mientras trabajaban.

Para muchos moderadores de contenido, los efectos de trabajar en el piso de trauma no terminan cuando dejan el trabajo. En el artículo de Chen (2014) para Wired, un exmoderador compartió sus continuas luchas con pensamientos intrusivos y pesadillas, incluso después de dejar el trabajo. Además, adaptarse a un entorno de trabajo normal puede ser difícil para los antiguos moderadores, ya que el impacto psicológico de su trabajo anterior puede seguir persiguiéndoles.


La respuesta por parte de facebook y las iniciativas para resolverlo


Recursos de salud mental

En respuesta a las crecientes preocupaciones en torno al bienestar de los moderadores de contenido, Facebook ha implementado varias medidas para apoyar su salud mental. Según un post de Facebook Newsroom (2019), la empresa proporciona acceso a consejeros in situ, grupos de apoyo a la salud mental y programas de bienestar. También han establecido un equipo de resiliencia para desarrollar nuevas iniciativas y mejorar los programas de apoyo existentes.


Programas de formación y desarrollo

Facebook ha puesto en marcha programas de formación y desarrollo para equipar mejor a los moderadores de contenidos en la gestión de contenidos angustiosos. La empresa afirma que proporciona entrenamiento y capacitación continuos para ayudar a los moderadores a comprender el contexto del contenido que revisan y tomar decisiones informadas (Facebook Newsroom, 2019). Además, ofrecen apoyo para desarrollar resiliencia y estrategias de afrontamiento para ayudar a los moderadores a gestionar el impacto emocional de su trabajo.

Si bien Facebook ha tomado medidas para abordar los desafíos de salud mental que enfrentan los moderadores de contenido, la efectividad de estas medidas ha sido cuestionada. En el artículo para The Verge, Newton (2019) destaca que, a pesar de estas iniciativas, muchos moderadores de contenidos siguen sufriendo problemas de salud mental. Algunos moderadores han informado que el asesoramiento y el apoyo in situ proporcionados son inadecuados, y a menudo se sienten desalentados a buscar ayuda por temor a ser percibidos como débiles o no aptos para el trabajo.

Los críticos sostienen que las iniciativas de Facebook para apoyar a los moderadores de contenidos no son suficientes. En su artículo para The Guardian, Tufekci (2018) sugiere que la empresa debería ofrecer mejores condiciones de trabajo, salarios más altos y un apoyo más completo en materia de salud mental. Además, expertos como Roberts (2019) abogan por una mayor transparencia en torno a las prácticas de moderación de contenidos, así como una mejor comunicación entre la empresa y sus moderadores, para fomentar un entorno de trabajo más solidario.


Reflexiones del sector del trauma y sus implicaciones

Como hemos visto, la moderación de traumas es un aspecto crítico, aunque a menudo pasado por alto, de las plataformas de medios sociales como Facebook. La carga emocional y mental que la moderación de contenidos supone para los moderadores es un problema acuciante que exige atención. Al arrojar luz sobre los retos a los que se enfrentan estas personas, podemos concientizar y fomentar debates significativos sobre el papel de la moderación de contenidos en nuestra sociedad digital.

Los esfuerzos de Facebook por abordar los problemas de salud mental a los que se enfrentan los moderadores de contenidos, aunque encomiables, aún pueden mejorar. Es fundamental que la empresa y el sector tecnológico en general desarrollen soluciones integrales que den prioridad al bienestar de los moderadores de contenidos y, al mismo tiempo, mantengan un entorno en línea seguro para los usuarios. Esto puede incluir mejores condiciones de trabajo, un mayor apoyo a la salud mental y una mayor transparencia en torno a las prácticas de moderación de contenidos.

Como usuarios de las plataformas de medios sociales, todos tenemos un papel que desempeñar en el fomento de un entorno en línea seguro y positivo. Reflexionando sobre las realidades de la planta del trauma, podemos desarrollar un mayor aprecio por el trabajo esencial realizado por los moderadores de contenidos y reconocer el coste humano oculto detrás de los espacios digitales limpios de los que disfrutamos. Sigamos participando en conversaciones y abogando por soluciones que no solo protejan a los usuarios, sino que también apoyen la salud mental y el bienestar de las personas que trabajan incansablemente entre bastidores.


En conclusión, el trauma floor y su impacto en los moderadores de contenidos es un problema que no podemos seguir ignorando. A medida que dependemos cada vez más de las plataformas de medios sociales para la comunicación, la información y el entretenimiento, es vital que tengamos en cuenta el coste humano de mantener estos espacios digitales. Concienciando y fomentando el debate, podemos trabajar juntos para crear un entorno en línea más justo y solidario para todos.


Escrito por: Juan-Fer Menéndez

░▄▄▄▄░
▀▀▄██►
▀▀███►
░▀███►░█►
▒▄████▀▀




Referencias:


Newton, C. (2019). The Trauma Floor: The Secret Lives of Facebook Moderators in America. The Verge. Retrieved from https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-arizona


Roberts, S. T. (2016). Commercial Content Moderation: Digital Laborers' Dirty Work. In The Intersectional Internet: Race, Sex, Class, and Culture Online (pp. 147-160). Peter Lang Publishing. Retrieved from https://datasociety.net/pubs/ia/Commercial_Content_Moderation.pdf


Chen, A. (2014). The Laborers Who Keep Dick Pics and Beheadings Out of Your Facebook Feed. Wired. Retrieved from https://www.wired.com/2014/10/content-moderation/


Tufekci, Z. (2018). Facebook's Era of Mass Content Moderation. The Guardian. Retrieved from https://www.theguardian.com/commentisfree/2018/apr/17/facebook-era-mass-content-moderation


Davenport, B., Newton, C., & Roberts, S. T. (2019). Content Moderation, AI, and Worker's Rights. Journal of Occupational Health Psychology, 24(6), 665-678.


Pardes, A. (2020). The Human Cost of Keeping Facebook Clean. The Center for Investigative Reporting. Retrieved from https://revealnews.org/article/the-human-cost-of-keeping-facebook-clean/


Facebook Newsroom. (2019). Supporting the People Who Review Facebook Content. Retrieved from https://about.fb.com/news/2019/05/supporting-content-reviewers/

No hay comentarios:

Con la tecnología de Blogger.