Moderador de Facebook: ‘Cada día fue una pesadilla’ – PanaTimes


Un moderador de Facebook ha presentado por primera vez pruebas que revelan el costo mental del trabajo ante un comité parlamentario.

El parlamento irlandés escuchó cómo los moderadores veían el contenido gráfico hasta ocho horas al día.

El bufete de abogados Foxglove y el Sindicato de Trabajadores de la Comunicación, en representación de los moderadores, pidieron un mejor apoyo psicológico y libertad para expresarse.

Facebook dijo que brinda soporte al personal las 24 horas.

Isabella Plunkett ha trabajado como Facebook moderador de contenido durante poco más de dos años, y todavía trabaja allí.

Su trabajo es revisar las publicaciones en la plataforma, que pueden contener violencia gráfica, explotación, extremismo, abuso y suicidio.

La joven de 26 años dice que no pudo hablar con sus amigos o familiares sobre las cosas que vio en el trabajo debido a un acuerdo de confidencialidad (NDA) que había firmado al comienzo de su contrato.

Los miembros del Comité Mixto de Empresa, Comercio y Empleo de Irlanda elogiaron su valentía al hablar.

Isabella Plunkett da testimonio en el comité irlandés
Isabella también habló con la BBC.

“Estoy aquí hablando y en realidad no sé necesariamente en detalle lo que legalmente puedo decir y no decir”, dijo.

“Siempre estuvo claro que no podíamos hablar de nuestro trabajo, no podíamos hablar de nuestro trabajo con amigos, familiares … y definitivamente es un lugar de trabajo con un sentido de secreto”.

Facebook dijo a la BBC que las NDA son una práctica estándar y que los revisores pueden discutir cualquier aspecto de su trabajo con médicos y consejeros.

El personal puede discutir los desafíos generales y las recompensas de su trabajo con familiares y seres queridos, pero no detalles específicos del contenido que están revisando.

Salud mental

“He hecho el trabajo durante dos años y no creo que pueda hacerlo por mucho más tiempo debido a la tensión que causa en su salud mental”, dijo Isabella a la BBC.

“No es como un trabajo normal en el que puedes ir a trabajar y volver a casa y olvidarte de eso; las cosas que estás viendo están realmente arraigadas en tu mente”.

Isabella procesa alrededor de 100 “tickets” al día, que pueden ser videos, imágenes o publicaciones de texto en la plataforma. Dijo que a menudo contienen violencia gráfica, suicidio, explotación y abuso.

Ella trabaja para Covalen, uno de Facebookcontratistas más grandes de Irlanda.

Isabella afirma que no se le permitió trabajar desde casa, a diferencia de sus contrapartes que fueron empleadas directamente por Facebook que hizo el mismo trabajo.

Como resultado, dice que está expuesta a más contenido gráfico, porque está en la oficina.

‘Una pesadilla’

“Las colas de alta prioridad, la violencia gráfica, las cosas de los niños, la explotación y los suicidios, las personas que trabajan desde casa no entienden eso, la carga recae sobre nosotros”.

A pesar de tener protección familiar en casa, le dijeron que fuera a la oficina y desarrolló ansiedad, por lo que ahora toma antidepresivos.

“Cada día fue una pesadilla”, dijo, y agregó que el apoyo brindado fue “insuficiente”.

Facebook dice que la ayuda psicológica está disponible para todos sus moderadores las 24 horas del día, pero Isabella afirma que sus entrenadores de bienestar no son psiquiatras calificados.

“Estaba viendo al equipo de bienestar pero no sentí que tuviera el apoyo que necesitaba. No puedo decir que salí del trabajo sintiéndome aliviada o sabiendo que podía irme a casa y dormir bien por la noche, eso no es posible ”, agregó.

“Me seguiría a casa. Podría estar viendo la televisión en casa y pensar en una de esas entradas horribles y realmente gráficas “.

El personal subcontratado recibe 1,5 horas de tiempo de “bienestar” a la semana, dice, que puede usarse para hablar con un entrenador de bienestar, salir a caminar o tomarse un tiempo cuando se siente abrumado.

“No es suficiente. Ahora veo el contenido que veo en el trabajo en mis sueños. Lo recuerdo, lo vuelvo a experimentar y es horrible.

“Nunca se sabe lo que vendrá después y hay que vigilarlo de principio a fin porque es posible que haya infractores”.

Descargo de responsabilidad de PTSD

Algunos Facebook Se les pide a los moderadores que firmen un descargo de responsabilidad antes de comenzar a trabajar, aceptando que el contenido visto en sus trabajos podría conducir a una mala salud mental y PTSD (trastorno de estrés postraumático).

Un ejemplo del contrato, leído en voz alta en el comité, decía: “Entiendo que la exposición a este contenido puede provocarme un trastorno de estrés postraumático.

“Participaré en una sesión de entrenamiento de bienestar obligatoria, pero entiendo que esas no son condiciones y pueden no ser suficientes para prevenir que contraiga TEPT”.

A Facebook la portavoz dijo: “Todos los que revisan el contenido de Facebook pasa por un programa de formación en profundidad sobre FacebookEstándares Comunitarios y tiene acceso a apoyo psicológico para asegurar su bienestar.

“Estamos comprometidos a trabajar con nuestros socios para brindar apoyo a nuestros revisores de contenido, ya que reconocemos que revisar ciertos tipos de contenido a veces puede ser difícil”, agregó.

“En Irlanda, esto incluye soporte in situ 24 horas al día, 7 días a la semana con profesionales capacitados, un servicio de guardia y acceso a atención médica privada desde el primer día de empleo.

“También estamos empleando soluciones técnicas para limitar su exposición a material potencialmente gráfico tanto como sea posible. Este es un tema importante y estamos comprometidos a hacerlo bien”.

Soluciones tecnicas

Facebook utiliza una combinación de algoritmos de aprendizaje automático y moderadores humanos para revisar el contenido.

En el futuro, espera reducir la cantidad de moderadores humanos a través del aprendizaje automático.

Pero Isabella dijo que esto era un Facebook “fantasía”, que los sistemas “ni siquiera estaban cerca de esa etapa”.

En declaraciones al comité, Isabella dijo que “la gente está intimidada” por el proceso de NDA y tiene miedo de perder sus trabajos.

Ella citó una plataforma de comunicaciones internas en Facebook, en el que se eliminaron las publicaciones de los trabajadores al hablar. Facebook negó estos reclamos y dijo que no se toman medidas disciplinarias para los empleados que plantean inquietudes.

“La gente se quejó del tratamiento, de lo que estaba pasando y de cómo se sentían inseguras”, dijo Isabella al comité. “Estaba claro que estaba siendo censurado porque se borraban los comentarios de las personas, se deshabilitaban las cuentas”.

Dijo que su experiencia la llevó a declarar: “Tenía la sensación de que tenía que hacerlo”, agregó en su testimonio. “Necesito hablar en nombre de las personas que tienen demasiado miedo, que sienten que tienen demasiadas responsabilidades y que no pueden permitirse correr riesgos”.

Conoce personas que opinan Facebookcontenido informado


.



Source link