Webbookers

Google y YouTube Dirección Moderación de contenido ASOTRAS LOS OTROS OTROS PEQUEÑOS PEQUEÑOS EN LA INDUSTRIA DE REDES SOCIALES: Subcontratando la mayor parte del trabajo.

uno de estos subcontratistas, el estadounidense Empresa Accentures, gestiona el centro de moderación de contenido más grande en los Estados Unidos, Austin, Texas. Cientos de moderadores trabajan en este centro, las 24 horas del día, para limpiar a YouTube de su contenido inapropiado.

Peter es uno de estos moderadores. YouTube lo hace para él y a sus colegas una primera clasificación de contenido problemático. Estos contenidos se colocan en varias «colas» numéricas, clasificadas por temas, a las que los moderadores tienen acceso. YouTube cree que al enfocarse en un tema, los moderadores adquieren una experiencia particular. Hay una cola para cuestiones de derechos de autor, otra para las llamadas al odio y el acoso, otro sigue llamado «adulto» para la pornografía.

que en el que trabaja Peter es lo peor: la cola EV, por el extremismo violento. Contiene el contenido más horrible que debe eliminarse de las plataformas de Google.

Como todos los trabajos de moderador de contenido que involucran la exposición diaria al abuso y la violencia, este trabajo ha tenido consecuencias serias y duraderas en las personas que hacen lo mismo Trabajo como Peter.

En el último año, vio a uno de sus colegios colapso, tan afligido por el contenido de los videos que había visto que tenía que estar ausente durante dos meses sin pagar. Otro colega, socavado por la ansiedad y la depresión causada por su trabajo, tanto negligen su dieta que tenía que ser hospitalizada debido a la deficiencia de vitamina aguda.

Peter está preocupado. Por su salud mental a largo plazo. Desde que trabaja para la cola EV, ha perdido el cabello y se ganó peso. Se ha vuelto más probable y se ha levantado fácilmente. Cuando se ruede en automóvil cerca de su oficina, incluso los días libres, su corazón comienza a palpitar.

«Cada día que ves una decapitación o un tipo que tira de su novia, dice. Después, usted. Di: Wow, ¡el mundo está realmente loco! Te sientes mal. Pierdes tu razón para vivir. Te estás preguntando: ¿Por qué los humanos hacen tanto mal entre ellos? «/ P>

Peter ha estado haciendo este trabajo para Casi dos años, y su familia regularmente le pide que renuncie. Pero tiene miedo de no encontrar un trabajo, así como el pago: US $ 18.50 por hora, o alrededor de US $ 37,000 al año.

TODO LOS DE SUS COLLEGOS EN LA COLA COLA EVIENDA, PETER es un inmigrante. Accenture recluta docenas de arabophones como él. Muchos han crecido en el Medio Oriente, y la compañía necesita sus habilidades lingüísticas. Peter, por ejemplo, habla siete dialectos árabes, un activo para determinar con precisión lo que constituye el odio y la propaganda terrorista en YouTube.

Varios trabajadores que he hablado para convertirse en ciudadanos estadounidenses, una explotación más difícil bajo la administración de Trump. Tienen miedo de complicar aún más su enfoque de inmigración si confiren a un periodista o si critican sus condiciones de trabajo con un supervisor. (Por este motivo, la mayoría de los empleados que testifican en este informe lo hacen bajo un seudónimo).

Peter y los otros moderadores de Austin Sueñan con obtener un día las mismas condiciones de trabajo que las disfrutan a tiempo completo. Empleados de Google que a veces visitan su oficina: un salario más alto, un mejor seguro de salud y más gerentes empáticos para aligerar la carga de su trabajo. » Nous voyons comment les employés de Google se comportent quand ils viennent ici : ils se sentent plus libres que nous «, me dit Peter.

Pendant plusieurs mois, alors que je préparais ce reportage, j’ai pensé como él. Si Google dejó de hacer negocios con subcontratistas como acentuación, si los moderadores eran empleados de tiempo completo de Google, si tocaban el mismo salario que un oficial de policía o bombero, quizás ese fuerte homenaje psicológico. ‘Deben pagar como resultado de Esta exposición constante a escenas de violencia podría ser atenuada.

Fue entonces cuando conocí a un antiguo moderador de contenido de Google. Daisy Soderberg-Rivkin ganó un muy buen salario y disfrutó de excelentes beneficios. Pero ninguno de estos privilegios lo ha protegido del daño que el contenido perturbador que estaba expuesto a cada día lo causaría.

Daisy ha dedicado un año para extirpar las plataformas de Google de imágenes de terrorismo y de abuso en niños. .Sufría hoy ansiedad y frecuentes ataques de pánico. Se esfuerza por interactuar con los niños sin fundirse en lágrimas.

Según el psiquiatra que le importa, es víctima de un síndrome de estrés postraumático.

Daisy Soderberg-Rivkin trabajó como Un asistente legal, en 2015, cuando se dio cuenta de una oferta de trabajo de Google. La redacción del título de empleo utilizó un eufemismo opaco: mudanzas legales asociadas (asociadas con los retiros legales). Dichos eufemismos son una práctica bastante común para todas las pantallas de postes de moderador de contenido.

Daisy ha crecido con los servicios de Google. El único nombre de la compañía evoca para ello un tipo de EDEN, con todos estos pequeños beneficios de alto perfil ofrecidos a los empleados: cafés y cocineros gratis, masajes gratuitos y limpieza. El empleo propuesto está en la oficina central de la compañía, en View Mountain, California. El equipo se moverá un poco más tarde a un escritorio de satélite ubicado cerca, en Sunnyvale. La posición de tiempo completo ofrece la gama completa de beneficios. La compensación básica es de US $ 75,000 al año, que se agrega las acciones de Google, que lleva un total de casi $ 90,000. «Nunca recibiré este trabajo», dijo ella. Todavía se postula.

La oferta de trabajo dijo que el trabajo era procesar aplicaciones legales destinadas a eliminar los enlaces de la investigación de Google debido a los derechos de autor, la difamación o cualquier otro contenido inapropiado.

de acuerdo con La oferta de trabajo, los asociados (como los llamados de Google) tuvieron que mirar los enlaces que contienen imágenes de abuso en niños. «Recuerdo muy bien que, entre paréntesis, se dijo que este tipo de contenido se limitaría a una o dos horas a la semana», dice Daisy.

Limpiar las plataformas de Google requiere la colaboración de varios equipos dentro de la empresa. En su mayor parte, los videos informados como imágenes de terrorismo o explotación de los niños son vistos por subcontratistas como los de Austin. Pero Google también contrata a los empleados a tiempo completo para lidiar con solicitudes legales de organismos públicos o organizaciones gubernamentales, y cuando sea necesario, retirando resultados de búsqueda web, imágenes, videos o enlaces.

Unos meses después de postular, Daisy es contactado por un reclutador. Al final de ocho sets de entrevistas, Google lo hace afortunarse el efecto positivo de que su trabajo tendrá en el mundo. «Usted apoyará la libertad de expresión en línea, se le dice. Ayudará a que Internet sea un lugar más seguro».

«Me sentí como trabajar en Google, era un cabo del defensor de la libertad, un vaso. De la kombucha libre a mano, entre dos siestas en cápsulas ociosas, dijo. De vez en cuando, tendría que ver el contenido problemático. ¿Es que realmente podría ser tan difícil? «

ella le llamó la llamada Madre para decirle que aceptó el trabajo. Eran 23 años.

En octubre de 2019, Google dijo que se eliminaron en 2018, un contenido de extremidades violentos de 160,000 de plataformas como Blogger, Google Fotos. y Google Drive. ¡Alrededor de 438 por día!

Daisy no tuvo antecedentes de problemas de salud mental y no pensó en las consecuencias que el nuevo trabajo podría tener en su psicología Expresar. No más de lo que Google lo hizo, parece. Durante su integración laboral, la compañía no dio capacitación en relación con lo que los trabajadores en este campo llaman por «resiliencia», es decir, el uso de herramientas psicológicas para respaldar la exposición a un alto volumen de textos, imágenes y videos explícitos y perturbadores. .

Como ella es francesa fluida, Daisy se asigna a las solicitudes de Francia. Rápidamente, se convierte en el líder del Programa de Terrorismo de Google para el mercado francés. Todos los días, ordena los informes de su cola y decide si Google está restringido por ley o sus propias condiciones generales de uso, para eliminar estos enlaces.

a su asombro., Su cola comienza a desbordar la violencia. . El 13 de noviembre de 2015, los terroristas que prestaban lealtad al grupo de estado islámico armado (EI) matan a 130 personas y herían 413 otros en París y en sus suburbios de Saint-Denis. La mayoría de las víctimas se cortan durante un tiroteo masivo en medio de un concierto en Bataclan. «Usted pasa todo su día viendo imágenes de cadáveres y heridos en el piso de una sala de rendimiento. Tus neuronas ya no funcionan como deberían. Todo está en ralentí.»

Unos meses más tarde, el 14 de julio de 2016, un ataque en el camión-Ram (reclamado por la IE) hizo 86 muertos y 458 heridos en el Promenade des Anglais, agradable. Enlaces a las fotos y Los videos de este ataque se acumulan en la cola de la margarita. Sus supervisores pusieron presión para que ella trata rápidamente esta acumulación de consultas. La joven teme una mala nota a su archivo si no lo hace, ella intenta trabajar más rápido, pero Casi en la tarea. «Todo lo que ves es el número que sube en tu cola. «

Google ofrece una amplia variedad de servicios de Internet, algunos de los cuales atraen miles de millones de usuarios. Como resultado: la compañía necesita un verdadero ejército de moderadores.

Los contenidos para los usuarios están pidiendo un examen son en su mayoría benignos e incluso bastante aburridos. Los anuncios adversos deben eliminarse de la plataforma de anuncios de anuncios de Google, por ejemplo, o las direcciones falsas profesionales deben eliminarse de Google Maps.

PERO CONTENIDO PERTENIMIENTO Puede terminar donde las políticas de Google permitan a los usuarios subirlos. En octubre de 2019, la compañía dijo que se remitió en 2018 un contenido de extremidades violentos de las plataformas como Blogger, Google Photos y Google Drive. ¡O alrededor de 438 por día!

Incluso en YouTube, una gran parte de los contenidos presentados por los usuarios para su consideración son inocuos. Cuando ‘ningún video está esperando en su archivo, el Los moderadores giran sus pulgares.

Un moderador de modo finlandés (asignado a los contenedores en finlandés) me dijo que hubiera pasado dos meses haciendo algo durante todos sus días de trabajo. A veces examinó uno o dos videos por un cuarto de ocho horas. Pasó sus días paseando por Internet, me dijo, antes de renunciar el mes pasado debido al aburrimiento.

La experiencia de otros moderadores varía mucho según la tarea que se les asigna, donde se basan y Empatía de sus supervisores. Muchos me dijeron que apreciara su trabajo, porque las tareas son simples y los dejan mucho tiempo en el día para relajarse y ver videos. Otros encuentran gratificante la idea de que contribuyen a la limpieza de YouTube y a Google de sus videos violentos y problemáticos.

«En general, los empleados sienten que es un trabajo muy fácil y que n. ‘No tienen ninguna razón para quejarse «Te dijo por correo electrónico un moderador de YouTube en la India, que gana 850 dólares estadounidenses al mes. «Pasamos nuestro tiempo de bienestar jugando sillas musicales, en Picticario, The Barades. ¡Nos divertimos!»

«Placer» no es una palabra utilizada por los moderadores asignados a la cola de terrorismo que era entrevistado.

hablaron bastante hablado de calambres musculares, compulsiones de alimentos y aumento de la pobreza (aumentan los rentas en Austin). Describieron a los supervisores que rechazaron su tiempo de descanso, los despidieron por los futiles pretextos y modificaron sus horas de trabajo sin previo aviso.

Los moderadores más afectados por la violencia expresaron una creciente ansiedad con respecto a las consecuencias para ser testigos diariamente de docenas de asesinatos. Escenas.

«Mentiría si dijera que no me afecta», dice Tariq, quien ha estado trabajando durante 18 meses para la cola EV. «Lo que vemos todos los días, inevitablemente nos cambia».

Cuando termina su turno, Peter intenta relajarse. Con el tiempo, se ha vuelto cada vez más difícil. Las películas de acción que apreciaba en el pasado parece cada vez menos ficticio. Cada disparo, cada muerte, se siente ahora como si fueran reales. «Incluso si sé que es ficción», explica.

Algunos de sus colegas están haciendo consumiendo drogas. Especialmente cannabis.

Dado que Google se ha asociado con Accenture para acelerar el procesamiento de videos de violencia extrema en Texas, Peter ha visto a los colegas se vuelven más y más remotos. «Al principio, todos crecieron con» Salvación, está bien «, recuerda. Todos fueron amables. Ahora nadie quiere hablar con los demás. «

Peter se unió al programa en 2017, el año de su creación. En ese momento, YouTube estaba experimentando mucha presión pública para limpiar su plataforma. Periodistas y académicos estaban investigando el servicio. Habían encontrado Muchos videos que contienen habla de odio, hostigamiento, desinformación errónea de asesinatos en masa y elementos dañinos para los niños.(Se han encontrado el número de estos videos en YouTube Kids, una aplicación que la compañía ha lanzado para guiar a los niños a contenido más seguro).

A raíz de estas encuestas, el Director Ejecutivo de YouTube, Susan Wojcicki , anunció que su compañía aumentaría el número de sus moderadores a 10,000. Lo que fue hecho. Parte de ellos: Google se negó a decir cuánto se contrataron en los Estados Unidos, el grupo más grande se estableció en Austin.

Moderadores de contenido que trabajan para los subcontratistas ganan. Sólo el salario mínimo en los Estados Unidos. En comparación, los moderadores a tiempo completo en Google Pocket, más de US $ 90,000 al año, y esto no incluye bonificaciones y opciones de compra. Trabajadores temporales, contratistas y proveedores de servicios ahora están formando el 54% de la fuerza laboral de la compañía.

Kristie CANEGALLO, vicepresidente de confianza y seguridad de Google, supervisa a miles de moderadores de contenido. Según ella, trabajando con empresas como Accenture Google ayuda a ajustar sus niveles de personal de manera más eficiente. Si Google está desarrollando una nueva herramienta para localizar videos incorrectos, inicialmente necesitará más moderadores para montar el sistema. Pero posteriormente, se necesitarán menos moderadores.

«Hacer negocios con proveedores externos realmente nos ayuda a tener más flexibilidad para adaptarse a la demanda cambiante», dice Kristie Caegallo, quien se ha unido a Google en 2018, después de servir Como gerente gabinete adjunto del presidente de los Estados Unidos, Barack Obama.

El trabajo realizado por subcontratistas (como Accenture, en Austin) es esencial, crucial, incluso para la existencia de YouTube. Muchos países han adoptado leyes que obligan a la compañía a retirarse de su plataforma los videos que contienen imágenes terroristas, a veces en tan solo 24 horas después de la recepción de una denuncia.

Daisy fue preocupado por las imágenes del terrorismo, Pero aún más perturbado por lo que Google llama imágenes de abuso sexual infantil (imágenes de abuso sexual en niños). La oferta de trabajo declaró que estaría expuesto a dicho contenido solamente o dos horas por semana. De hecho, este tipo de contenido representó una proporción mucho mayor de su trabajo.

Ver imágenes son ilegales en la mayoría de los casos. Así que Google ha creado lo que los moderadores han apodado la «sala de guerra», una sala segura donde pueden ver estas imágenes sin riesgo de que los colegas los vean inadvertidamente.

inicialmente, la compañía planificó una rotación del personal. . Daisy, por ejemplo, podría asignarse a este tipo de contenido durante seis semanas, luego regresar durante seis semanas a su trabajo habitual. Pero la escasez crónica del personal, junto con una alta tasa de rotación en los moderadores, ha tenido que ver todas las semanas imágenes de abuso sexual en los niños.

«Empezamos a entender que nuestro problema no fue una prioridad para la empresa, ¿Le dice? Cuando veníamos de nuestras preocupaciones, nos respondieron: «Escucha, simplemente no tenemos el presupuesto». Le mot «budget” revenait souvent. » (Google a déclaré des revenus de 110 milliards de dollars américains en 2018.)

Après un an de ce régime, l’amoureux de Daisy lui fait remarquer que sa personnalité ha cambiado. «Estás muy nervioso, te saltas fácilmente», le dice. Hablas en tu sueño. A veces gritas «.

Las pesadillas de Daisy empeoran. Ella siempre está cansada. Un día, un compañero de cuarto llegó detrás de él lo empuja suavemente. Ella se vuelve instintivamente y lo golpea. «Fue un reflejo», dice ella. Pensé: esa persona quiere lastimarme. Asocio todo lo que me sucedió con lo que vi en los videos «.

A veces, cuando Daisy pensó en su trabajo, se estaba moviendo hacia adelante en un callejón oscuro alineado con las atrocidades que había visto. La peor violencia, los peores abusos de los cuales habían presenciado parecía tomar la forma física y atacarla.

Otro día, Daisy caminando en Las calles de San Francisco con amigos cuando ve a un grupo de niños pequeños en edad preescolar. Acompañados por un educador, vagan en un archivo indio sosteniendo una cuerda, para no alejarse del grupo.

«Tuniné los ojos, y de repente, algunas de las imágenes que había visto en el trabajo regresaron Para mí: los niños adjuntos, los niños de esta edad, no más de tres años, que estaban violando. Vi la cuerda, y mi mente lo asocié con las imágenes que había visto hijos y cuerdas.Y de repente, todo se detuvo. Tuve que sentarme y estallar en lágrimas. «

Fue su primera crisis de pánico.

En las siguientes semanas, Daisy se distingue con sus amigos y compañeros de cuarto. Ella no quiere hablar de su trabajo, por temor a abrumador ellos. Este consiste en eliminar estas imágenes de Internet, precisamente para evitar que atormentan a otras personas. Hablar le parece una traición a su misión.

a esta hora, un terapeuta utilizado por Google está en La disposición de los moderadores expuestos al contenido ilegal. Sin embargo, solo está disponible para intervalos irregulares, y su horario se llena rápidamente. Daisy considera a este terapeuta como cálido y amable, pero es difícil hacer una cita con ella.

«Recibimos un correo electrónico diciendo:» El terapeuta estará aquí hoy «, y tuvimos que responder muy rápidamente porque su horario se llenó de inmediato. Todo el mundo tenía problemas». Cuando Daisy finalmente ganó una cita, la Le aconsejó que consultara a un psicólogo privado.

Daisy se vuelve cada vez más irritable. Ella le pide a sus seres queridos que eviten tocarla. Invitado en el aniversario de un niño de tres años, abandona rápidamente la fiesta. No apoya estar en presencia de niños pequeños. Cada vez que ella los mira, imagina a las personas que las están lastimando.

A medida que su salud mental disminuye, Daisy juega más para cumplir con los requisitos de su trabajo. Grita más y más en el trabajo, a veces al baño, a veces frente al edificio. A veces, ella se duerme dormida en su oficina.

Al final de su primer año, su supervisor le pide verla. Se reúnen en una sala de conferencias. «No vuelves a vaciar rápidamente tu cola», le dijo. Necesitamos que aumente su productividad «.

Daisy está cansada ese día, ella está permanentemente, y estos reproches la enoja. «Exploté», recuerda ella. Ella lanza a su supervisor: «¿Cómo quieres que aumente mi productividad? ¿Tiene alguna idea de cómo se ve mi cerebro en este momento? ¿Entiendes lo que necesitamos para mirar? No somos humanos. Tenemos Emociones. Y estas emociones están seriamente marcadas al observar que los niños se violan y las personas se decapitan «.

A veces, cuando Daisy pensó en su trabajo, se estaba moviendo hacia adelante en un callejón oscuro con las atrocidades que tenía visto. La peor violencia, los peores abusos de los que había presenciado parecía tomar forma física y atacarlo. «Sentí que todo el mal de la humanidad se derramó sobre mí», dijo ella. Y no había manera de escapar. Y allí, alguien me dijo: «Vamos, tienes que regresar a este camino oscuro. Continúa !» «

Unos días después de esta reunión, Daisy anuncia a su supervisor que ella toma la licencia por enfermedad para curar el trauma psicológico debido a su trabajo. Varios otros miembros de su equipo han tomado de la misma manera. Ella piensa Ella está ausente unas semanas, tal vez cuatro. Ella no volverá a Google antes de los seis meses.

Las imágenes de las masacres entran más rápido en las oficinas de Austin de lo que el equipo puede tratar. Incluso con cientos de moderadores Anulando tres turnos, acelera para tratar todos los videos de brutalidad que informan los usuarios de Internet. La cola de EV está dominada por videos de Medio Oriente. Desde 2017, Accenture ha reclutado docenas de moderadores de habla árabe para tratarlos.

Número de estos empleados son inmigrantes recientes que trabajaban anteriormente como guardias de seguridad o conductores de camiones de reparto. A menudo, fue por un amigo que ‘descubrieron el Trabajo moderador.

«Nuestros diplomas no han sido reconocidos cuando emigramos a los Estados Unidos, dijo Michael, empleado del centro de Austin durante dos años. Así que tomamos cualquier trabajo. Necesitábamos ganar nuestras vidas. «

Estos empleados están agradecidos, inicialmente, para trabajar para una gran compañía tecnológica como Google, incluso si, en los hechos, se dirigen a un subcontratista. (Google se ajusta a las líneas de pertenencia de estos moderadores. Incluso si Trabajan para acentuar, tienen direcciones de correo electrónico que terminan con @ google.com.)

«Estaba feliz de finalmente trabajar en una oficina, dile a Peter. Me imaginé mi futura carrera y todas las perspectivas que este trabajo me ofrecería. «

hasta su integración, la naturaleza exacta de su trabajo en la cola EV sigue siendo opaca para los nuevos empleados». No tenía idea de lo que podría representar, recuerda que pedo. No te lo dicen.»

Si dos horas de tiempo de tiempo son ideales, en Austin no es la norma. Cuatro empleados m ‘dijeron que habían sido rechazó su tiempo de descanso cuando la cola fue particularmente larga.

En Accenture, los moderadores deben procesar 120 videos al día, en cinco horas de trabajo. La compañía les da diariamente dos horas de pago por el bienestar y una hora de comida no remunerada al mediodía. (Susan Wojcicki, de YouTube, prometió en 2018 para reducir esta carga a cuatro horas de trabajo, pero la promesa no se materializó . Accenture, de su lado, para imponer cupos de productividad a sus empleados).

Las horas de bienestar deben permitir a los empleados descomprimir: caminar afuera, encuentros con un terapeuta de servicio en la oficina, actividades lúdicas con colegas «. En Primero, estas medidas fueron realmente muy buenas, recuerda. NT Michael. Si vimos un video atroz, podríamos pausar, cerrar nuestra pantalla, ir a caminar … «

Google ofrece a sus moderadores mucho más tiempo de descanso que Facebook, donde los moderadores tienen solo 15 minutos. Una cena de 30 minutos y 9 minutos de buen tiempo. (Facebook estima que al tener en cuenta el tiempo dedicado a la capacitación y el desarrollo profesional, sus moderadores ve videos seis horas al día).

«nosotros están constantemente revisando nuestros programas de bienestar, a fin de crear un entorno que apoye a los empleados «, dijo Accenture. En Austin, nuestros empleados tienen acceso ilimitado a programas de apoyo, que incluye el acceso a un terapeuta a la solicitud y las reuniones de prevención. Se alienta a los empleados a plantear cualquier preocupación por su trabajo a través de estos programas. «

Pero si dos horas de bienestar son ideales, en Austin no es la norma. Cuatro empleados me dijeron que habían sido rechazados su hora de descanso cuando la cola era particularmente larga. Hace seis meses, También tuvieron que descuidar su tiempo de pausa para alcanzar su puntaje, una medida utilizada para calcular cuánto tiempo pasan activamente a los videos. Software. Monitoreo instalado en sus registros de computadora cada minuto de video que miran, con un objetivo de cinco horas. día. El tiempo dedicado a otras tareas, como leer o responder a los correos electrónicos, participar en las reuniones de equipo, no contar en este cálculo. Esta nueva medición a menudo obliga a los empleados a recortar en su tiempo de pausa para alcanzar las cinco horas. Objetivo de visión.

La promesa falsa de los descansos más largos es consistente con la imagen general de sus condiciones de trabajo que pintan modelos. Trabajadores de contenido que trabajan en centros similares en diferentes rincones del mundo.

Cuando los nuevos centros entran en servicio, los supervisores comienzan al reunir a nuevos empleados en torno a su noble misión: hacer que Internet sea más seguro para todos. Al principio, los moderadores disfrutan de las mismas libertades que aquellos que Facebook o los empleados de Google tienen para adquirir: la libertad de ir al baño sin pedir permiso, el de comer en su estación de trabajo, la de determinar cuándo tomar vacaciones

Cuanto más tiempo pase, más subcontratistas como Accenture y Cognizant se eliminan a los empleados estas pocas libertades, a menudo sin explicación. En el centro de Austin, comer en su escritorio estaba prohibido. Los supervisores han comenzado a preguntar a los empleados por qué pasaron tanto tiempo en el baño (mientras que no habían dicho solo seis o siete minutos). Teléfonos celulares: que los empleados podrían mantenerse en su estación de trabajo, a su vez, han sido prohibidos, aparentemente por razones de confidencialidad.

La prohibición de las células ha generado situaciones trágicas de cómic en la oficina Austin. Algunos software de acentuación requiere que los empleados se conecten con la autenticación de dos factores. Esta identificación expira dentro de un cierto tiempo si el empleado no introduce un código enviado a él … en su teléfono celular personal. Los empleados deben correr a su casillero (donde su celular se almacena debido a la prohibición en el área de trabajo), desbloquea la puerta, abre su celular, anote el código y comience en la carrera a su estación de trabajo para ingresar el código antes de que no caduque el código. .

Papel y lápices estando tan prohibidos en el área de trabajo, los empleados que temen que el número de código en su raza loca lo escriba en la palma de su mano antes de cerrar el celular, bloquear el casillero y comenzar a correr.

Dos empleados de Austin me dijeron que se habían negado las vacaciones debido a las líneas de espera demasiado largas para los videos del terrorismo. Otros han sido transferidos a diferentes turnos sin ninguna explicación. Los moderadores de YouTube no han recibido un aumento salarial durante dos años, aunque los alquileres en Austin han estado entre los que han experimentado los aumentos más importantes en el país. (Según Accenture, la gran mayoría de los empleados reciben aumentos de salarios anuales). Pedro me dijo que gastó el 50% de su salario para pagar el alquiler. La vida en Austin es cada vez más cara. Y su salario no sigue.

«Nos tratan muy mal, dice Michael. Tienen tantas maneras de herméis a nosotros mismos si no obedecemos».

cuando ella le legó Google Para dejar sobre la licencia por enfermedad, Daisy fue visto por un psiquiatra y un terapeuta. Diagnóstico? Síndrome de estrés postraumático y ansiedad crónica. Comenzó a tomar antidepresivos.

en terapia, Daisy descubrió que su disminución de la productividad, que frustra a sus supervisores, no fue su culpa. Su terapeuta, que había tratado a otros moderadores de contenido anterior, le explicó que cada persona reacciona de manera diferente a la exposición repetida a imágenes emocionalmente perturbadoras. Algunos comen más y más y ganan peso. Algunos comienzan a hacer ejercicio de una manera compulsiva. Otros, como Daisy, sienten fatiga y agotamiento.

Daisy recuerda que el terapeuta le dijo: «No es su problema, sino el problema de su empleador. Él es el gerente. Él debe crear este trabajo. Él debe Invierta los recursos necesarios para mitigar sus efectos secundarios «.

El terapeuta sugirió a Daisy para ofrecer a un perro. Adoptó a un perro de pastor en la SPCA y llamó Stella.

Stella y Daisy siguieron a un entrenamiento que permitió a la perra ofrecer apoyo emocional a su amante. Stella ha aprendido a reconocer los signos de un ataque de pánico en Daisy y adoptar comportamientos que puedan ayudarlo.

Daisy comenzó a tomar Stella a Benioff Hospital para visitar a los niños enfermos. Con el tiempo, logró interactuar con los niños sin un ataque de pánico provocado. «Ver a los niños acariciando a mi perro ha tenido una profunda influencia en mi capacidad para avanzar en mi relación con ellos», dice.

Daisy está agradecido de haber obtenido la licencia pagada para curar (mientras que algunos subcontratistas No ofrezca). «Tenía meses para pensar en mis elecciones, considera formas de salir de ella, sin más someterse al estrés del desempleo y la presión de preguntarme cómo iba a pagar mi alquiler».

seis meses Después del inicio de su permiso, Daisy regresó al trabajo. A su gran consternación, nada en la actitud de los supervisores había cambiado.

«preguntan, por supuesto. Me dijeron:» ¿Cómo estás? Cómo te sientes ? Iremos lentamente por su regreso «. Pero al final, el objetivo fue el mismo: fue que llegué al nivel requerido de productividad. «

Una semana después de su regreso, toma la decisión de perseguir los estudios del 2do ciclo. Es aceptada en la Escuela de Derecho y de Fletcher Diplomacy , Universidad de Tufts, cerca de Boston, donde recientemente le lanzó su licenciatura en la maestría.

Hoy, es investigadora asociada con el Instituto R Street, un grupo de pensamiento con sede en Washington. Su trabajo se enfoca en los niños. y la tecnología. Se basa en su experiencia laboral en Google para que los legisladores sean conscientes de los problemas de contenido, explotando a los niños y la ley de los niños. Privacidad. «Lo que me pasó alimenta mi deseo de crear cambios», dice.

Durante este tiempo, en Austin, Accenture ha establecido una serie de nuevas medidas, y los empleados dicen que para bromear son sujetos de experimentación «. Solo somos ratas de laboratorio para ellos», dijo Peter. Estaban probando cosas diferentes con nosotros. «

y es bastante cierto, al menos con respecto a un pequeño grupo de proveedores de servicios.

A principios de 2019, Google presentó un informe de búsqueda a la conferencia sobre computación humana y crowdsourcing. Prueba de intervenciones estilísticas Para reducir el impacto emocional de los trabajadores de moderación de contenido (pruebas de intervenciones estilísticas para reducir las consecuencias emocionales para los moderadores de contenido), este informe describió dos experimentos realizados por la Compañía en sus moderadores.

como parte de la Primera experiencia, los videos al contenido perturbador vistos por los empleados se presentan en blanco y negro en lugar de estar en color.En la segunda experiencia, las imágenes de video están borrosas. ¿Cómo pueden las imágenes reducir el impacto psicológico en los moderadores? Solicitar investigadores.

«Nuestra responsabilidad y compromiso con los miembros de nuestros equipos que ven este contenido son ofrecerles el mejor apoyo posible para que puedan lograr su trabajo, me explicen Kristie CANEGALLO. Lo que Google descubrirá Para mejorar las condiciones de trabajo, tiene la intención de comunicarlo a toda la industria «.

La herramienta digital que transforma las imágenes en blanco y negro está disponible para los moderadores (voluntarios que han elegido participar en este estudio). Los participantes observaron dos semanas en las imágenes en color y luego respondieron a un cuestionario con respecto a su estado de ánimo. Las siguientes dos semanas, se ven imágenes en blanco y negro, utilizando la herramienta digital para este propósito, y aún responden a un cuestionario.

El estudio muestra que cuando los moderadores se ven imágenes en blanco y negro, Su estado de ánimo es mejor. Al menos, esa semana.

Se debe notar lo que la compañía no prueba: ¿Cuál es el límite del volumen del contenido perturbador al que se puede exponer cada moderador durante una vida? ¿Debemos considerar la licencia por enfermedad pagada para los moderadores de víctimas del síndrome de estrés postraumático? O, ¿por qué no ofrecer apoyo a largo plazo a los ex empleados que continúan sufriendo bien los problemas de salud mental después de dejar sus deberes?

Tal vez nosotros Nunca podrá determinar con tal precisión, un nivel seguro de exposición a contenidos perturbadores. Pero es notable que ninguno de los gigantes tecnológicos, que reclute decenas de miles de personas para que vea estos contenidos, no intente determinar un nivel tan seguro.

En su lugar, Google hace lo que las compañías tecnológicas a menudo hacen: busca resolver el problema aplicando soluciones tecnológicas.

La compañía coloca en particular. Sistemas de aprendizaje automático que, esperanza, algún día Ser tratado con la mayor parte del contenido perturbador.

Para entonces, Google sugirió que los estudios futuros están interesados en los efectos psicológicos que podrían tener un cambio en el color de la sangre, rojo a verde. Otros «cambios estéticos» y más imágenes: las caras, por ejemplo, también se prevén. (Facebook ya ofrece la opción de imagen en blanco y negro a todos sus moderadores, además de la opción de visualización silenciosa.)

Las empresas han sabido por mucho tiempo que los empleados se despiden de la enfermedad para administrar los traumas relacionados con su uso. Es sorprendente que una compañía con vastos recursos como Google está comenzando a buscar, casi por diletante, soluciones tecnológicas menores a problemas tan graves como diagnósticos de síndrome de estrés postraumático, años después de que los empleados hayan comenzado a informarlos a sus gerentes.

La industria de moderación de contenido ha estado creciendo rápidamente durante dos años. A medida que los gobiernos en todas partes requieren que los gigantes de las redes sociales gobiernan mejor sus servicios, la necesidad de moderadores parece crecer exponencialmente. Decenas de miles de personas están trabajando actualmente en este sector.

Pero, todavía no sabemos cómo los aspectos más difíciles de este trabajo: observar los contenidos perturbadores para eliminarlos de Internet: afectan a los que lo hacen . Sabemos que un subgrupo de personas, aquellos que trabajan para eliminar videos violentos del extremismo de YouTube o tareas similares en otras partes del mundo, sufrirán de síndrome de estrés postraumático o problemas de salud mental relacionados. A este trabajo. No sabemos qué podría ser un nivel seguro de exposición. Tampoco, aunque ese umbral existe.

Los líderes de las empresas en cuestión tienden a describir el problema como un problema de reclutamiento. En sus ojos, hay personas que son resistentes ante tales imágenes de violencia y abuso, y otros que no lo son. Sería suficiente contratar a los que son más resistentes.

Sin embargo, durante mis conversaciones con más de cien moderadores, trabajando en empresas de todos los tamaños, me pareció claro que la seguridad de los moderadores es No es una pregunta tan simple. Algunos empleados tienen síntomas tempranos de estrés postraumático de sus primeras semanas de trabajo. Otros los ven emerger solo después de años.

No puedo decirle más claramente que los investigadores de Google: «Existe una conciencia y reconocimiento cada vez mayor que más allá de los inconvenientes simples, la visualización o intensión a largo plazo, los contenidos perturbadores pueden tener consecuencias considerables para la salud de la salud de aquellos que participan en esta tarea «.

en Facebook y Google, los líderes continúan disuadiendo a los moderadores de contenido a hablar sobre las consecuencias de su trabajo. Se les recuerda que pueden reemplazarse fácilmente y haber firmado acuerdos de confidencialidad. Aquellos de ellos que se hunden en ansiedad y depresión, recibirán un cuidado muy diferente dependiendo de si trabajan para subcontratistas o son empleados permanentes de uno u otro de los gigantes tecnológicos.

un poco de suerte, como Daisy, será Titulado a los meses de licencia pagados. Otros, como uno de mis entrevistados de Austin, continuarán trabajando hasta que estén hospitalizados. Un hecho sigue siendo indiscutible: independientemente de su nivel de salario o la calidad de los beneficios que disfruta, este trabajo de moderación lo cambiará para siempre.

Desde diciembre de 2019, las órdenes de acentuación de sus empleados que moderan los contenidos de YouTube firmarán un Declaración que reconoce que su trabajo puede llevar al síndrome de estrés postraumático. Los expertos en derecho laboral lo ven una maniobra de la compañía para proteger contra el posible uso legal.

Recientemente, un empleado de una gran sociedad tecnológica me explicó el concepto legal de «ofensa tóxica». En los Estados Unidos, las leyes permiten a las personas atacar a los empleadores y fabricantes de bienes raíces que los han expuesto a niveles peligrosos de un producto químico.

Si se pueden aplicar dichas leyes, esto se debe a que la ciencia nos ha revelado cómo algunos químicos Afecta al cuerpo humano. Sabemos que la exposición a la pintura basada en plomo, por ejemplo, puede causar daño cerebral, especialmente en niños. También sabemos que la exposición al asbesto puede causar cáncer de pulmón. Hemos establecido niveles seguros de exposición y estamos tratando de obligar a los empleadores y los constructores a respetar estos niveles.

Tal vez nunca podemos determinar con tal precisión un nivel de exposición segura. A los contenidos perturbadores. Pero es notable que ninguno de los gigantes tecnológicos, que reclute decenas de miles de personas para ver estos contenidos, intentará determinar un nivel tan seguro.

Si se produce tal cambio de enfoque, sin duda, Estar siguiendo una combinación de remedios de clase en la corte, acciones colectivas de los trabajadores y presiones populares. Los empleados de Google ya son líderes en los derechos de sus colegas que trabajan para los subcontratistas, y espero que continúen sus esfuerzos.

Dos años después de salir de Google, Daisy aún debe componer con los efectos secundarios del trabajo que hizo . Ella toma antidepresivos para estabilizar el estado de ánimo y aún ocasionalmente los ataques de pánico. Pero ella considera su suerte. Tenía derecho a una licencia médica pagada para cuidar su salud. Y para eso, está agradecido.

«Necesitamos que las personas hagan este trabajo de limpieza, dice Daisy. Pero también debemos cambiar la estructura del sistema y la organización de este trabajo. Debemos mejorar la forma en que apoyamos estos Las personas y las herramientas que les damos a enfrentar las dificultades. Si no hacemos nada, estos problemas empeorarán «.

La versión original de este artículo ha sido publicada por el Verge, 16 de diciembre de 2019.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *