Webbookers (Português)

Moderação de conteúdo do Google e YouTube Endereço, como fazem todos os outros pesos pesados na indústria de redes sociais: subcontratando a maior parte do trabalho.

Um desses subcontratados, o americano A Companhia Accentures, gerencia o maior centro de moderação de conteúdo nos Estados Unidos, Austin, Texas. Centenas de moderadores trabalham neste centro, 24 horas por dia, para limpar o YouTube de seu conteúdo inadequado.

Pedro é um desses moderadores. O YouTube faz para ele e seus colegas uma primeira classificação de conteúdo problemático. Esses conteúdos são colocados em várias “filas” numéricas, classificadas por temas, às quais os moderadores têm acesso. O YouTube acredita que, concentrando-se em um tema, os moderadores adquirem especialização específica. Há uma fila para questões de direitos autorais, outra para pedidos de ódio e assédio, outro ainda chamado de “adulto” para pornografia.

Em que Peter Works é o pior: a fila EV, para o extremismo violento. Ele contém o conteúdo mais horrível que precisa ser removido das plataformas do Google.

Como todos os trabalhos do moderador de conteúdo que envolvem a exposição diária ao abuso e violência, este trabalho teve consequências sérias e duradouras em pessoas que fazem o mesmo Trabalho como Pedro.

No ano passado, ele viu um de suas faculdades colapso, tão afligido pelo conteúdo dos vídeos que ele tinha visto que ele tinha que estar ausente por dois meses sem pagamento. Outro colega, minado por ansiedade e depressão causada por seu trabalho, tanto negligse sua dieta que tinha que ser hospitalizada por causa da deficiência de vitamina aguda.

Pedro está preocupado. Por sua saúde mental a longo prazo. Desde que trabalham para a fila EV, ele perdeu o cabelo e ganhou peso. Tornou-se mais provável e facilmente se levanta. Quando ele rola de carro perto de seu escritório, mesmo nos dias de folga, seu coração começa a palpitar.

“todos os dias você vê uma decapitação ou cara que puxa sua namorada, diz-ele. Depois, você Diga: Uau, o mundo é realmente louco! Você se sente mal. Você perde o seu motivo para morar. Você está se perguntando: Por que os seres humanos fazem tanto mal entre eles? “/ P>

Peter tem feito este trabalho para Quase dois anos, e sua família faz regularmente que ele renunciasse. Mas tem medo de não encontrar um emprego, bem como pago: US $ 18,50 por hora, ou cerca de US $ 37.000 por ano.

Apenas como muitos de seus colegas na fila EV esperando, Peter é um imigrante. Accenture recruta dezenas de Arabofones como ele. Muitos cresceram no Oriente Médio e a empresa precisa de suas habilidades lingüísticas. Peter, por exemplo, fala sete dialetos árabes, um ativo para determinar com precisão o que constitui a propaganda do ódio e terrorista no YouTube.

Vários trabalhadores que eu falei para me tornar cidadãos americanos, uma exploração mais difícil sob a administração Trump. Eles têm medo de complicar ainda mais sua abordagem de imigração se confactarem para um jornalista ou se eles criticam suas condições de trabalho com um supervisor. (Por esta razão, a maioria dos funcionários que testemunham neste relatório faz isso sob um pseudônimo.)

Pedro e outros moderadores do sonho de Austin de obter um dia as mesmas condições de trabalho que as pessoas aproveitam Os funcionários do Google que às vezes visitam seu escritório: um salário mais alto, um melhor seguro de saúde e mais gerentes empáticos para aliviar o fardo de seu trabalho. “Nós vemos como os funcionários do Google se comportam quando vêm aqui: eles se sentem mais livres do que nós”, diz-me Peter.

Por vários meses, enquanto eu estava preparando este relatório, pensei como ele. Se o Google deixasse de fazer negócios com subcontratados como Accenture, se os moderadores fossem funcionários em tempo integral do Google, se tocaram o mesmo salário como policial ou bombeiro, talvez que o tributo psicológico pesado. ‘Eles devem pagar como resultado de Essa constante exposição a cenas de violência poderia ser atenuada.

Foi então que conheci um antigo moderador de conteúdo do Google. Daisy Soderberg-Rivkin ganhou um salário muito bom e desfrutou de excelentes benefícios. Mas nenhum desses privilégios o protegeu do dano que o conteúdo perturbador que foi exposto a cada dia faria dele.

Daisy dedicou um ano para extirpatar as plataformas do Google de imagens do terrorismo e do abuso em crianças .Sofre hoje ansiedade e freqüentes ataques de pânico. Ele se esforça para interagir com as crianças sem derreter em lágrimas.

De acordo com o psiquiatra quem se importa, ela é vítima de uma síndrome de estresse pós-traumático.

Daisy Soderberg-Rivkin Trabalhou como Um assistente jurídico, em 2015, quando se tornou consciente de uma oferta de emprego no Google. A redacção do título de emprego utilizou um eufemismo opaco: remoções legais associadas (associadas a retiradas legais). Tais eufemismos são uma prática bastante comum para todos os monitores de post de moderador de conteúdo.

Daisy cresceu com os serviços do Google. O único nome da empresa evoca para ele uma espécie de Éden, com todos esses pequenos benefícios de alto perfil oferecidos aos funcionários: cafés e cozinheiros livres, massagens livres e limpeza. O emprego proposto está na sede da empresa, na vista da montanha, na Califórnia. A equipe se moverá um pouco mais tarde para um balcão de satélite localizado nas proximidades, em Sunnyvale. A posição em tempo integral oferece toda a gama de benefícios. A compensação básica é de US $ 75.000 por ano, que é adicionada ações do Google, que usa um total de quase US $ 90.000. “Eu nunca vou conseguir este trabalho”, disse ela. Ainda postulados.

A oferta de trabalho disse que o trabalho era para processar aplicações legais que visam remover os links de pesquisa do Google devido a direitos autorais, difamação ou qualquer outro conteúdo impróprio.

De acordo com A oferta de emprego, os associados (como o Google os chama) teve que olhar para links contendo imagens de abuso em crianças. “Eu me lembro muito bem que, entre parênteses, dizia-se que este tipo de conteúdo seria limitado a uma ou duas horas por semana”, diz Daisy.

plataformas da Clean Google requer a colaboração de várias equipes dentro a empresa. Na maior parte, os vídeos relatados como contendo imagens de terrorismo ou exploração infantil são vistos por subcontratados como os de Austin. Mas o Google também contrata funcionários em tempo integral para lidar com os pedidos legais de entidades públicas ou organizações governamentais e, se necessário, a retirada de pesquisa na web resultados, imagens, vídeos ou links.

Alguns meses depois de postular, Daisy é contatado por um recrutador. No final de oito conjuntos de entrevistas, o Google faz com que ele apareça o efeito positivo que seu trabalho terá no mundo. “Você vai apoiar a liberdade de expressão on-line, ela é contada. Você vai ajudar a tornar a internet um lugar mais seguro.”

“Eu senti como trabalhar no Google, Era uma capa do defensor da liberdade, um copo de kombucha livre à mão, entre dois cochilos em cápsulas ociosas, disse ela. de tempos em tempos, eu teria que ver conteúdo problemático. é que ele poderia realmente ser tão difícil? “

ela telefonou para ela Mãe para dizer a ela que ela aceitou o trabalho. Ele tinha 23 anos.

Em Outubro de 2019, o Google disse que eles removido em 2018 alguns 160.000 conteúdo extremismo violento de plataformas como o Blogger, Google Fotos e Google Drive. Sobre 438 por dia!

Daisy não tinha histórico de problemas de saúde mental e não pensar nas conseqüências novo trabalho poderia ter sobre seu psicológico Estado. Não mais do que o Google fez isso, parece. Durante a sua integração no emprego, a empresa não deu nenhuma formação em conexão com o que os trabalhadores nesta chamada campo de “resiliência”, ou seja, o uso de ferramentas psicológicas para suportar a exposição a um grande volume de textos, imagens e vídeos explícitos e perturbador .

Como ela é francesa fluente, Daisy é alocada para solicitações da França. Rapidamente, torna-se o líder do programa de terrorismo do Google para o mercado francês. Todos os dias, ele classifica os relatos de sua fila e decide se o Google é limitado – por lei ou suas próprias condições gerais de uso -.. Para eliminar esses links

para seu espanto, sua fila começa a violência estouro . Em 13 de novembro de 2015, os terroristas que emprestou lealdade ao grupo islâmico armado (EI) matar 130 pessoas e ferir 413 outros em Paris e em seus subúrbios de Saint-Denis. A maioria das vítimas é cortada durante um tiroteio em massa no meio de um concerto em Bataclan. “Você passa o seu dia inteiro assistindo imagens de cadáveres e feridos no chão de uma sala de desempenho. Seus neurônios não funcionam mais como deveriam. Tudo está lento.”

Alguns meses depois, em 14 de julho de 2016, um ataque no caminhão-ram (reivindicado pelo EI) fez 86 mortos e 458 feridos no Promenade des Anglais, nice. Links para fotos e Vídeos deste ataque empilha na fila da Margarida. Seus supervisores pressionam para que ela rapidamente trate esse acúmulo de consultas. A jovem teme uma nota ruim para o arquivo se ela não não obedeça. Ela tenta trabalhar mais rápido, mas Dificilmente na tarefa. “Tudo o que você vê é o número que sobe na sua fila. “

O Google oferece uma ampla variedade de serviços de Internet, alguns dos quais atraem bilhões de usuários. Como resultado: a empresa precisa de um verdadeiro exército de moderadores.

O conteúdo para o qual os usuários estão pedindo um exame são principalmente benignos e até bastante chato. Os anúncios adversos devem ser removidos da plataforma de anúncios do Google Ads, por exemplo, ou endereços profissionais falsos devem ser removidos do Google Maps.

Mas conteúdo perturbador pode acabar onde quer que as políticas do Google permitirem que os usuários enviá-los. Em outubro de 2019, a Companhia disse em 2018 cerca de 160.000 conteúdo de extremismo violento de plataformas como o Blogger, o Google Fotos e o Google Drive. Ou cerca de 438 por dia!

Mesmo no YouTube, uma grande parte do conteúdo submetido pelos usuários para consideração é inócuo. Quando “nenhum vídeo está esperando em seu arquivo, o Os moderadores giram os polegares.

Um moderador de modo finlandês (alocado para os contêineres no finlandês) me disse para ter passado dois meses fazendo qualquer coisa durante todos os seus dias de trabalho. Às vezes ela examinou um ou dois vídeos por um quarto das oito horas. Ela passou os dias passeando na internet, ela me disse, antes de renunciar no mês passado por causa do tédio.

A experiência de outros moderadores varia muito, dependendo da tarefa que os deles atribuíam a eles, onde são baseados e empatia de seus supervisores. Muitos me disseram para apreciar seu trabalho, porque as tarefas são simples e deixam-lhes muito tempo no dia para relaxar e assistir a vídeos. Outros acham recompensando a ideia de que eles contribuem para limpar o YouTube e o Google de seus vídeos violentos e problemáticos.

“Em geral, os funcionários sentem que é um trabalho muito fácil e que eles não têm motivos para reclamar “, disse você por e-mail um moderador do YouTube na Índia, que ganha 850 dólares americanos por mês. “Passamos nosso tempo de bem-estar jogando cadeiras musicais, no ficheiro de pictário, nos charades. Nós nos divertimos!”

“prazer” não é uma palavra usada pelos moderadores que eu era Entrevistados.

Eles falavam antes de falar sobre cãibras musculares, compulsões de alimentos e aumento da pobreza (aumento dos aluguéis em Austin). Eles descreveram os supervisores que recusaram seu tempo de intervalo, descartou-os por pretextos fúteis e modificaram suas horas de trabalho sem aviso.

Os moderadores mais afetados pela violência expressaram uma crescente ansiedade em relação às conseqüências para ser testemunhas diariamente de dezenas de assassinato Cenas.

“Eu mentiria se eu disse que isso não me afeta”, diz Tariq, que trabalha há 18 meses para a fila EV. “O que vemos todos os dias, inevitavelmente nos muda.”

Quando seu turno termina, Peter tenta relaxar. Com o tempo, tornou-se cada vez mais difícil. Os filmes de ação que ele apreciou no passado parece menos e menos fictício. Cada tiro, toda morte, ele sente agora como se fossem reais. “Mesmo se eu soubesse que é ficção”, explica ele.

Alguns de seus colegas estão fazendo consumindo drogas. Especialmente cannabis.

Como o Google associou ao Accenture para acelerar o processamento de vídeos de violência extremos no Texas, Peter viu colegas se tornarem mais e mais remotas. “No começo, todos cresceram com” salvação, tudo bem “, ele se lembra. Todo mundo foi amigável. Agora ninguém quer falar com os outros. “

Peter juntou-se ao programa em 2017, o ano de sua criação. Naquela época, o YouTube estava experimentando muita pressão pública para limpar sua plataforma. Jornalistas e acadêmicos estavam investigando o serviço. Eles haviam encontrado Muitos vídeos contendo discurso de ódio, assédio, desinformação em assassinatos em massa e elementos prejudiciais para crianças.(Número desses vídeos foram encontrados no YouTube Kids, uma aplicação que a empresa lançou para orientar as crianças para conteúdo mais seguro.)

Na sequência dessas pesquisas, o diretor executivo do YouTube, Susan Wojcicki anunciou que sua empresa aumentaria o número de seus moderadores em 10.000. O que foi feito. Parte deles – o Google se recusou a dizer quanto – foram contratados nos Estados Unidos, sendo o maior grupo estabelecido em Austin.

Conteúdo Moderadores que trabalham para subcontratantes vitória. Apenas o salário mínimo nos Estados Unidos. Em comparação, moderadores em tempo integral no Google Bolso mais de US $ 90.000 por ano, e isso não inclui bônus e opções de compra. Trabalhadores temporários, empreiteiros e prestadores de serviços estão agora formando 54% da força de trabalho da empresa.

Kristie Canegallo, vice-presidente de confiança e segurança do Google, supervisiona milhares de moderadores de conteúdo. Segundo ela, trabalhando com empresas como a Accenture Google ajuda a ajustar seus níveis de pessoal com mais eficiência. Se o Google estiver desenvolvendo uma nova ferramenta para localizar vídeos ruins, ele precisará inicialmente mais moderadores para montar o sistema. Mas, posteriormente, menos moderadores serão necessários.

“Os negócios com fornecedores externos realmente nos ajudam a ter mais flexibilidade para se ajustar à demanda alterada”, diz Kristie Canegallo, que se juntou ao Google em 2018, depois de servir Como um gerente de gabinete vice do presidente dos EUA Barack Obama.

O trabalho feito por subcontratantes (como acentuação, em Austin) é essencial – crucial mesmo – para a existência do YouTube. Muitos países adotaram leis que forçam a empresa a retirar-se de sua plataforma os vídeos contendo imagens terroristas, às vezes até 24 horas após o recebimento de uma denúncia.

Daisy foi perturbada pelas imagens do terrorismo, Mas ainda mais perturbado com o que Google chama de imagens de abuso sexual infantil (imagens de abuso sexual em crianças). A oferta de emprego afirmou que seria exposta a tal conteúdo apenas ou duas horas por semana. Na verdade, esse tipo de conteúdo representou uma parcela muito maior do seu trabalho.

Ver tais imagens é ilegal na maioria dos casos. Assim, o Google criou o que os moderadores têm apelidado da “sala de guerra”, uma sala segura onde eles podem olhar para essas imagens sem risco que os colegas os vêem inadvertidamente.

Inicialmente, a empresa planejou uma rotação do pessoal . Daisy, por exemplo, pode ser atribuído a esse tipo de conteúdo por seis semanas, depois retorne por seis semanas ao seu trabalho habitual. Mas a escassez de pessoal crônica, juntamente com uma alta taxa de rotatividade em moderadores, tiveram que ver todas as imagens de semana de abuso sexual em crianças.

“Começamos a entender que nosso problema não era uma prioridade para a empresa, Diga. Quando víestimos de nossas preocupações, fomos respondidos: “Ouça, simplesmente não temos o orçamento”. A palavra “orçamento” muitas vezes retornou. “O Google disse que US $ 110 bilhões em 2018.)

Após um ano desta dieta, o amante da Margarida aponta que sua personalidade mudou. “Você está muito nervoso, você pula facilmente”, ele diz a ele. Você fala em seu sono. Às vezes você grita. “

Os pesadelos de Daisy pioram. Ela está sempre cansada. Um dia, um colega de quarto chegou atrás dele empurrá-lo suavemente. Ela se vira instintivamente e atinge isso. “Foi um reflexo”, diz ela. Eu pensei: essa pessoa quer me machucar. Eu associo tudo o que aconteceu com o que vi nos vídeos. “

Às vezes, quando Daisy pensou em seu trabalho, ela estava avançada em um beco escuro forrado com as atrocidades que ela vira. A pior violência, os piores abusos dos quais testemunhou parecia assumir forma física e atacá-lo.

Outro dia, Daisy andando As ruas de São Francisco com amigos quando vê um grupo de crianças pré-escolares. Acompanhado por um educador, eles vagam no arquivo indiano segurando uma corda, de modo a não se afastar do grupo.

“Eu clinked olhos, e de repente, algumas das imagens que eu tinha visto no trabalho retornado no trabalho Para mim: crianças anexadas, filhos desta idade – não mais de três anos – que estavam violando. Eu vi a corda, e minha mente associei-lhe com as imagens que tinha visto filhos e cordas.E de repente, tudo parou. Eu tive que me sentar e explodir em lágrimas. “

Foi sua primeira crise de pânico.

Nas semanas seguintes, Daisy é distinguida com seus amigos e colegas de quarto. Ela não quer falar sobre seu trabalho, por medo de esmagador eles. Este consiste em remover essas imagens da Internet, precisamente para impedi-los de atormentar outras pessoas. Falar parece-lhe uma traição de sua missão.

Para desta vez, um terapeuta usado pelo Google é em A eliminação dos moderadores expostos a conteúdo ilegal. No entanto, está disponível apenas para intervalos irregulares, e sua programação enche rapidamente. Daisy considera este terapeuta como quente e amigável, mas é difícil fazer uma consulta com ela.

“Recebemos um email dizendo:” O terapeuta estará aqui hoje “, e você teve que responder muito rapidamente porque sua agenda cheia imediatamente. Todo o mundo tinha problemas.” Quando Daisy finalmente ganhou uma consulta, Aconselhou-o a consultar um psicólogo privado.

Daisy torna-se cada vez mais irritado. Ela pergunta a seus entes queridos para evitar tocá-la. Convidado com o aniversário de uma criança de três anos, ela rapidamente deixa a festa. Não suporta estar na presença de crianças. Sempre que ela olha para eles, ela imagina pessoas que estão machucando-as.

Como sua saúde mental declina, Daisy joga mais para atender aos requisitos do seu trabalho. Isso chama mais e mais no trabalho, às vezes ao banheiro, às vezes em frente ao prédio. Às vezes, ela adormece em seu escritório.

No final do primeiro ano, seu supervisor pede para vê-la. Eles se encontram em uma sala de conferências. “Você não esvazulou rapidamente a sua fila”, ele disse a ele. Precisamos que você aumente sua produtividade. “

Daisy está cansada naquele dia – ela é permanentemente -, e essas censura com raiva dela. “Eu explodi”, ela se lembra. Ela lança seu supervisor: “Como você quer que eu aumente minha produtividade? Você tem alguma ideia do que meu cérebro se parece agora? Você entende o que precisamos olhar? Nós não somos máquinas. Nós somos humanos. Nós temos humanos emoções. E essas emoções são seriamente marcadas olhando para as crianças que ficam violam e as pessoas são decapitadas. “

às vezes, quando Daisy pensava em seu trabalho, ela estava avançada em um beco escuro alinhado com as atrocidades que tinha visto. A pior violência, os piores abusos dos quais ela testemunhou parecia assumir forma física e atacá-lo. “Eu senti que todo o mal da humanidade serviu sobre mim”, disse ela. E não havia maneira de escapar. E lá, alguém me disse: “Vamos lá, você tem que voltar a esta garagem escura. Continue indo !” “

Alguns dias após esta reunião, Daisy anuncia ao seu supervisor que ela tira licença médica para curar o trauma psicológico devido ao seu trabalho. Vários outros membros de sua equipe tomaram o mesmo recentemente. Ela pensa Ela está ausente algumas semanas, talvez quatro. Ela não voltará ao Google antes de seis meses.

As imagens de massacres entram mais rapidamente nos escritórios de Austin do que a equipe pode tratar. Mesmo com centenas de moderadores Substalando três turnos, acelera para tratar todos os vídeos de brutalidade que relatam usuários da Internet. A fila EV é dominada por vídeos do Oriente Médio. Desde 2017, a Accenture recrutou dezenas de moderadores de língua árabe para tratá-los.

Número desses funcionários são imigrantes recentes que anteriormente trabalharam como guardas de segurança ou drivers de caminhão de entrega. Muitas vezes, era por um amigo que “eles descobriram o Trabalho de moderador.

“Nossos diplomas não foram reconhecidos quando emigrados para os Estados Unidos, disse Michael, funcionário do centro de Austin por dois anos. Então, assumimos algum trabalho. Nós precisávamos ganhar nossas vidas. “

Estes funcionários são gratos, inicialmente, trabalhar para uma grande empresa tecnológica como Google – mesmo que, nos fatos, eles caem para um subcontratado. (Google se encaixa nas linhas pertencentes desses moderadores. Mesmo se Eles trabalham para a Accenture, eles têm endereços de e-mail terminando com @ google.com.)

“Eu estava feliz por finalmente trabalhar em um escritório, diga a Pedro. Imaginei minha futura carreira e todas as perspectivas que este trabalho me ofereceria. “

Até a sua integração, a natureza exata de seu trabalho na fila EV permanece opaca para novos funcionários.” Eu não tinha ideia do que poderia representar, lembra-se de peidar. Nós não te contamos.

Se duas horas de tempo de bem-estar são ideais, em Austin não é a norma. Quatro funcionários m ‘disseram que eles tinham sido Recusou o tempo de quebra quando a fila foi particularmente longa.

na Accenture, os moderadores devem processar 120 vídeos por dia, em cinco horas de trabalho. A empresa dá-lhes diariamente duas horas pagando tempo para o bem-estar e uma hora de refeição não remunerada ao meio-dia. (Susan Wojcicki, do Youtube, prometido em 2018 para reduzir este fardo para quatro horas de trabalho, mas a promessa não se concretizou . Accenture, ao seu lado, para impor quotas de produtividade a seus funcionários.)

As horas de bem-estar devem permitir que os funcionários descompressam: andar fora, encontros com um terapeuta de serviço no escritório, atividades brincalhonas com colegas. ” Primeiro, essas medidas foram realmente muito boas, lembram-se Nt michael. Se vimos um vídeo atroz, poderíamos pausar, fechar nossa tela, ir andando … “

Google oferece aos seus moderadores muito mais tempo do que o Facebook, onde os moderadores têm apenas 15 minutos de intervalo, Um jantar de 30 minutos e 9 minutos de tempo de bem-estar. (O Facebook estima que levando em conta o tempo gasto em treinamento e desenvolvimento profissional, seus moderadores visualizam vídeos seis horas por dia.)

” estão constantemente revisando nossos programas de bem-estar, de modo a criar um ambiente que apóie os funcionários “, disse Accenture. Em Austin, nossos funcionários têm acesso ilimitado aos programas de apoio, o que inclui o acesso a um terapeuta a pedido e nas reuniões de prevenção. Os funcionários são encorajados a levantar qualquer preocupação com o seu trabalho através desses programas. “

Mas se duas horas de bem-estar são ideais, em Austin, não é a norma. Quatro funcionários me disseram que eles tinham sido recusados seu tempo de intervalo quando a fila era particularmente longa. Seis meses atrás, Eles também tinham que negligenciar seu tempo de pausa para atingir seu uso de pontuação, uma medida usada para calcular quanto tempo eles passam ativamente para vídeos. Software. Monitoramento instalado em seus registros do computador a cada minuto que parecem, com um alvo de cinco horas dia. O tempo gasto em outras tarefas – como ler ou responder a e-mails, participe de reuniões de equipe – não conte neste cálculo. Essa nova medida muitas vezes força os funcionários a aparar em seu tempo de pausa para atingir as cinco horas Objetivo de visualização.

A promessa falsa de intervalos mais longos é consistente com a imagem geral de suas condições de trabalho que os modelos pinam Trabalhadores de conteúdo que trabalham em centros semelhantes em diferentes cantos do mundo.

Quando novos centros entram em serviço, os supervisores começam reunindo novos funcionários em torno de sua missão nobre: tornar a Internet mais segura para todos. A princípio, os moderadores desfrutam das mesmas liberdades que aquelas que os funcionários do Facebook ou do Google se apontam para adquiridos: a liberdade de ir ao banheiro sem pedir permissão, a de comer em sua estação de trabalho, a de determinar quando tomar feriados

Quanto mais tempo passa, mais subcontratados como acentuação e cognizant removem para os funcionários essas poucas liberdades, muitas vezes sem explicação. No centro de Austin, coma em sua mesa foi proibido. Os supervisores começaram a pedir aos funcionários por que eles passaram tanto tempo no banheiro (enquanto não tinham declarado apenas seis ou sete minutos). Os telefones celulares – que os funcionários poderiam manter em sua estação de trabalho – ter sido proibido, aparentemente por razões de confidencialidade.

A proibição de células gerou situações trágicas em quadrinhos no escritório Austin. Algum software Accenture requer que os funcionários se conectem com autenticação de dois fatores. Essa identificação expira em um determinado momento se o funcionário não apresentar um código enviado a ele … em seu celular pessoal. Os funcionários devem correr para o seu armário (onde seu celular é armazenado por causa da proibição na área de trabalho), desbloqueie a porta, abra sua célula, observe o código e comece na corrida para sua estação de trabalho para inserir o código antes que o tempo não expire .

Papel e lápis sendo tão proibido na área de trabalho, funcionários que temem o número do código em sua corrida louca rabisca-a na palma da mão antes de fechar o celular, bloquear o armário e começar a funcionar.

Dois funcionários da Austin me disseram que haviam sido negados feriados por causa de longas linhas de espera para vídeos de terrorismo. Outros foram transferidos para diferentes turnos sem qualquer explicação. Os moderadores do YouTube não receberam um aumento salarial por dois anos, embora os aluguéis em Austin estivessem entre aqueles que experimentaram os aumentos mais importantes do país. (De acordo com a Accenture, a grande maioria dos funcionários recebe aumentos salariais anuais.) Pedro me disse que ele passou 50% de seu salário para pagar aluguel. A vida em Austin é cada vez mais cara. E seu salário não segue.

“Eles nos tratam muito mal, diz Michael. Eles têm tantas maneiras de nós mesmos se não obedecerem.”

Quando ela perdem o Google Para sair em licença médica, Daisy foi vista por um psiquiatra e um terapeuta. Diagnóstico? Síndrome de estresse pós-traumático e ansiedade crônica. Ela começou a tomar antidepressivos.

Na terapia, Daisy descobriu que seu declínio na produtividade, que frustra os seus supervisores, não era culpa dele. Seu terapeuta – que tratou outros antigos moderadores de conteúdo – explicou-lhe que cada pessoa reage de forma diferente para repetir a exposição a imagens emocionalmente perturbadoras. Alguns comem mais e mais e ganham peso. Alguns começam a fazer exercícios de maneira compulsiva. Outros, como Daisy, sentem fadiga e exaustão.

Daisy lembra que o terapeuta disse a ele: “Não é problema seu problema, mas o problema do seu empregador. Ele é o gerente. Ele criou esse trabalho. Ele deve Invista os recursos necessários para mitigar seus efeitos colaterais. “

O terapeuta sugeriu para Daisy para oferecer um cachorro. Ela adotou o cachorro de pastor no SPCA e nomeou Stella.

Stella e Daisy seguiam juntos um treinamento que permitia que a cadela oferecesse apoio emocional à sua amante. Stella aprendeu a reconhecer os sinais de um ataque de pânico na Daisy e adotar comportamentos que podem ajudá-lo.

Daisy começou a tomar Stella para o Hospital Benioff para visitar crianças doentes. Com o tempo, ela conseguiu interagir com as crianças sem um ataque de pânico desencadeado. “Vendo as crianças acariciando meu cachorro teve uma profunda influência na minha capacidade de avançar no meu relacionamento com eles”, diz ela.

Margarisy é grato por ter obtido licença remunerada para curar (enquanto alguns subcontratantes Não ofereça). “Eu tive meses para pensar nas minhas escolhas, considere maneiras de sair dela, sem mais passar por o estresse do desemprego e a pressão para me perguntar como eu ia pagar meu aluguel.”

seis meses Depois do início de sua licença, Daisy voltou ao trabalho. Para sua grande consternação, nada na atitude dos supervisores havia mudado.

“Eles perguntam, é claro. Eles me disseram:” Como você está? Como você está se sentindo ? Vamos devagar para o seu retorno. ” Mas no final, o objetivo era o mesmo: era que cheguei ao nível exigido de produtividade. “

Uma semana após o seu retorno, ela toma a decisão de buscar estudos de 2 ciclo. Ela é aceita na escola de direito e da diplomacia de Fletcher , Universidade Tufts, perto de Boston, onde recentemente largou seu diploma no mestrado.

hoje, ela é um pesquisador associado ao Instituto R Street, um grupo de pensamento baseado em Washington. Seu trabalho se concentra em crianças e tecnologia. Ela desenha em sua experiência de trabalho no Google para fazer os legisladores conscientes dos problemas de conteúdo, explorando as crianças e a lei das crianças. Privacidade. “O que aconteceu comigo alimenta meu desejo de criar mudanças”, diz ela.

Durante este tempo, em Austin, a Accenture estabeleceu uma série de novas medidas, e os funcionários dizem que pescam são assuntos de experimentação. “Somos apenas ratos laboratoriais para eles”, disse Pedro. Eles estavam tentando coisas diferentes conosco. “

e é bem verdade, pelo menos no que diz respeito a um pequeno grupo de provedores de serviços.

No início de 2019, o Google apresentou um relatório de pesquisa à conferência sobre computação humana e crowdsourcing. Testando intervenções estilísticas para reduzir o impacto emocional dos trabalhadores de moderação de conteúdo (testes de intervenções estilísticas para reduzir as conseqüências emocionais para os moderadores de conteúdo), este relatório descreveu duas experiências realizadas pela empresa em seus moderadores.

como parte do Primeira experiência, os vídeos para o conteúdo perturbador visualizados pelos funcionários são apresentados em preto e branco em vez de estar em cores.Na segunda experiência, as imagens de vídeo estão borradas. Como as imagens podem reduzir o impacto psicológico nos moderadores? Solicitar pesquisadores.

“Nossa responsabilidade e compromisso com os membros de nossas equipes que vêem este conteúdo são oferecê-los o melhor apoio possível para que possam realizar seu trabalho, explicados para mim Kristie Canegalllo. O que Google vai descobrir Para melhorar as condições de trabalho, pretende comunicá-lo a toda a indústria. “

A ferramenta digital transformando imagens pretas e brancas está disponível para moderadores (voluntários que escolheram participar deste estudo). Os participantes assistiram por duas semanas as imagens coloridas e respondem a um questionário sobre seu humor. As duas semanas seguintes, elas analisam imagens em preto e branco – usando a ferramenta digital para esse fim – e ainda respondem a um questionário.

O estudo mostra que quando os moderadores parecem imagens em preto e branco, seu humor é melhor. Pelo menos, naquela semana.

deve ser notado O que a empresa não testa: Qual é o limite do volume de conteúdo perturbador para o qual cada moderador pode ser exposto durante uma vida? Devemos considerar licença médica paga para os moderadores das vítimas da síndrome do estresse pós-traumático? Ou, por que não oferecer apoio a longo prazo aos ex-funcionários que continuam a sofrer de problemas de saúde mental bem depois de deixar seus deveres?

Talvez nós Nunca será capaz de determinar com tal precisão um nível seguro de exposição a conteúdos perturbadores. Mas é notável que nenhum dos gigantes tecnológicos, que recrutam dezenas de milhares de pessoas para ver esses conteúdos, não tenta determinar esse nível tão seguro.

Em vez disso, o Google faz quais empresas de tecnologia muitas vezes fazem: isso procura resolver o problema aplicando soluções tecnológicas.

A empresa coloca em particular. Sistemas automáticos de aprendizagem que, esperam, um dia Seja tratado com a maior parte do conteúdo perturbador.

Até então, o Google sugeriu que estudos futuros estão interessados nos efeitos psicológicos que poderiam ter uma mudança na cor do sangue, vermelho ao verde. Outras “alterações estéticas” e mais imagens – os rostos, por exemplo – também são previstos. (O Facebook já oferece a opção de imagem em preto e branco para todos os seus moderadores, além da opção de visualização silenciosa.)

Há muito que os funcionários se deixam de doença para gerenciar o traumatismo relacionado ao seu uso. É impressionante que uma empresa com vastos recursos como o Google está apenas começando a procurar, quase por diletante, soluções tecnológicas menores para grandes problemas como diagnósticos de síndrome de estresse pós-traumático, anos depois que os funcionários começaram a relatá-los aos seus gerentes.

A indústria de moderação de conteúdo vem crescendo rapidamente por dois anos. Como os governos em todos os lugares exigem os gigantes das redes sociais para governar melhor seus serviços, a necessidade de moderadores parece crescer exponencialmente. Dezenas de milhares de pessoas estão atualmente trabalhando neste setor.

Mas, ainda não sabemos como os aspectos mais difíceis deste trabalho – assistir conteúdo perturbador para removê-los da Internet – afetar aqueles que o fazem . Sabemos que um subgrupo de pessoas, aqueles que trabalham para remover vídeos violentos de extremismo do YouTube ou tarefas semelhantes em outras partes do mundo, sofrerão de síndrome de estresse pós-traumático ou problemas de saúde mental relacionados. A este trabalho. Não sabemos o que poderia ser um nível seguro de exposição. Nem embora tal limiar exista.

Os líderes das empresas envolvidas tendem a descrever o problema como uma questão de recrutamento. Em seus olhos, há pessoas que são resilientes diante de tais imagens de violência e abuso, e outros que não são. Seria suficiente para contratar aqueles que são mais resistentes.

No entanto, durante minhas conversas com mais de cem moderadores, trabalhando em empresas de todos os tamanhos, parecia claro para mim que a segurança dos moderadores é não é uma pergunta tão simples. Alguns funcionários têm sintomas precoces de estresse pós-traumático de suas primeiras semanas de trabalho. Outros os vêem só depois de anos.

Não posso dizer mais claramente que os pesquisadores do Google: “Há uma crescente consciência e reconhecimento que além do inconveniente simples, a visualização de longo prazo ou intensivo tais conteúdos perturbadores podem ter consequências consideráveis para a saúde de Aqueles envolvidos nesta tarefa. “

no Facebook e no Google, os líderes continuam a impedir que os moderadores de conteúdo falem sobre as conseqüências de seu trabalho. Eles são lembrados de que eles podem ser facilmente substituídos e assinaram acordos de confidencialidade. Aqueles deles que afundam em ansiedade e depressão receberão um cuidado muito diferente, dependendo se eles trabalham para os subcontratados ou são funcionários permanentes de um ou outro dos gigantes tecnológicos.

Algumas sorte, como daisy, serão autorizado a pagar meses. Outros, como um dos meus entrevistados de Austin, continuarão a trabalhar até que estejam hospitalizados. Um fato permanece indiscutível: Independentemente do seu nível salarial ou da qualidade dos benefícios que você gosta, esse trabalho de moderação mudará você para sempre.

desde dezembro de 2019, acentuar os pedidos para seus funcionários que moderam conteúdo para o YouTube assinar um Declaração que reconhece que seu trabalho pode levar à síndrome do estresse pós-traumático. Especialistas em Direito do Trabalho Veja uma manobra da empresa para proteger contra possível uso legal.

Recentemente, um funcionário de uma grande sociedade tecnológica explicou-me o conceito legal de “ofensa tóxica”. Nos Estados Unidos, as leis permitem que as pessoas atinjam empregadores e fabricantes imobiliários que os expuseram a níveis perigosos de uma substância química.

Se tais leis puderem ser aplicadas, isto é porque a ciência nos revelou como alguns produtos químicos afetam o corpo humano. Sabemos que a exposição à tinta baseada em chumbo, por exemplo, pode causar danos cerebrais, especialmente em crianças. Também sabemos que a exposição ao amianto pode causar câncer de pulmão. Também estabelecemos níveis seguros de exposição e estamos tentando forçar os empregadores e construtores a respeitar esses níveis.

Talvez nunca possamos determinar com tal precisão um nível de exposição seguro. Para perturbar o conteúdo. Mas é notável que nenhum dos gigantes tecnológicos, que recrutam dezenas de milhares de pessoas para ver esses conteúdos, tentará determinar tal nível seguro.

Se tal alteração de abordagem ocorrer, ela será indubitavelmente Seja seguindo uma combinação de remédios de classe no tribunal, ações coletivas de trabalhadores e pressões populares. Os funcionários do Google já são líderes nos direitos de seus colegas que trabalham para subcontratados, e espero que seus esforços continuem.

Dois anos depois de deixar o Google, Daisy ainda deve compor com os efeitos colaterais do trabalho que fez . Ela pega antidepressivos para estabilizar o humor de alguém e ainda ocasionalmente os ataques de pânico. Mas ela considera sua sorte. Ela tinha direito a uma licença médica paga para cuidar de sua saúde. E para isso, é grato.

“Precisamos que as pessoas façam esse trabalho de limpeza, diz Daisy. Mas também devemos mudar o sistema e a estrutura da organização deste trabalho. Devemos melhorar a maneira como apoiamos estes As pessoas e as ferramentas que damos para enfrentar as dificuldades. Se não fizermos nada, esses problemas piorarão. “

A versão original deste artigo foi publicada pela beira, 16 de dezembro de 2019. / p >.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *