Webbookers (Italiano)

Google e la moderazione del contenuto dell’indirizzo di Google e YouTube come tutti gli altri pesi massimi nell’industria dei social networking: subappaltando la maggior parte del lavoro.

uno di questi subappaltatori, l’americano Accenture aziendali, gestisce il più grande centro di moderazione di contenuti negli Stati Uniti, Austin, Texas. Centinaia di moderatori lavorano in questo centro, 24 ore al giorno, per pulire YouTube dal suo contenuto inappropriato.

Pietro è uno di questi moderatori. YouTube fa per lui e i suoi colleghi un primo smistamento di contenuti problematici. Questi contenuti sono collocati in varie “code” numerici, classificati da temi, a cui i moderatori hanno accesso. YouTube ritiene che focalizzando su un tema, i moderatori acquisiscono particolari competenze. C’è una coda per problemi di copyright, un altro per richieste di odio e molestie, un altro chiamato ancora “adulto” per la pornografia.

che su cui Pietro funziona è il peggiore: la coda EV, per l’estremismo violento. Contiene i contenuti più orribili che devono essere rimossi da Google Piattaforme.

Come tutti i lavori del moderatore di contenuti che coinvolgono l’esposizione quotidiana all’abuso e alla violenza, questo lavoro ha avuto conseguenze gravi e durature su persone che fanno lo stesso Giobbe come Pietro.

Nell’ultimo anno, ha visto uno dei suoi college crollare, così afflitto dal contenuto dei video che aveva visto che doveva essere assente per due mesi senza pagare. Un altro collega, minato dall’ansia e dalla depressione causata dal suo lavoro, così tanto negligente la sua dieta che doveva essere ricoverata in ospedale a causa della carenza di vitamine acuta.

Pietro è preoccupato. Per la sua salute mentale a lungo termine. Dal momento che lavora per la coda EV, ha perso i capelli e guadagnato peso. È diventato più probabile e si alza facilmente. Quando rotola in auto vicino al suo ufficio, anche i giorni liberi, il suo cuore inizia a palpitare.

“Ogni giorno vedi una decapitazione o un ragazzo che tira sulla sua ragazza, dice -t. Dopo. Dì: Wow, il mondo è davvero pazzo! Ti senti male. Perdi la tua ragione per vivere. Ti stai chiedendo: perché gli umani fanno tanto male tra loro? “/ P>

Peter ha fatto questo lavoro per Quasi due anni, e la sua famiglia lo chiede regolarmente di dimettersi. Ma ha paura di non trovare un lavoro e pagato: US $ 18,50 all’ora o circa US $ 37.000 all’anno.

Proprio come molti dei suoi colleghi in coda, in attesa, Pietro è un immigrato. Accenture recluta dozzine di arabofoni come lui. Molti sono cresciuti in Medio Oriente, e la società ha bisogno delle loro abilità linguistiche. Pietro, ad esempio, parla sette dialetti arabi, un bene per determinare accuratamente ciò che costituisce la propaganda di odio e terrorista su YouTube.

Diversi lavoratori che ho parlato per diventare cittadini americani, un exploit più difficile con l’amministrazione Trump. Hanno paura di complicare ulteriormente il loro approccio all’immigrazione se si involazzano con un giornalista o se criticano le loro condizioni di lavoro con un supervisore. (Per questo motivo, la maggior parte dei dipendenti che testimoniano in questo rapporto lo fanno sotto uno pseudonimo.)

Pietro e gli altri moderatori di Austin Dream di ottenere un giorno le stesse condizioni di lavoro di quelle godono a tempo pieno I dipendenti di Google che a volte visitano il loro ufficio: uno stipendio più alto, una migliore assicurazione sanitaria e altri manager empatici per alleggerire il peso del loro lavoro. “Vediamo come si comportano i dipendenti di Google quando vengono qui: si sentono più liberi di noi”, mi dice Peter.

Per diversi mesi, mentre stavo preparando questo rapporto, ho pensato come lui. Se Google ha cessato di fare affari con i subappaltatori come accenture, se i moderatori erano dipendenti a tempo pieno di Google, se hanno toccato lo stesso stipendio di un ufficiale di polizia o di un pompiere, forse quel pesante tributo psicologico. “Devono pagare come risultato di Questa costante esposizione a scene di violenza potrebbe essere attenuata.

È stato allora che ho incontrato un vecchio moderatore di Google Content. Daisy Soderberg-Rivkin ha vinto uno stipendio molto buono e goduto di eccellenti benefici. Ma nessuno di questi privilegi lo ha protetto dal danno che il contenuto inquietante che è stato esposto a ogni giorno lo causerebbe.

Daisy ha dedicato un anno per estirpare le piattaforme di Google da immagini di terrorismo e da abuso sui bambini .Soffre oggi ansia e frequenti attacchi di panico. Lotta per interagire con i bambini senza sciogliersi in lacrime.

Secondo lo psichiatra che si prende cura, è vittima di una sindrome da stress post-traumatica.

Daisy Soderberg-Rivkin ha funzionato come Un assistente legale, nel 2015, quando è diventata consapevole di un’offerta di lavoro di Google. La formulazione del titolo di occupazione ha utilizzato un eufemismo opaco: associazione di rimovizioni legali (associata ai prelievi legali). Tali eufemismi sono una pratica piuttosto comune per tutti i display post del moderatore di contenuti.

Daisy è cresciuto con i servizi di Google. L’unico nome della società evoca un tipo di Eden, con tutti questi piccoli vantaggi di alto profilo offerti ai dipendenti: caffè gratuiti e cuochi, massaggi gratuiti e pulizia. L’occupazione proposta è presso la sede centrale dell’azienda, in vista montagna, in California. La squadra si muoverà un po ‘più tardi su una scrivania satellitare situata nelle vicinanze, a Sunnyvale. La posizione a tempo pieno offre la gamma completa di benefici. La compensazione di base è di US $ 75.000 all’anno, che viene aggiunta le azioni di Google, che indossa un totale di quasi $ 90.000. “Non avrò mai questo lavoro”, ha detto. It ancora postulate.

L’offerta del lavoro ha detto che il lavoro è stato quello di elaborare applicazioni giuridiche volte a rimuovere i collegamenti da Google Research a causa del copyright, della diffamazione o di qualsiasi altro contenuto inappropriato.

Secondo L’offerta di lavoro, gli associati (come Google li chiama) dovevano esaminare i link contenenti immagini di abuso sui bambini. “Mi ricordo molto bene che, tra parentesi, si diceva che questo tipo di contenuto sarebbe limitato a una o due ore a settimana”, afferma Margherita.

Pulire le piattaforme di Google richiede la collaborazione di diverse squadre all’interno l’azienda. Per la maggior parte, i video riportati come contenenti immagini del terrorismo o dello sfruttamento dei bambini sono considerati subappaltatori come quelli di Austin. Ma Google assume anche i dipendenti a tempo pieno per affrontare richieste legali da organismi pubblici o organizzazioni governative e, ove necessario, ritirare risultati di ricerca Web, immagini, video o collegamenti.

pochi mesi dopo la postulata, margherita è contattato da un reclutatore. Alla fine di otto serie di interviste, Google lo rende Shimp L’effetto positivo che il suo lavoro avrà sul mondo. “Sosterinerai la libertà di espressione online, viene detto. Aiutate a rendere Internet un posto più sicuro.”

“Mi sono sentito come lavorare su Google, era un mantello del difensore della libertà, un bicchiere di Kombucha gratuito a mano, tra due sonnellini in capsule di minimazione, ha detto. Di tanto in tanto, avrei dovuto vedere contenuti problematici. È che potrebbe davvero essere così difficile? “

Lei la ha telefonato Madre per dirle che ha accettato il lavoro. Aveva 23 anni.

Nell’ottobre 2019, Google ha detto che sono stati rimossi nel 2018 circa 160.000 violacesimi contenuti di piattaforme come Blogger, Google Foto e Google Drive. Circa 438 al giorno!

margherita non aveva storia di problemi di salute mentale e non pensava alle conseguenze che il nuovo lavoro potrebbe avere sul suo psicologico stato. Non più di quanto ci abbia fatto Google, sembra. Durante la sua integrazione del lavoro, la società non ha fornito una formazione in relazione a quali lavoratori in questo campo invito a “resilienza”, vale a dire l’uso di strumenti psicologici per supportare l’esposizione ad un elevato volume di testi, immagini e video espliciti e disturbanti .

Poiché è fluente francese, la margherita è assegnata alle richieste dalla Francia. Velocemente, diventa il leader del programma di terrorismo di Google per il mercato francese. Ogni giorno, ordina le relazioni della sua coda e decidono se Google è vincolato – per legge o le proprie condizioni generali d’uso – per eliminare questi collegamenti.

al suo stupore., La sua coda inizia a traboccare la violenza . Il 13 novembre 2015, i terroristi che hanno prestato fedeltà al gruppo armato dello stato islamico (EI), uccidono 130 persone e ferite da 413 altri a Parigi e nei suoi sobborghi di Saint-Denis. La maggior parte delle vittime è falciata durante una messa a fuoco in mezzo a un concerto a Bataclan. “Passi tutta la giornata a guardare immagini di cadaveri e feriti sdraiati sul pavimento di una stanza delle prestazioni. I tuoi neuroni non funzionano più come dovrebbero. Tutto è al minimo.”

Alcuni mesi dopo, il 14 luglio 2016, un attacco al camion-ram (rivendicato dall’EI) ha fatto 86 morti e 458 feriti sulla Promenade des Anglais, Nizza. Collegamenti alle foto e I video di questo attacco si accumulano nella coda della margherita. I suoi supervisori hanno messo pressione in modo da trattare rapidamente questo accumulo di query. La giovane donna teme una brutta nota al suo file se non fa non obbedire. Lei cerca di lavorare più velocemente, ma Difficilmente al compito. “Tutto ciò che vedi è il numero che sale nella tua coda. “

Google offre un’ampia varietà di servizi Internet, alcuni dei quali attraggono miliardi di utenti. Di conseguenza: la società ha bisogno di un vero esercito di moderatori.

I contenuti per i quali utenti chiedono che un esame sia per lo più benigno e persino abbastanza noioso. Gli annunci avversi devono essere rimossi dalla piattaforma Ads Google Ads, ad esempio o gli indirizzi falsi professionali devono essere rimossi da Google Maps.

ma inquietante contenuto Possono finire ovunque le politiche di Google consentono agli utenti di caricarli. Nell’ottobre 2019, ha detto la società rimessa nel 2018 circa 160.000 violacei contenuti di piattaforme come Blogger, Google Photos e Google Drive. o circa 438 al giorno!

Anche su YouTube, gran parte dei contenuti inviati dagli utenti per la considerazione sono innocui. Quando “nessun video è in attesa nel loro file, il I moderatori girano i pollici.

Un moderatore di modalità finlandese (assegnato ai contenitori in finlandese) mi ha detto di aver trascorso due mesi a fare qualsiasi cosa durante tutti i suoi giorni di lavoro. A volte ha esaminato uno o due video per un quarto di otto ore. Trascorse le sue giornate a passeggiare su internet, mi ha detto, prima di dimettersi il mese scorso a causa della noia.

L’esperienza di altri moderatori varia notevolmente a seconda del compito che è assegnato a loro, dove sono basati e empatia dei loro supervisori. Molti mi hanno detto di apprezzare il loro lavoro, perché i compiti sono semplici e lasciando loro un sacco di tempo nel giorno per rilassarsi e guardare i video. Altri trovano premiando l’idea che contribuiscano a pulire Youtube e Google dei loro video violenti e problematici.

“Nel complesso, i dipendenti ritengono che sia un lavoro molto facile e che loro n.” Non hanno motivo di lamentarsi “Disse via e-mail un moderatore YouTube in India, che guadagna 850 dollari USA al mese. “Passiamo il nostro tempo di benessere che giochiamo a sedie musicali, di Pictionary, The Garades. Ci divertiamo!”

“piacere” non è una parola usata dai moderatori assegnati alla coda del terrorismo che ero Intervistato.

Parlavano piuttosto parlato dei crampi muscolari, delle compulsioni alimentari e della povertà crescente (gli affitti aumentano di Austin). Hanno descritto i supervisori che hanno rifiutato il loro tempo di rottura, li ha licenziati per futili pretesti e modificati le loro ore di lavoro senza preavviso.

I moderatori più colpiti dalla violenza hanno espresso un’ansia crescente riguardo alle conseguenze di essere testimoni quotidianamente di dozzine di omicidio Scene.

“Mentirei se ho detto che non mi colpisce,” dice Tiriq, che ha lavorato per 18 mesi per la coda EV. “Cosa vediamo ogni giorno, ci cambia inevitabilmente.”

Quando il suo turno finisce, Peter cerca di rilassarsi. Nel tempo, è diventato sempre più difficile. I film d’azione che ha apprezzato in passato sembra meno e meno fittizio. Ogni colpo, ogni morte, sembra ora come se fossero reali. “Anche se so che è la fiction”, spiega.

Alcuni dei suoi colleghi stanno facendo consumando farmaci. Soprattutto cannabis.

Poiché Google ha associato ad Accenture per accelerare il trattamento di video di violenza estrema in Texas, Peter ha visto i colleghi diventano sempre più remoti. “All’inizio, tutti sono cresciuti con” salvezza, va bene, “ricorda. Tutti erano amichevoli. Ora nessuno vuole parlare con gli altri. “

Peter ha aderito al programma nel 2017, l’anno della sua creazione. A quel tempo, YouTube stava vivendo molta pressione pubblica per ripulire la sua piattaforma. I giornalisti e gli accademici stavano investigando il servizio. Avevano trovato Molti video contenenti discorso di odio, molestie, disinformazione su uccisioni di massa e elementi dannosi per i bambini.(Il numero di questi video è stato trovato su Youtube Kids, un’applicazione che la società ha lanciato per guidare i bambini in contenuti più sicuri.)

Sulla scia di queste indagini, l’Amministratore Delegato di YouTube, Susan Wojcicki , ha annunciato che la sua azienda aumenterebbe il numero dei suoi moderatori a 10.000. Cosa è stato fatto. Parte di loro – Google ha rifiutato di dire quanto – sono stati assunti negli Stati Uniti, il gruppo più grande stabilito a Austin.

Moderatori di contenuti che lavorano per i subappaltatori vincono. Solo il salario minimo negli Stati Uniti. In confronto, i moderatori a tempo pieno su Google Pocket sono più di US $ 90.000 all’anno, e questo non include bonus e opzioni di acquisto. I lavoratori temporanei, gli appaltatori e i fornitori di servizi stanno ora formando il 54% della forza lavoro della società.

Kristie CaneGallo, Vicepresidente per la fiducia e la sicurezza di Google, supervisioni migliaia di moderatori di contenuti. Secondo lei, lavorando con le aziende come Accenture Google aiuta a regolare i livelli del suo staff in modo più efficiente. Se Google sta sviluppando un nuovo strumento per individuare i video cattivi, inizialmente avrà bisogno di più moderatori per aver guidato il sistema. Ma successivamente, saranno necessari meno moderatori.

“Le attività con i fornitori esterni ci aiutano ad avere più flessibilità per adattarci alla mutevole richiesta”, afferma Kristie Canegallo, che ha aderito a Google nel 2018, dopo aver portato a Google Come deputato direttore del gabinetto del presidente degli Stati Uniti Barack Obama.

Il lavoro svolto dai subappaltatori (come Accenture, a Austin) è essenziale – cruciale anche – per l’esistenza di YouTube. Molti paesi hanno effettivamente adottato leggi che costringono l’azienda a recedere dalla sua piattaforma i video contenenti immagini terroristiche, a volte brevi come 24 ore dopo il ricevimento di una denuncia.

margherita è stata turbata dalle immagini del terrorismo, Ma ancora più disturbato da ciò che Google chiama le immagini di abuso sessuale figlio (immagini di abuso sessuale sui bambini). L’offerta del lavoro ha dichiarato che sarebbe esposta a tali contenuti solo o due ore a settimana. In effetti, questo tipo di contenuto ha rappresentato una quota molto più grande del suo lavoro.

Visualizza queste immagini è illegale nella maggior parte dei casi. Quindi Google ha creato ciò che i moderatori hanno soprannominato la “war room”, una stanza sicura in cui possono guardare queste immagini senza rischiare che i colleghi li vedano inavvertitamente.

Inizialmente, la società ha pianificato una rotazione del personale . Daisy, ad esempio, potrebbe essere assegnato a questo tipo di contenuto per sei settimane, quindi restituire per sei settimane al suo solito lavoro. Ma la carenza di personale cronico, unito ad un alto tasso di fatturato nei moderatori, ha dovuto vedere ogni settimana di immagini di abuso sessuale sui bambini.

“Abbiamo iniziato a capire che il nostro problema non era una priorità per la società, Lo dice. Quando provenivamo dalle nostre preoccupazioni, abbiamo risposto: “Ascolta, non abbiamo il budget”. La parola “bilancio” è spesso tornata. “Google ha detto $ 110 miliardi di dollari nel 2018.)

Dopo un anno di questa dieta, l’amante della margherita sottolinea che la sua personalità è cambiata. “Sei molto nervoso, salti facilmente,” gli dice. Parli nel tuo sonno, a volte urlo. “

Gli incubi della margherita peggiorano. Lei è sempre stanca. Un giorno, un compagno di stanza è arrivato dietro di esso lo spinge delicatamente. Si gira istintivamente e lo colpisce. “Era un riflesso”, dice. Ho pensato: Quella persona vuole ferirmi. Associamo tutto ciò che mi è successo con quello che ho visto nei video. “

A volte quando la margherita pensava al suo lavoro, stava andando avanti in un vicolo buio fiancheggiato dalle atrocità che aveva visto. La peggiore violenza, i peggiori abusi di cui aveva assistito sembrava prendere forma fisica e attaccarlo.

Un altro giorno, margherita che cammina Le strade di San Francisco con gli amici quando vede un gruppo di bambini in età prescolare. Accompagnato da un educatore, vagano nel file indiano in possesso di una corda, in modo da non allontanarti dal gruppo.

“Ho gli occhi tintinnanti, e improvvisamente, alcune delle immagini che avevo visto al lavoro restituito Per me: i bambini attaccati, i bambini di questa età – non più di tre anni – che stavano violando. Ho visto la corda, e la mia mente lo assomigliava con le immagini che avevo visto bambini e corde.E all’improvviso, tutto si fermò. Dovevo sedermi e scoppiare in lacrime. “

È stata la sua prima crisi di panico.

nelle settimane successive, Margherita si distingue con i suoi amici e compagni di stanza. Non vuole parlare del suo lavoro, per paura di travolgente loro. Questo consiste nella rimozione di queste immagini da Internet, precisamente per impedire loro di tormentare altre persone. Il parlare sembra un tradimento della sua missione.

A questa volta, un terapeuta utilizzato da Google è a Lo smaltimento dei moderatori esposti a contenuti illegali. Tuttavia, è disponibile solo per intervalli irregolari e il suo programma si riempie rapidamente. La margherita ritiene che questo terapeuta sia caldo e cordiale, ma è difficile fissare un appuntamento con lei.

“Abbiamo ricevuto un’e-mail che diceva:” Il terapeuta sarà qui oggi “, e dovevi rispondere molto rapidamente perché il suo programma è stato riempito immediatamente. Tutto il mondo ha avuto problemi”. Quando Daisy ha finalmente vinto un appuntamento, il ther Gli consigliò di consultare uno psicologo privato.

margherita diventa sempre più irritabile. Le chiede i suoi cari a evitare di toccarla. Invitato all’anniversario di un bambino di tre anni, lascia rapidamente la festa. Non supporta essere in presenza di bambini piccoli. Ogni volta che li guarda, immagina le persone che li fanno male.

Poiché la sua salute mentale diminuisce, Margherita gioca di più per soddisfare le esigenze del suo lavoro. Crede sempre più al lavoro, a volte in bagno, a volte di fronte all’edificio. A volte, cade addormentata al suo ufficio.

Alla fine del suo primo anno, il suo supervisore chiede di vederla. Si incontrano in una sala conferenze. “Non svuoti rapidamente la tua coda”, gli disse. Abbiamo bisogno che tu abbia bisogno che tu aumenti la tua produttività. “

Daisy è stanco quel giorno – è permanentemente -, e questi rimproverano la sua arrabbiata. “Sono esploso”, ricorda. Lancia il suo supervisore: “Come vuoi che tu aumenti la mia produttività? Hai idea di ciò che il mio cervello sembra adesso? Capisci cosa dobbiamo guardare? Noi non siamo macchine. Siamo umani emozioni. E queste emozioni sono seriamente contrassegnate guardando i bambini che si violano e le persone vengono decapitate. “

A volte, quando la margherita pensava al suo lavoro, stava andando avanti in un vicolo buio fiancheggiato dalle atrocità che aveva visto. La peggiore violenza, i peggiori abusi di cui aveva assistito sembrava prendere forma fisica e attaccarlo. “Ho sentito che tutto il male dell’umanità versò su di me”, disse. E non c’era modo di scappare. E lì, qualcuno mi ha detto, “Dai, devi tornare a questo vialetto scuro. Continua !” “

Alcuni giorni dopo questo incontro, Daisy annuncia il suo supervisore che lei prende il congedo per malattia per guarire il trauma psicologico a causa del suo lavoro. Diversi altri membri della sua squadra hanno preso la stessa strada. Lei pensa è assente poche settimane, forse quattro. Non tornerà a Google prima dei sei mesi.

Le immagini dei massacri entrano più velocemente negli uffici di Austin di ciò che il team può trattare. Anche con centinaia di moderatori Prevalere a tre turni, accelera per trattare tutti i video di brutalità che gli utenti di Internet riportano. La coda EV è dominata da video dal Medio Oriente. Dal 2017, Accenture ha reclutato dozzine di moderatori di lingua araba per trattarli.

Il numero di questi dipendenti sono gli immigrati recenti che precedentemente hanno lavorato come guardie di sicurezza o guidatori di camion di consegna. Spesso, era da un amico che “hanno scoperto il Il funzionamento del moderatore

“I nostri diplomi non sono stati riconosciuti quando siamo emigrati negli Stati Uniti, ha detto Michael, dipendente del Centro di Austin per due anni. Quindi abbiamo preso qualsiasi lavoro. Avevamo bisogno di vincere le nostre vite. “

Questi dipendenti sono grati, inizialmente, per lavorare per una grande società tecnologica come Google, anche se, nei fatti, boss boss per un subappaltatore. (Google si adatta alle linee di appartenenza di questi moderatori. Anche se Lavorano per Accenture, hanno indirizzi e-mail che terminano con @ google.com.)

“Sono stato felice di lavorare finalmente in un ufficio, racconta Pietro. Ho immaginato la mia futura carriera e tutte le prospettive che questo lavoro mi avrebbe offerto. “

Fino alla loro integrazione, la natura esatta del loro lavoro nella coda EV rimane opaca per i nuovi dipendenti.” Non avevo idea di cosa potrebbe rappresentare, ricorda la scoreggia. Non ti dico.”

Se due ore di tempo di benessere sono ideali, a Austin non è la norma. Quattro dipendenti M ‘hanno detto che erano stati rifiutato il loro tempo di rottura quando la coda era particolarmente lunga.

A Accenture, i moderatori devono elaborare 120 video al giorno, in cinque ore di lavoro. La compagnia dà loro quotidianamente due ore di tempo di pagamento per il benessere e un’ora di pasto non pagato a mezzogiorno. (Susan Wojcicki, da YouTube, promesso nel 2018 per ridurre questo onere a quattro ore di lavoro, ma la promessa non ha concreto . Accenture, dal suo fianco, per imporre quote di produttività ai propri dipendenti.)

Ore di benessere devono consentire ai dipendenti di decomprimere: camminare all’esterno, incontri con un service terapista in ufficio, attività giocose con colleghi. “A Innanzitutto, queste misure erano davvero molto buone, ricorda Nt michael. Se abbiamo visto un video atroce, potremmo fermarsi, chiudere il nostro schermo, vai a piedi … “

Google offre ai suoi moderatori molto più tempo di riposo rispetto a Facebook, dove i moderatori hanno solo 15 minuti di interruzioni di 15 minuti, una cena di 30 minuti e 9 minuti di tempo di benessere. (Facebook stima che prendendo in considerazione il tempo trascorso per la formazione e lo sviluppo professionale, i suoi moderatori vedono video sei ore al giorno.)

“Noi Esaminano costantemente i nostri programmi di benessere, in modo da creare un ambiente che supporti i dipendenti “, ha detto Accenture. A Austin, i nostri dipendenti hanno accesso illimitato ai programmi di supporto, che include l’accesso a un terapeuta su riunioni di richiesta e prevenzione. I dipendenti sono incoraggiati ad aumentare qualsiasi preoccupazione per il loro lavoro attraverso questi programmi. “

Ma se due ore di benessere sono ideali, a Austin non è la norma. Quattro dipendenti mi hanno detto che erano stati rifiutati il loro tempo di rottura quando la coda era particolarmente lunga. Sei mesi fa, Dovevano anche trascurare il loro tempo di pausa per raggiungere il loro uso del punteggio, una misura utilizzata per calcolare quanto tempo passano attivamente ai video. Software. Il monitoraggio installato sul proprio computer registra ogni minuto di video che sembrano, con un obiettivo di cinque ore a giorno. Il tempo trascorso per le altre attività – come leggere o rispondere alle e-mail, partecipare alle riunioni del team – non contare in questo calcolo. Questa nuova misura spesso costringe i dipendenti di tagliare il loro tempo di pausa per raggiungere i cinque ore visualizzazione dell’obiettivo.

La falsa promessa di interruzioni più lunghe è coerente con l’immagine complessiva delle loro condizioni di lavoro che i modelli dipingono I lavoratori dei contenuti che lavorano in centri simili in diversi angoli del mondo.

Quando i nuovi centri entrano in servizio, i supervisori iniziano a rally per i nuovi dipendenti attorno alla loro nobile missione: rendere Internet più sicuro per tutti. All’inizio, i moderatori godono delle stesse libertà come quelli che Facebook o impiegati Google detengono per acquisito: la libertà di andare in bagno senza chiedere il permesso, quello di mangiare alla loro workstation, quello di determinare quando prendere le vacanze

Più tempo passa, più subappaltatori come accenture e consapevoli rimuovono ai dipendenti queste poche libertà, spesso senza spiegazione. Nel centro di Austin, mangiare alla sua scrivania era proibito. I supervisori hanno iniziato a chiedere ai dipendenti perché hanno speso tutto il tempo in bagno (mentre non avevano dichiarato solo sei o sette minuti). Telefoni cellulari – che i dipendenti potrebbero mantenere la loro workstation – sono stati proibiti, apparentemente per motivi di riservatezza.

Il divieto di celle ha generato situazioni tragiche-comiche nell’ufficio Austin. Alcuni software di accenture richiedono che i dipendenti si connettino con autenticazione a due fattori. Questa identificazione scade entro un certo periodo in cui il dipendente non introduce un codice inviato a lui … sul suo cellulare personale. I dipendenti devono correre sul loro armadietto (dove il loro cellulare è memorizzato a causa del divieto nell’area di lavoro), sbloccare la porta, aprire la loro cella, annotare il codice e iniziare in gara alla loro workstation per inserire il codice prima del tempo non scade .

Carta e matite sono così vietate nell’area di lavoro, i dipendenti che temono il numero del codice nella loro pazza razza lo scarabocchia sul palmo della loro mano prima di chiudere il cellulare, bloccare l’armadietto e iniziare a correre.

Due dipendenti Austin mi hanno detto che erano stati negati vacanze a causa di linee di attesa troppo lunghe per i video del terrorismo. Altri sono stati trasferiti in diversi turni senza alcuna spiegazione. I moderatori di YouTube non hanno ricevuto un aumento del salario per due anni, anche se gli affitti di Austin sono stati tra coloro che hanno sperimentato gli aumenti più importanti del paese. (Secondo Accenture, la stragrande maggioranza dei dipendenti riceve aumenti del salario annuale.) Pietro mi ha detto che ha trascorso il 50% del suo stipendio per pagare l’affitto. La vita ad Austin è sempre più costosa. E il suo stipendio non segue.

“Ci trattano molto male, dice Michael. Hanno tanti modi per fratello noi stessi se non obbediscono.”

Quando ha concitato Google partire per congedo per malattia, la margherita è stata vista da uno psichiatra e da un terapeuta. Diagnostico ? Sindrome da stress post-traumatico e ansia cronica. Ha iniziato a prendere antidepressivi.

In terapia, Daisy ha scoperto che il suo declino della produttività, che frustra sia i suoi supervisori, non era colpa sua. Il suo terapeuta – che aveva trattato altri ex moderatori di contenuti – gli spiegati che ogni persona reagisce in modo diverso a ripetere l’esposizione a immagini emotivamente inquietanti. Alcuni mangiano sempre di più e guadagnano peso. Alcuni iniziano a fare esercizio in modo compulsivo. Altri, come la margherita, sento stanchezza e stanchezza.

margherita ricorda che il terapeuta gli disse: “Non è il tuo problema, ma il problema del tuo datore di lavoro. È il manager. Ha creato questo lavoro. Ha creato questo lavoro. Investire le risorse necessarie per mitigare i suoi effetti collaterali. “

Il terapeuta suggerito a Daisy di offrire un cane. Adotteva un cane da pastore allo SPCA e ha chiamato Stella.

Stella e Margherita seguirono insieme una formazione che ha permesso alla cagna di offrire supporto emotivo alla sua amante. Stella ha imparato a riconoscere i segni di un attacco di panico alla margherita e ad adottare comportamenti che possono aiutarlo.

Daisy ha iniziato a prendere Stella a Benioff Hospital per visitare i bambini malati. Nel corso del tempo, è riuscita a interagire con i bambini senza un attacco di panico innescato. “Vedere i bambini che accarezza il mio cane ha avuto una profonda influenza sulla mia capacità di andare avanti nel mio rapporto con loro”, dice.

Daisy è grato di aver ottenuto un congedo retribuito per guarire (mentre alcuni subappaltatori non offrire). “Ho avuto mesi per pensare alle mie scelte, considerare i modi per uscirne, senza più subire lo stress della disoccupazione e la pressione per chiedermi come stavo per pagare il mio affitto.”

Sei mesi Dopo l’inizio del suo congedo, Margherita tornò al lavoro. Alla sua grande costernazione, nulla nell’atteggiamento dei supervisori era cambiato.

“Indagano, ovviamente. Mi hanno detto:” Come stai? Come ti senti ? Andremo lentamente per il tuo ritorno. ” Ma alla fine, l’obiettivo era lo stesso: è stato che ho raggiunto il livello richiesto di produttività. “

Una settimana dopo il suo ritorno, prende la decisione di perseguire 2 ° ciclo di studi. È accettata alla scuola di legge e della diplomazia di Fletcher , Università di Tufts, vicino a Boston, dove ha recentemente lasciato la laurea in Master.

Oggi è un ricercatore associato all’Istituto R Street, un gruppo di pensiero con sede a Washington. Il suo lavoro si concentra sui bambini e tecnologia. Disegna nella sua esperienza lavorativa presso Google per effettuare i legislatori consapevoli dei problemi dei contenuti, sfruttando i bambini e la legge dei bambini. Privacy. “Quello che è successo a me nutrire il mio desiderio di creare cambiamenti”, dice.

Durante questo periodo, ad Austin, Accenture ha istituito una serie di nuove misure e gli impiegati dicono per scherzare sono soggetti di sperimentazione. “Siamo solo ratti da laboratorio per loro”, ha detto Peter. Stavano provando cose diverse con noi. “

Ed è piuttosto vero, almeno per quanto riguarda un piccolo gruppo di fornitori di servizi.

All’inizio del 2019, Google ha presentato un rapporto di ricerca alla conferenza sul calcolo umano e sul crowdsourcing. Test di interventi stilistici per ridurre l’impatto emotivo dei lavoratori della moderazione dei contenuti (test di interventi stilistici per ridurre le conseguenze emotive per i moderatori di contenuti), questo rapporto ha descritto due esperimenti condotti dalla Società sui suoi moderatori.

Come parte del Prima esperienza, i video dei contenuti inquietanti visualizzati dai dipendenti sono presentati in bianco e nero invece di essere di colore.Nella seconda esperienza, le immagini video sono sfocate. Come le immagini possono ridurre l’impatto psicologico sui moderatori? Richiedi ricercatori.

“La nostra responsabilità e l’impegno nei confronti dei membri dei nostri team che vedono questo contenuto sono offrire loro il miglior supporto possibile in modo che possano realizzare il loro lavoro, mi ha spiegato Kristie Canegallo. Ciò che Google scoprirà Per migliorare le condizioni di lavoro, intende comunicarlo a tutta l’industria. “

Lo strumento digitale che trasforma le immagini in bianco e nero è disponibile per i moderatori (volontari che hanno scelto di partecipare a questo studio). I partecipanti hanno osservato per due settimane le immagini a colori e poi rispondono a un questionario riguardante il loro umore. Le seguenti due settimane, guardano le immagini in bianco e nero – usando lo strumento digitale per questo scopo – e risponde ancora a un questionario.

Lo studio mostra che quando i moderatori guardano le immagini in bianco e nero, il loro umore è migliore. Almeno, quella settimana.

Dovrebbe essere notato ciò che la società non prova: qual è il limite del volume del contenuto inquietante a cui ciascun moderatore può essere esposto durante una vita? Dovremmo considerare un congedo di malattia pagato per i moderatori delle vittime della sindrome da stress post-traumatico? Oppure, perché non offrire supporto a lungo termine agli ex dipendenti che continuano a soffrire di problemi di salute mentale bene dopo aver lasciato i loro doveri?

Forse noi Non sarà mai in grado di determinare con tale accuratezza un livello sicuro di esposizione ai contenuti inquietanti. Ma è notevole che nessuno dei giganti tecnologici, che reclutano decine di migliaia di persone per visualizzare questi contenuti, non tenta di determinare un livello così sicuro.

Invece, Google fa ciò che le aziende tecnologiche spesso fanno: cerca di risolvere il problema applicando soluzioni tecnologiche.

L’azienda pone in particolare. Sistemi di apprendimento automatico che, speranza, sarà un giorno Essere affrontato la maggior parte del contenuto inquietante.

Allora, Google ha suggerito che gli studi futuri sono interessati agli effetti psicologici che potrebbero avere un cambiamento di colore del sangue, rosso al verde. Altri “cambiamenti estetici” e altre immagini – anche i volti, ad esempio – sono previsti. (Facebook offre già l’opzione immagine in bianco e nero a tutti i suoi moderatori, oltre all’opzione di visione silenziosa.)

Le aziende hanno a lungo noto che i dipendenti prendono il congedo di malattia per gestire il trauma relativo al loro uso. Sta colpendo che un’azienda con vaste risorse come Google sta appena iniziando a cercare, quasi da dilettanti, soluzioni tecnologiche minori a problemi così gravi come diagnosi di sindrome da stress post-traumatico, anni dopo che i dipendenti hanno iniziato a segnalarli ai loro manager.

L’industria della moderazione del contenuto è cresciuta rapidamente per due anni. Poiché i governi ovunque richiedono ai giganti dei social network per governare meglio i loro servizi, la necessità di moderatori sembra crescere esponenzialmente. Decine di migliaia di persone stanno attualmente lavorando in questo settore.

Ma, non sappiamo ancora come gli aspetti più difficili di questo lavoro – guarda i contenuti inquietanti per rimuoverli da Internet – influenzano quelli che lo fanno . Sappiamo che un sottogruppo di persone, coloro che lavorano per rimuovere i video estremismo violenti da YouTube o compiti simili altrove nel mondo, soffriranno di sindrome da stress post-traumatico o relativi problemi di salute mentale. A questo lavoro. Non sappiamo cosa potrebbe essere un livello sicuro di esposizione. Né anche se tale soglia esiste.

I leader delle società interessati tendono a descrivere il problema come problema di reclutamento. Ai loro occhi, ci sono persone che sono resilienti di fronte a tali immagini di violenza e abuso, e altri che non lo sono. Sarebbe sufficiente assumere coloro che sono più resistenti.

Tuttavia, durante le mie conversazioni con più di cento moderatori, lavorando in aziende di tutte le taglie, mi sembrava chiaro che la sicurezza dei moderatori è non una domanda così semplice. Alcuni dipendenti hanno i primi sintomi di stress post-traumatico dalle loro prime settimane di lavoro. Altri li vedono emergono solo dopo anni.

Non posso dirlo più chiaramente che i ricercatori di Google: “Vi è una crescente consapevolezza e riconoscimento che oltre il semplice inconveniente, la visione a lungo termine o l’intenso contenuto così inquietante possono avere notevoli conseguenze per la salute di Quelli impegnati in questo compito. “

A Facebook e Google, i leader continuano a scoraggiare i moderatori di contenuti di parlare delle conseguenze del loro lavoro. Si ricordano che possono essere facilmente sostituiti e hanno firmato accordi di riservatezza. Quelli di loro che affondano nell’ansia e nella depressione riceveranno una cura molto diversa a seconda che funzionino per i subappaltatori o siano dipendenti permanenti di uno o l’altro dei giganti tecnologici.

Sarà fortunata, come la margherita diritto ai mesi di congedo retribuiti. Altri, come uno dei miei intervistati di Austin, continuerà a lavorare fino a quando non sono ricoverati in ospedale. Un fatto rimane indiscutibile: indipendentemente dal livello di stipendio o dalla qualità dei benefici che ti piace, questa funzionalità di moderazione ti verrà cambierà per sempre.

Da dicembre 2019, ordini di accenture ai suoi dipendenti che modificano i contenuti per YouTube per firmare un contenuto Dichiarazione che riconosce che il loro lavoro può portare alla sindrome da stress post-traumatico. Gli esperti del diritto del lavoro lo vedono una manovra dell’azienda per proteggere dal possibile uso legale.

Recentemente, un dipendente di una grande società tecnologica mi ha spiegato il concetto legale di “offense tossico”. Negli Stati Uniti, le leggi consentono alle persone di attaccare i datori di lavoro e i produttori immobiliari che li hanno esposti a livelli pericolosi di una sostanza chimica.

Se tali leggi possono essere applicate, questo perché la scienza ci ha rivelato come alcuni prodotti chimici influenzare il corpo umano. Sappiamo che l’esposizione alla vernice a base di piombo, ad esempio, può causare danni cerebrali, specialmente nei bambini. Sappiamo anche che l’esposizione all’amianto può causare il cancro ai polmoni. Abbiamo stabilito livelli di esposizione sicuri e stiamo cercando di forzare i datori di lavoro e i costruttori per rispettare questi livelli.

Forse non possiamo mai determinare con tale accuratezza un livello di esposizione sicuro. Per disturbare i contenuti. Ma è notevole che nessuno dei giganti tecnologici, che reclutano decine di migliaia di persone per visualizzare questi contenuti, cercheranno di determinare un livello così sicuro.

Se si verifica un tale cambio di approccio, sarà indubbiamente Seguire una combinazione di rimedi di classe in tribunale, azioni collettive di lavoratori e pressioni popolari. I dipendenti di Google sono già i leader nei diritti dei loro colleghi che lavorano per i subappaltatori, e spero che i loro sforzi continuiranno.

Due anni dopo aver lasciato Google, la margherita deve ancora comporre con gli effetti collaterali del lavoro . Prende antidepressivi per stabilizzare il proprio umore e ancora occasionalmente gli attacchi di panico. Ma lei ritiene fortunata. Aveva diritto a un congedo medico pagato per prendersi cura della sua salute. E per questo, è grato.

“Abbiamo bisogno di persone a fare questo lavoro di pulizia, afferma Margherita. Ma dobbiamo anche cambiare il sistema e la struttura dell’organizzazione di questo lavoro. Dobbiamo migliorare il modo in cui supportiamo questi persone e strumenti che diamo loro di affrontare le difficoltà. Se non facciamo nulla, questi problemi peggiorano. “

La versione originale di questo articolo è stata pubblicata dal Verge, 16 dicembre 2019.

.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *