Bossware: como a empresa vigia você

A câmera do computador filma seus movimentos ao digitar. O microfone escuta. Até seu olhar é monitorado. Na era da produtividade opaca, corporações demitem, punem e violam direitos por meio de máquinas. Sonham com o empregado-robô…

Por Zoë Corbyn, no The Guardian | Tradução: Vitor Costa

Quando o trabalho de um jovem analista da costa leste dos EUA – vamos chamá-lo de James – passou a ser remoto com a pandemia, ele não imaginou nenhum problema. A empresa, uma grande varejista americana da qual ele é empregado há mais de meia década, forneceu a ele um laptop, e sua casa tornou-se seu novo escritório. Integrante de uma equipe que lidava com questões de uma cadeia de suprimentos, o trabalho era pesado, mas ele nunca havia sido repreendido por não trabalhar o suficiente.

Portanto, foi um choque quando sua equipe foi chamada certo dia, no final do ano passado, para uma reunião on-line para discutir lacunas em seu trabalho: especificamente períodos em que as pessoas – incluindo o próprio James, ele foi informado mais tarde – não estavam inserindo informações em banco de dados da empresa.

Até onde os membros da equipe sabiam, ninguém os observava no trabalho. Mas quando ficou claro o que aconteceu, James ficou furioso.

Uma empresa pode usar ferramentas de monitoramento de computador – conhecidas como “bossware” pelos críticos – para saber se você é produtivo no trabalho? Ou se você está prestes a fugir para um concorrente com informações privilegiadas? Ou mesmo, simplesmente, se você está feliz?

Muitas empresas nos EUA e na Europa agora parecem querer saber essas informações, estimuladas pelas enormes mudanças nos hábitos de trabalho durante a pandemia, em que inúmeros empregos de escritório se tornaram remotos e parecem destinados a permanecerem assim ou se tornarem híbridos. Esse processo está se cruzando com outra tendência entre os empregadores para a quantificação do trabalho – seja físico ou digital – na esperança de impulsionar a eficiência.

“A ascensão do software de monitoramento é uma das histórias não contadas da pandemia de covid”, diz Andrew Pakes, vice-secretário geral da Prospect, um sindicato do Reino Unido.

“Isso está se tornando uma realidade para quase todo tipo de trabalhador”, diz Wilneida Negrón, diretora de pesquisa e política da Coworker, uma organização sem fins lucrativos com sede nos EUA que ajuda os trabalhadores a se organizarem. Os empregos centrados no conhecimento que se tornaram remotos durante a pandemia são uma área específica de crescimento no uso desses softwares.

Uma pesquisa realizada em setembro passado pelo site Digital.com com 1.250 empregadores dos EUA descobriu que 60% dos funcionários remotos estão usando algum tipo de software de monitoramento de trabalho, mais comumente para rastrear a navegação na web e o uso de aplicativos. E quase nove em cada 10 das empresas disseram que demitiram trabalhadores depois de implementar o software de monitoramento.

O número e a variedade de ferramentas agora disponíveis para monitorar continuamente a atividade digital dos funcionários e fornecer feedback aos gerentes é notável. A tecnologia de rastreamento também pode registrar pressionamentos de tecla, fazer capturas de tela, registrar movimentos de mouse, ativar webcams e microfones ou tirar fotos periodicamente sem que os funcionários saibam. E esse conjunto crescente de ferramentas vem incorporando inteligência artificial (IA) e algoritmos complexos para dar sentido aos dados coletados.

Uma tecnologia de monitoramento de IA, a Veriato, fornece aos trabalhadores uma “pontuação de risco” diária que indica a probabilidade de eles representarem uma ameaça à segurança do empregador. Isso pode ocorrer porque eles podem vazar informações acidentalmente ou porque pretendem roubar dados ou propriedade intelectual.

A pontuação é composta por muitos componentes, mas inclui o que uma IA “vê” quando examina o texto dos e-mails e bate-papos de um funcionário para determinar seu sentimento ou alterações nele que podem apontar para o descontentamento. A empresa pode então submeter essas pessoas a um exame mais minucioso.

“Trata-se realmente de proteger consumidores e investidores, bem como funcionários, de cometer erros acidentais”, diz Elizabeth Harz, gerente da empresa.

Outra empresa que faz uso de IA, a RemoteDesk, tem um produto destinado a trabalhadores remotos cujo trabalho exige um ambiente seguro, porque, por exemplo, estão lidando com detalhes de cartão de crédito ou informações de saúde. Ele monitora os trabalhadores por meio de suas webcams com reconhecimento facial em tempo real e tecnologia de detecção de objetos para garantir que ninguém mais olhe para a tela e que nenhum dispositivo de gravação, como um telefone, apareça. Pode até acionar alertas se um trabalhador comer ou beber no trabalho, se uma empresa proibir.

A própria descrição do RemoteDesk de sua tecnologia para “obediência ao trabalho em casa” causou polêmica no Twitter no ano passado. (Essa expressão não captou a intenção da empresa e foi alterada, disse seu dono, Rajinish Kumar, ao Guardian).

Mas as ferramentas que afirmam avaliar a produtividade de um trabalhador parecem prestes a se tornar mais onipresentes. No final de 2020, a Microsoft lançou um novo produto chamado Productivity Score, que classificava a atividade dos funcionários em seu conjunto de aplicativos, incluindo a frequência com que participavam de videoconferências e enviavam e-mails. Seguiu-se uma reação generalizada, e a Microsoft pediu desculpas e reformulou o produto para que os trabalhadores não pudessem ser identificados. Mas algumas empresas menores estão despendendo muita energia na elaboração de programas desse tipo.

Prodoscore, fundada em 2016, é uma delas. Seu software está sendo usado para monitorar cerca de 5 mil trabalhadores em várias empresas. Cada funcionário recebe uma “pontuação de produtividade” diária de 100, que é enviada ao gerente de uma equipe e ao trabalhador, que também verá sua classificação entre seus pares. A pontuação é calculada por um algoritmo proprietário que pesa e agrega o volume de entrada de um trabalhador em todos os aplicativos de negócios da empresa – e-mail, telefones, aplicativos de mensagens e bancos de dados.

Apenas cerca de metade dos clientes da Prodoscore informam a seus funcionários que eles estão sendo monitorados usando o software (o mesmo vale para a Veriato). A ferramenta é “amigável aos funcionários”, afirma o CEO Sam Naficy, pois oferece aos funcionários uma maneira clara de demonstrar que estão realmente trabalhando em casa. “[Apenas] mantenha seu Prodoscore acima de 70”, diz Naficy. E porque está apenas pontuando um trabalhador com base em sua atividade, não vem com as distorções e preconceitos de gênero, raça ou outros que os gerentes humanos podem ter, argumenta a empresa.

Prodoscore não sugere que as empresas tomem decisões importantes para os trabalhadores – por exemplo, sobre bônus, promoções ou demissões – com base em suas pontuações. Embora “no final das contas, isso esteja a critério deles”, diz Naficy. Em vez disso, pretende ser uma “medição complementar” para os resultados reais de um trabalhador, o que pode ajudar as empresas a ver como as pessoas estão gastando seu tempo ou controlar o excesso de trabalho.

A Naficy listou empresas jurídicas e de tecnologia como seus clientes, mas aquelas abordadas pelo Guardian se recusaram a falar sobre o que fazem com o produto. Uma delas, a principal editora de jornais dos EUA, Gannett, respondeu que é usada apenas por uma pequena divisão de vendas de cerca de 20 pessoas. Uma empresa de vigilância por vídeo chamada DTiQ é citada no site da Prodoscore dizendo que as pontuações em declínio previam com precisão quais funcionários sairiam.

Prodoscore planeja lançar em breve um “índice de felicidade/bem-estar” separado que explorará os bate-papos de uma equipe e outras comunicações na tentativa de descobrir como os trabalhadores estão se sentindo. Seria, por exemplo, capaz de prevenir um funcionário infeliz que pode precisar de uma pausa, afirma Naficy.

Mas o que os próprios trabalhadores pensam sobre serem vigiados assim?

James e o resto de sua equipe na varejista norte-americana descobriram que, sem que eles soubessem, a empresa estava monitorando as teclas digitadas no banco de dados.

No momento em que estava sendo repreendido, James percebeu que algumas das lacunas seriam na verdade pausas – os funcionários precisavam comer. Mais tarde, ele refletiu muito sobre o que havia acontecido. Embora ter seus toques de tecla rastreados sorrateiramente fosse inquietante, não era o que realmente incomodava. Em vez disso, o que era “insuportável”, “exasperante” e “humilhante” era que os superiores não conseguiam entender que inserir dados era apenas uma pequena parte de seu trabalho e, portanto, era uma medida ruim de seu desempenho. A comunicação com fornecedores e mensageiros é que de fato consumia a maior parte de seu tempo.

“Foi a falta de supervisão humana”, diz ele. “Foram ‘seus números não estão correspondendo ao que queremos, apesar de você ter provado que seu desempenho é bom’… Eles olharam para os analistas individuais quase como se fôssemos robôs”.

Para os críticos, há uma perspectiva muito desanimadora. “Muitas dessas tecnologias ainda não foram testadas”, diz Lisa Kresge, pesquisadora e associada de políticas da Universidade da Califórnia, Berkeley Labor Center e coautora do recente relatório Data and Algorithms at Work.

As pontuações de produtividade dão a impressão de que são objetivas e imparciais e que poderiam ser confiáveis porque são criadas tecnologicamente – mas são? Muitos usam a atividade do empregado como um sinônimo de produtividade, mas mais e-mails ou telefonemas não se traduzem necessariamente em mais produtividade ou desempenho melhor. E como esses sistemas chegam às suas pontuações muitas vezes é tão incerto para os gerentes quanto para os trabalhadores, diz Kresge.

Além disso, os sistemas que classificam automaticamente o tempo de um trabalhador em “ocioso” e “produtivo” estão fazendo julgamentos de valor sobre o que é e o que não é produtivo, observa Merve Hickok, diretor de pesquisa do Center for AI and Digital Policy e fundador do AIethicist.org. Um trabalhador que leva tempo para treinar ou orientar um colega pode ser classificado como improdutivo porque há menos tráfego proveniente de seu computador, diz ela. E as pontuações de produtividade que forçam os trabalhadores a competir podem levá-los a tentar burlar o sistema em vez de realmente fazer um trabalho produtivo.

Modelos de IA, muitas vezes treinados em bancos de dados do comportamento de sujeitos anteriores, também podem ser imprecisos e tendenciosos. Problemas com preconceito de gênero e raça foram bem documentados na tecnologia de reconhecimento facial. E há problemas de privacidade. Produtos de monitoramento remoto que envolvem uma webcam podem ser particularmente problemáticos: pode haver uma pista de que uma trabalhadora está grávida (como um berço ao fundo), de uma determinada orientação sexual ou vivendo com uma família extensa. “Isso dá aos empregadores um nível de informação diferente do que eles teriam de outra forma”, diz Hickok.

Há também um “pedágio” psicológico. Ser monitorado diminui sua percepção de autonomia, explica Nathanael Fast, professor-associado de administração da Universidade do Sul da Califórnia que codirige o Instituto de Psicologia da Tecnologia. E isso pode aumentar o estresse e a ansiedade. Pesquisas com trabalhadores do setor de call center – setor pioneiro do monitoramento eletrônico – evidenciam a relação direta entre monitoramento extensivo e estresse.

O programador de computador e defensor do trabalho remoto David Heinemeier Hansson vem realizando uma campanha contra os fornecedores desse tipo de tecnologia. No início da pandemia, ele anunciou que a empresa que ele cofundou, a Basecamp, que fornece software de gerenciamento de projetos para trabalho remoto, proibiria os fornecedores da tecnologia espiã de se integrarem a ela.

As empresas tentaram recuar, diz Hansson – “pouquíssimas delas se veem como fornecedoras de tecnologia de vigilância” – mas a Basecamp não poderia ser cúmplice no apoio à tecnologia que resultou em trabalhadores submetidos a tal “tratamento desumano”, diz ele. Hansson não é tão ingênuo para pensar que sua postura vai mudar as coisas. Mesmo que outras empresas seguissem o exemplo da Basecamp, não seria suficiente para saciar o mercado.

O que é realmente necessário, argumentam Hansson e outros críticos, são melhores leis que regulem como os empregadores podem usar algoritmos – e para proteger a saúde mental dos trabalhadores. Nos EUA, exceto em alguns estados que introduziram legislação, os empregadores nem são obrigados a divulgar especificamente o monitoramento aos trabalhadores. (A situação é melhor no Reino Unido e na Europa, onde existem direitos gerais sobre proteção de dados e privacidade, mas o sistema sofre com a falta de fiscalização).

Hansson também pede aos gerentes que reflitam sobre seu desejo de monitorar os trabalhadores. O rastreamento pode pegar “um preguiçoso em cem”, diz ele. “Mas e os outros noventa e nove cujo ambiente você tornou completamente insuportável?”

Quanto a James, ele está procurando outro emprego em que hábitos de monitoramento “tóxicos” não sejam uma característica da vida profissional.

 

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.