@Daniely Entler da Cruz
Quando a gente fala em inteligência artificial, ainda é comum vir à cabeça a imagem de robôs, filmes de ficção científica ou máquinas "roubando" empregos. Mas, longe desse cenário cinematográfico, a IA já está bem mais perto da nossa realidade, ela entrou silenciosamente nas empresas e nos processos de trabalho de todo dia.
Hoje, muitas empresas utilizam sistemas automatizados para selecionar currículos, definir metas, organizar escalas e até monitorar a produtividade de seus empregados. Em vários casos, tudo isso acontece sem que o trabalhador saiba exatamente como funciona, e até mesmo, em que ponto suas informações estão sendo usadas.
Esse novo contexto abre um campo enorme de debate para o direito do trabalho. A discussão deixa de ser apenas "a tecnologia é boa ou ruim?" e passa a ser algo mais concreto: como garantir direitos trabalhistas e preservar a dignidade da pessoa humana em um ambiente cada vez mais mediado por algoritmos?
Fato é que a IA já se faz presente em diferentes momentos da relação de trabalho. No recrutamento e seleção, por exemplo, é comum o uso de softwares que fazem uma triagem automática de currículos, analisando palavras-chave, histórico profissional e, em alguns casos, até antecedentes criminais e perfis em redes sociais para filtrar candidatos. Na gestão de pessoal, aparecem ferramentas que organizam escalas, medem desempenho, acompanham metas e registram ponto de forma praticamente automática. Já no monitoramento de atividades, programas registram acesso a sistemas, tempo de uso de aplicativos, produtividade por tarefa e outros indicadores, que depois são consolidados em relatórios.
Com isso, sai de cena aquele monitoramento mais tradicional, em que o gestor acompanhava de perto a rotina e ainda conseguia enxergar o contexto por trás de uma queda de rendimento, como por exemplo, alguém que está se recuperando de uma gripe e tem seu rendimento diminuído. Passando a analisar pessoas através de um modelo guiado por relatórios padronizados, sem o olhar humano e com bem menos espaço para nuances.
Mesmo quando a empresa não rotula essas ferramentas como "inteligência artificial", na prática elas já tomam, ou pelo menos orientam, decisões relevantes, que impactam diretamente a vida do trabalhador como no caso de quem é admitido, quem é promovido, quem é desligado, quem é considerado com "baixo desempenho".
Por isso, é importante reconhecer que o uso crescente de IA no ambiente de trabalho está longe de ser neutro. Ele traz ganhos de eficiência, mas também riscos que o direito do trabalho precisa enfrentar. Um deles é a obscuridade das decisões, muitas vezes nem o próprio empregador sabe exatamente por que o sistema classificou um candidato como inadequado ou marcou determinado empregado como "improdutivo". Se um algoritmo filtra currículos ou indica quem deve ser promovido ou demitido sem oferecer uma justificativa clara, fica difícil garantir transparência, permitir que o trabalhador questione a decisão ou até que o sindicato atue de forma efetiva.
Outro ponto, são as possíveis discriminações, se os dados usados para treinar o sistema refletirem desigualdades históricas, por exemplo, menos mulheres ou pessoas negras em determinados cargos, o algoritmo pode reproduzir ou até reforçar essa discriminação, como narrado por Moacir Ponti em publicação no Jornal da USP, onde ele afirma que "IA tende a perpetuar as desigualdades sociais por ter "aprendido da forma errada algumas de suas informações"(1) Na prática, isso pode significar menos chances de contratação, promoção ou reconhecimento para determinados grupos, sem que isso seja assumido abertamente.
Há ainda a questão da pressão por produtividade. Sistemas que medem tudo o tempo todo, estabelecem metas em tempo real, comparam automaticamente colegas e disparam alertas de baixa performance criam um ambiente de cobrança permanente. Isso pode afetar a saúde mental do trabalhador, incentivar jornadas excessivas e alimentar a sensação de vigilância constante.
Nesse mesmo sentido, cresce a preocupação com o monitoramento excessivo. Ferramentas que acompanham o uso do computador, a localização ou o tempo de resposta do empregado podem ultrapassar o limite do poder diretivo do empregador e, na prática, atingir a intimidade e a vida privada, sobretudo em contextos de trabalho remoto ou híbrido, em que a fronteira entre casa e trabalho já é, por si só, mais frágil.
Fato é que do ponto de vista jurídico, o Brasil ainda não conta com uma lei específica sobre inteligência artificial aplicada às relações de trabalho. Isso não significa, porém, que o tema esteja em um "vazio normativo". Pelo contrário, há bases importantes que não podem ser ignoradas. A Constituição Federal assegura princípios como a dignidade da pessoa humana, o valor social do trabalho e a igualdade. A CLT protege a saúde, o descanso, a integridade do trabalhador e veda abusos no exercício do poder de comando. E a LGPD disciplina o tratamento de dados pessoais, incluindo aqueles coletados em processos seletivos e na gestão cotidiana de empregados.
Assim, a partir dessas diretrizes, alguns caminhos começam a se desenhar, como a necessidade de exigir um mínimo de transparência nas decisões automatizadas que afetem diretamente a vida do trabalhador, como na contratação, promoção e demissão; estabelecer limites razoáveis para o monitoramento eletrônico, especialmente fora da jornada e no teletrabalho; levar o tema para a negociação coletiva, discutindo regras sobre uso de algoritmos, metas, avaliação de desempenho e direito à desconexão; reafirmar que a tecnologia deve respeitar os direitos fundamentais do trabalhador, e não o contrário.
Desta forma, podemos concluir que a inteligência artificial não é, por si só, uma vilã nas relações de trabalho. Ela pode melhorar processos, reduzir tarefas repetitivas e até tornar a gestão mais eficiente. O problema surge quando a busca por eficiência serve como justificativa para práticas que fragilizam direitos, aumentam a pressão sobre o trabalhador e tornam as decisões cada vez mais obscuras e difíceis de questionar.
O desafio do direito do trabalho, hoje, é acompanhar essa transformação sem ficar apenas reagindo a fatos consumados. É pensar em limites, critérios e boas práticas que permitam usar a inteligência artificial como ferramenta, e não como instrumento de precarização do trabalho. Em outras palavras, a inovação tecnológica precisa caminhar junto com a proteção ao trabalho digno.
REFERÊNCIA
(1)https://jornal.usp.br/atualidades/inteligencia-artificial-utiliza-base-de-dados-que-refletem-preconceitos-e-desigualdades/
*DANIELY ENTLER DA CRUZ
-Graduada em Direito pela Universidade Nove de Julho (2015);
- Especialista em Direito Processual Civil pela Escola Paulista de Direito (2016);
-Pós-Graduada em Direito Civil e Empresarial pela Faculdade Damásio de Jesus (2018);
-Pós-Graduada em Direito do Trabalho e Processo do Trabalho pela Faculdade Legale Educacional (2024);
-Fundadora do Escritório Entler Advocacia há 8 anos; e
-Atua nas áreas de Direito Civil, Direito Empresarial, Direito do Trabalho e Direito Criminal.
Instagram: @entler.advocacia
E-mail: danielyentler@hotmail.com
WhatsApp: 55 (11) 98385-3657
Nota do Editor:
Todos os artigos publicados no O Blog do Werneck são de inteira responsabilidade de seus autores.
.png)

Nenhum comentário:
Postar um comentário