top of page
  • Foto do escritorKaroline Hoffmann

Decisões automatizadas nas relações trabalhistas podem ir contra a LGPD

O uso de dados para justificar demissões fere diretrizes de privacidade, de explicabilidade e de objetividade da recente lei brasileira.



Recentemente, o jornal espanhol El País noticiou uma nova realidade no mundo do trabalho: a automatização de decisões com base em Inteligência Artificial (IA). A matéria trata de um caso específico em que uma empresa de Los Angeles, na Califórnia, demitiu – por meio de decisão tomada por Inteligência Artificial – 150 funcionários de uma única vez. Baseada em um banco de dados da empresa, a justificativa para as demissões estaria na baixa produtividade dos funcionários.


Embora o caso não tenha ocorrido no Brasil, é correto dizer que, se fosse adotada aqui, a prática estaria ferindo a Lei Geral de Proteção de Dados, a LGPD. Isso porque essa lei vem justamente para garantir a privacidade do titular dos dados, assim como sua capacidade de determinar o que as empresas podem ou não fazer com essas informações.

A LGPD determina ainda que o uso de dados e de Inteligência Artificial não pode, sob qualquer hipótese, prejudicar os cidadãos. Pelo contrário: essas tecnologias devem servir apenas ‘para o bem’, para benefício do titular dos dados; nunca para causá-lo dano – que, convenhamos, é o caso de uma demissão.


No art. 20, a LGPD também estabelece que “o titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade”. Ou seja, a pessoa demitida ainda teria o direito de pedir a revisão da dispensa, que deveria ser feita com transparência e observando critérios claros e objetivos.


Além disso, é muito difícil precisar se não houve discriminação no tratamento das informações por meio da IA. Há casos recentes de Inteligência Artificial agindo de forma discriminatória – o caso de racismo envolvendo o algoritmo do Twitter, que privilegiava pessoas brancas em fotos publicadas na rede social, é um exemplo disso. A LGPD também serve para proteger as pessoas desse tipo de discriminação. O caso retratado pelo El País é, portanto, ilegítimo do ponto de vista da atual legislação brasileira.


4 visualizações0 comentário
bottom of page