Você não contratou. O algoritmo contratou. A diferença não importa mais.

Às 1h50 da manhã, Derek Mobley recebeu uma rejeição. Ele tinha submetido a candidatura menos de uma hora antes. Do outro lado não havia recrutador acordado. Havia um algoritmo — e a decisão já estava tomada. O caso que se seguiu mudou a responsabilidade de quem usa IA em contratação.

O Elefante na Sala × rh × viés algorítmico × lgpd × responsabilidade civil

O Essencial
  • Derek Mobley aplicou para mais de 100 vagas em empresas que usam Workday. Foi rejeitado em todas — algumas vezes em menos de uma hora, no meio da madrugada.
  • Em maio de 2025, uma corte federal americana certificou o caso como class action nacional: potencialmente centenas de milhões de candidatos podem aderir ao processo.
  • A tese que avançou no tribunal é cirúrgica: quando um algoritmo participa da decisão de contratar ou rejeitar, o fornecedor do software vira corresponsável — não é só uma ferramenta.
  • 88% das empresas globais já usam alguma forma de IA em triagem de candidatos. A maioria nunca auditou viés. A maioria não sabe o que o modelo usa como critério de rejeição.
  • No Brasil, a LGPD e a CLT já criam exposição equivalente — e nenhuma empresa está preparada para essa conversa.

Às 1h50 da manhã, Derek Mobley recebeu um e-mail de rejeição. Ele tinha submetido a candidatura menos de uma hora antes. Do outro lado não havia recrutador acordado, nem gestor relendo o currículo. Havia um algoritmo — e a decisão já estava tomada.

Mobley é negro, tem mais de 40 anos, e se identifica como tendo ansiedade e depressão. Aplicou para mais de cem vagas em empresas que usam as ferramentas de triagem da Workday. Foi rejeitado em todas. Quando entrou com processo, a Workday disse o óbvio: "não somos o empregador, somos só uma ferramenta." A juíza discordou.

Em fevereiro de 2023, Mobley processou a Workday na Califórnia alegando que seu sistema de triagem discrimina candidatos por raça, idade e deficiência — em violação ao Title VII, ao ADEA e ao ADA. A Workday pediu que o processo fosse arquivado: ela não era empregadora, não tomava decisões de contratação, apenas fornecia uma plataforma.

A juíza Rita Lin negou o pedido de arquivamento em julho de 2024. O fundamento foi preciso: o software da Workday não executa mecanicamente os critérios dos empregadores. Ele participa do processo decisório — recomenda, rejeita, prioriza candidatos por conta própria. Isso o torna "agente" dos empregadores sob a lei americana. Agente responde.

Em maio de 2025, o caso foi certificado como class action nacional. A classe definida pela juíza: todos os candidatos com 40 anos ou mais que aplicaram para vagas via plataforma Workday e foram rejeitados desde setembro de 2020. Workday estimou que esse coletivo pode chegar a centenas de milhões de pessoas. A juíza respondeu: "discriminação alegadamente disseminada não é motivo para negar notificação."

A defesa da Workday é a mesma que qualquer empresa de SaaS usaria: somos intermediários. Não definimos os critérios dos empregadores, não tomamos a decisão final, apenas processamos dados. É uma defesa intuitiva — e é exatamente ela que o tribunal recusou.

O que o tribunal identificou foi uma distinção que a maioria dos executivos de RH ignora: há uma diferença entre um sistema que aplica regras e um sistema que aprende padrões. Uma planilha que filtra candidatos sem diploma de ensino superior aplica uma regra explícita do empregador. Um modelo de aprendizado de máquina treinado em dados históricos de contratação aprende o que o empregador contratou no passado — e reproduz esses padrões, incluindo os discriminatórios. Ninguém escreveu a regra "rejeitar candidatos negros acima de 40". O modelo chegou lá sozinho, porque era isso que os dados de treino mostravam.

Esse é o núcleo do problema. Quando você delega a triagem a um algoritmo treinado em dados históricos, você não está automatizando neutralidade. Você está automatizando o passado — com todos os vieses que ele carrega. E agora, segundo esse tribunal, você é corresponsável pelo resultado.

Os números do contexto são brutais. O WEF reportou em 2025 que 88% das empresas globais já usam alguma forma de IA em triagem de candidatos. A MIT revisou mais de 300 implementações de IA generativa em 2025 — em implementações corporativas reais, não experimentos acadêmicos: 95% não geraram retorno mensurável no resultado financeiro. Esses dois dados juntos descrevem um mercado que adotou a tecnologia em escala, sem entender o que ela faz, sem medir se funciona, e agora sem saber o que está rejeitando.

O caso Workday não está sozinho. Em 2025, Arshon Harper processou o Sirius XM Radio pela mesma razão: 149 candidaturas, todas rejeitadas pela ferramenta de triagem com IA. Harper alega que suas qualificações excediam os requisitos das vagas. O caso avança. A direção da jurisprudência está se tornando clara.

Tem uma dinâmica de incentivos que ninguém menciona quando fala de adoção de IA em RH: o problema que a ferramenta resolve é real. Empresas recebem centenas de candidaturas para cada vaga. Nenhum recrutador humano lê tudo. A pressão para automatizar triagem não é preguiça corporativa — é operacional. E os fornecedores de SaaS de RH vendem exatamente isso: eficiência, consistência, redução de viés humano.

O argumento de venda é sedutor porque parte de uma premissa verdadeira: humanos são enviesados. Recrutadores favorecem candidatos parecidos com eles. Gestores contratam de redes conhecidas. IA seria mais objetiva. O problema é que "objetiva" e "justa" não são a mesma coisa. Um modelo treinado em dados de quem foi contratado nos últimos dez anos vai aprender qual é o perfil de contratação da empresa — e vai otimizar para reproduzir esse perfil. Se esse perfil era majoritariamente branco, jovem e sem deficiência, o modelo vai rejeitar quem diverge disso. Sem malícia. Com precisão.

A conversa sobre IA em RH no Brasil ainda está na fase de entusiasmo. Empresas compram ferramentas de triagem automatizada como extensão natural do ATS que já usam. O jurídico não está na sala quando essa decisão é tomada. O compliance não perguntou se a ferramenta foi auditada para viés. E o fornecedor certamente não ofereceu esse dado espontaneamente.

O executivo brasileiro que precisa sair desta leitura com uma ação concreta tem três perguntas para fazer hoje: quais ferramentas de triagem automatizada estão operando no processo seletivo da empresa, quem foi o último a auditar os critérios que esses modelos usam para rejeitar candidatos, e existe algum mecanismo de revisão humana disponível para quem foi rejeitado automaticamente — conforme exige o artigo 20 da LGPD.

Se a resposta às três for "não sei", "nunca" e "não", a empresa tem um risco ativo que não está no mapa. O caso Workday ainda está em andamento nos EUA, mas a tese jurídica que avançou — fornecedor de IA como agente corresponsável — vai chegar a outras jurisdições. Incluindo a nossa.

No Brasil, a empresa não precisa esperar jurisprudência nova para ter exposição. A Lei 9.029/95 proíbe práticas discriminatórias no acesso ao emprego e não exige que a empresa tenha tido intenção. Um modelo que rejeita sistematicamente candidatos negros, mais velhos ou com deficiência produz efeito discriminatório — independente de quem o treinou, de quem o comprou, e de ninguém ter escrito essa regra em lugar nenhum. O fato de ser um algoritmo não neutraliza o resultado. Só o torna mais difícil de detectar.

O artigo 20 da LGPD é mais direto do que qualquer lei americana nesse ponto: o titular de dados tem direito de solicitar revisão humana de decisão tomada exclusivamente por meios automatizados que produza efeitos significativos. Rejeição de emprego é efeito significativo por definição. São raras as empresas brasileiras que implementaram fluxo formal de revisão humana em processos seletivos automatizados. O MPT tem legitimidade para investigar práticas discriminatórias sistêmicas em seleção — e uma ação civil pública não precisa de um Derek Mobley para começar. Precisa de um auditor fiscal do trabalho que decida olhar para isso.

O contrato que a empresa brasileira assinou com seu fornecedor de SaaS de RH quase certamente contém uma cláusula dizendo que o fornecedor não é responsável por decisões discriminatórias tomadas pelos empregadores usando a plataforma. A CLT não se importa com essa cláusula. O empregador responde. O fornecedor está protegido pelo contrato. A empresa, não.

Se você usa IA em triagem de candidatos, o mínimo operacional são três coisas: auditoria técnica documentada do modelo — o que ele usa como variável para rejeitar, com que frequência rejeita cada grupo demográfico; cláusula contratual que compartilhe responsabilidade com o fornecedor em caso de efeito discriminatório comprovado; e fluxo formal de revisão humana disponível sob demanda, conforme exige o art. 20 da LGPD. Sem os três, você não tem governança — tem exposição não mapeada. IA explicável não é detalhe técnico — é a única forma de provar, quando questionada, que o modelo não discriminou.

Terceirizar a decisão para um algoritmo nunca foi o mesmo que terceirizar a responsabilidade. O tribunal só tornou isso oficial.

Fontes: Law and the Workplace — Mobley v. Workday, certificação da class action (jun. 2025)  ·  Inside Tech Law — teoria do "agente" e implicações para empregadores (jun. 2025)  ·  Fisher Phillips — 6 ações que empregadores devem tomar após a decisão (mai. 2025)  ·  Employment Law Worldview — compliance no uso de IA em contratação (fev. 2026)  ·  Planalto — Lei 9.029/1995 (práticas discriminatórias no emprego)  ·  Planalto — Lei 13.709/2018 (LGPD, art. 20)