Acima do Noise Floor × supply-chain × caso-real × ml-vs-hype
O ESSENCIAL
A General Mills economizou $20M em 5.000 embarques diários com ML — problema específico, dado estruturado, modelo integrado dentro do processo. O investimento que tornou isso possível tem 160 anos. Dado limpo não vem de projeto de dados: vem de décadas de operação estruturada antes que IA virasse moda.
DECISÃO EM JOGO: Iniciar projeto de IA vs. auditar a qualidade dos dados que o sustentam
O projeto não tem nome bonito. Não virou case de palco no Davos. O CFO da General Mills anunciou os resultados numa conferência de investidores em fevereiro de 2025, em duas frases, sem cerimônia: mais de 5.000 embarques avaliados diariamente. Mais de $20 milhões em economia desde o ano fiscal de 2024.
Não tem glamour nenhum nessa frase. É exatamente por isso que funciona.
A General Mills opera uma rede de abastecimento de escala industrial: dezenas de fábricas, centenas de SKUs, milhares de pontos de distribuição. Diariamente, a empresa precisa tomar cerca de 5.000 decisões de embarque — de qual planta sai, pra qual armazém vai, em qual modal, com qual lead time. Cada decisão carrega custo de frete, custo de estoque em trânsito, risco de ruptura e custo de sobrestoque.
Antes do modelo de AI, essas decisões eram tomadas por planilha e experiência de planejador. Funciona — até o ponto em que não funciona mais. Planilha e experiência humana não processam 5.000 variáveis simultâneas com dados em tempo real de custo de frete por rota, nível de estoque por armazém, demanda projetada por região, e capacidade disponível por fábrica. O planejador prioriza. Simplifica. Usa heurística. A decisão sai, mas não é a melhor decisão possível — é a decisão que o tempo e a cognição humana permitem.
O modelo de otimização de rede entra exatamente nesse gap. Não é chatbot. Não é GenAI. É otimização matemática com machine learning na camada de previsão de demanda — dois problemas distintos, resolvidos com ferramentas distintas, integrados no mesmo workflow de planejamento.
O que esse case tem que a maioria dos projetos de IA não tem é uma lista curta de coisas chatas.
Primeiro: problema bem delimitado. Não "otimizar a cadeia de suprimentos" — uma frase que pode significar qualquer coisa e, portanto, não significa nada. O problema era específico: minimizar custo total de embarque mantendo nível de serviço. Input definido, output definido, critério de sucesso que existia antes do projeto começar.
Segundo: dado pronto. A General Mills tem décadas de dados estruturados de transação logística — custo de frete por rota, nível de serviço histórico, variação de demanda por período. Não perfeito — dado nunca é perfeito — mas suficientemente limpo e estruturado para alimentar um modelo sem precisar de um projeto paralelo de saneamento de dados de dois anos.
Terceiro: integração real no workflow operacional. O modelo não é uma ferramenta que o planejador abre quando quer. É o sistema que gera a recomendação de embarque todo dia, que vai pra validação e aprovação antes de executar. A IA entrou no processo, não ao lado do processo. Essa diferença parece semântica. Não é. Ferramenta ao lado do processo tem taxa de adoção de 30%. Sistema dentro do processo tem taxa de adoção de 100% porque não tem opção de ignorar.
Quarto: não substituiu o planejador — aumentou a capacidade dele. Esse ponto é contra-intuitivo numa discussão dominada por "IA vai substituir empregos." O planejador antes tomava 5.000 decisões por dia com dado incompleto e tempo insuficiente pra analisar cada uma. Agora ele valida 5.000 recomendações geradas pelo modelo, com atenção concentrada nos casos limítrofes onde o modelo tem menor confiança. A decisão continua humana nos pontos que importam. O volume de análise que o humano não conseguia fazer foi transferido pra máquina.
O resultado é mais decisões melhores — não menos gente tomando decisão.
A camada que raramente aparece na cobertura desse case é o que torna o resultado difícil de replicar sem trabalho prévio.
A General Mills tem 160 anos de operação. Tem ERP consolidado. Tem dados limpos porque teve décadas pra limpar. O investimento em infraestrutura de dados que antecede o modelo de IA não aparece no slide de "$20 milhões em economia" — mas está lá. Cada centavo de resultado tem por trás um investimento anterior em fundação que a maioria das empresas ainda não fez.
Uma empresa com operação de cinco anos, ERP implantado há três, e processo de planejamento que ainda depende de planilha paralela ao sistema oficial não vai ter os mesmos resultados com a mesma velocidade. Não porque o modelo seja diferente. Porque a fundação é diferente.
O case é real. A lição é real. Mas a premissa é específica, e replicar o resultado exige ter as mesmas fundações — não apenas o mesmo modelo.
A pergunta certa antes de tentar replicar não é "temos IA?" É: temos os dados que esse tipo de modelo precisa, no formato que ele consegue processar, integrados no processo onde a decisão acontece, com governança que sustenta a operação no dia 400 — não só no dia do piloto?
Se a resposta for não em qualquer parte dessa pergunta, o problema a resolver não é escolher o modelo. É construir a fundação.
Vinte milhões de dólares não vieram da AI. Vieram de décadas de dados limpos — e da AI que soube usá-los.
Fontes: CIO Dive, 19 fev 2025 · Food Dive, 21 fev 2025 · Supply Chain Dive, 29 mar 2024 · Supply Chain Strategy, 15 abr 2024 · Consumer Goods Technology, jan 2025 · Enterprise AI Innovators (podcast), Jaime Montemayor — CDTO General Mills