
Há 15 anos, decidir com dados significava, na maioria das vezes, analisar relatórios ou dashboards estáticos. Hoje, a realidade é outra. Os dados evoluíram de um acessório informativo para uma ferramenta estratégica essencial, sendo usados proativamente por empresas que desejam extrair valor real e tomar decisões ágeis — especialmente em mercados como o financeiro, onde a influência macroeconômica e a necessidade de adaptação constante são inevitáveis.
Embora o mundo tenha mergulhado em buzzwords como Big Data, Analytics e Inteligência Artificial, muitas empresas ainda enfrentam um paradoxo: muita informação, pouco impacto.
É comum ver organizações investindo em enormes data lakes, relatórios sofisticados e projetos ambiciosos que acabam não resolvendo nenhuma dor concreta. “Dados só têm valor quando resolvem problemas reais, e não quando são usados apenas para inovação vazia”, afirma Eduardo Berti, CTO da nstech, atualmente a quarta maior empresa de software do País e com grande foco em soluções para logística. O executivo falou sobre o tema em participação no Data Science Forum, organizado pelo Instituto Information Management, em São Paulo.
Imediatismo: inimigo da qualidade de dados
No Brasil, a cultura do imediatismo interfere diretamente na maturidade analítica. Projetos são iniciados às pressas, gerando desperdício de tempo e dinheiro — muitas vezes sem serem usados. De maneira geral, três pilares sustentam esse problema em qualquer indústria:
- Dados não estruturados e com baixa acurácia
- Falta de cultura de dados no desenvolvimento de produtos
- Adoção precipitada de tecnologias sem entender seu valor real
A transformação cultural está no centro dos desafios e precisa começar com a experimentação. Berti cita um exemplo prático: duas squads com desafios semelhantes, sendo que apenas uma incorporava dados desde o início. Apesar da aparente velocidade da equipe “intuitiva”, foi a equipe orientada a dados que gerou valor e resultados concretos.
A conclusão? Pensar em dados desde o início do produto melhora a eficiência e impulsiona o negócio para outro patamar. Mas será que uma empresa de médio porte também consegue tirar proveito desse pensamento?
Para o CTO da nstech sim, mesmo com menos recursos, é possível aplicar ciência de dados com foco. A chave está em identificar dores claras. Um exemplo: entender por que motoristas estão parados — estão sendo roubados ou apenas parando para ir ao banheiro? Essa pequena diferença pode ter grande impacto logístico.
Inteligência de Dados em Logística: Casos Reais
Exemplo 1: Fila de Caminhões e Multas
Uma empresa enfrentava multas recorrentes por fila de 150 caminhões na saída de uma rodovia. Com a análise de dados, descobriu-se que o gargalo não era na descarga (30 minutos por carga), mas na chegada desorganizada. Com inteligência aplicada à roteirização, o tráfego foi redistribuído e o problema resolvido.
Exemplo 2: Logística Sustentável e Carga Fracionada
Até 40% dos caminhões trafegam pelo País com carga parcial ou vazios. Com inteligência artificial, a NSTech desenvolveu um algoritmo para unir embarcadores e motoristas em tempo real, maximizando o uso da capacidade de carga, reduzindo o CO₂ emitido e otimizando fretes.
Arquitetura da Informação
Os resultados atingidos pelos projetos da nstech, no entanto, não são sem uma boa e fundamentada estratégia e uma complexa arquitetura de dados. Berti, afirma que ser data-driven é essencial e que o produto precisa gerar inteligência real. O executivo entende ainda que o olhar precisa estar voltado a eventos, ou seja, as informações precisam circular em tempo real. Atualmente, a nstech utiliza um data lake com 15 hubs informacionais. Porém, Eduardo ressalta: nem toda informação deve estar no data lake — apenas o que gera valor. O restante, deve ser descartado.
Embora Berti tenha compartilhado diversos exemplos exitosos sobre uma boa estratégia de dados, o executivo, ao longo de sua carreira em tecnologia presenciou muita coisa que não saiu como desejado. Assim, ele citou o que considera três erros ainda bastante comuns em projetos de dados:
- Data lakes gigantes sem valor real: grandes investimentos em dados que não são utilizados.
- Data lakes “piratas”: sistemas paralelos onde realmente está o valor, mas sem controle ou acurácia.
- Dados mal estruturados e sem padronização: comprometem todo o processo analítico.
Sem comentários registrados