Eduardo Berti, CTO da nstech

Há 15 anos, decidir com dados significava, na maioria das vezes, analisar relatórios ou dashboards estáticos. Hoje, a realidade é outra. Os dados evoluíram de um acessório informativo para uma ferramenta estratégica essencial, sendo usados proativamente por empresas que desejam extrair valor real e tomar decisões ágeis — especialmente em mercados como o financeiro, onde a influência macroeconômica e a necessidade de adaptação constante são inevitáveis.

Embora o mundo tenha mergulhado em buzzwords como Big DataAnalytics e Inteligência Artificial, muitas empresas ainda enfrentam um paradoxo: muita informação, pouco impacto.

É comum ver organizações investindo em enormes data lakes, relatórios sofisticados e projetos ambiciosos que acabam não resolvendo nenhuma dor concreta. “Dados só têm valor quando resolvem problemas reais, e não quando são usados apenas para inovação vazia”, afirma Eduardo Berti, CTO da nstech, atualmente a quarta maior empresa de software do País e com grande foco em soluções para logística. O executivo falou sobre o tema em participação no Data Science Forum, organizado pelo Instituto Information Management, em São Paulo. 

Imediatismo: inimigo da qualidade de dados

No Brasil, a cultura do imediatismo interfere diretamente na maturidade analítica. Projetos são iniciados às pressas, gerando desperdício de tempo e dinheiro — muitas vezes sem serem usados. De maneira geral, três pilares sustentam esse problema em qualquer indústria:

  1. Dados não estruturados e com baixa acurácia
  2. Falta de cultura de dados no desenvolvimento de produtos
  3. Adoção precipitada de tecnologias sem entender seu valor real

A transformação cultural está no centro dos desafios e precisa começar com a experimentação. Berti cita um exemplo prático: duas squads com desafios semelhantes, sendo que apenas uma incorporava dados desde o início. Apesar da aparente velocidade da equipe “intuitiva”, foi a equipe orientada a dados que gerou valor e resultados concretos.

A conclusão? Pensar em dados desde o início do produto melhora a eficiência e impulsiona o negócio para outro patamar. Mas será que uma empresa de médio porte também consegue tirar proveito desse pensamento?

Para o CTO da nstech sim, mesmo com menos recursos, é possível aplicar ciência de dados com foco. A chave está em identificar dores claras. Um exemplo: entender por que motoristas estão parados — estão sendo roubados ou apenas parando para ir ao banheiro? Essa pequena diferença pode ter grande impacto logístico.

Inteligência de Dados em Logística: Casos Reais

Exemplo 1: Fila de Caminhões e Multas

Uma empresa enfrentava multas recorrentes por fila de 150 caminhões na saída de uma rodovia. Com a análise de dados, descobriu-se que o gargalo não era na descarga (30 minutos por carga), mas na chegada desorganizada. Com inteligência aplicada à roteirização, o tráfego foi redistribuído e o problema resolvido.

Exemplo 2: Logística Sustentável e Carga Fracionada

Até 40% dos caminhões trafegam pelo País com carga parcial ou vazios. Com inteligência artificial, a NSTech desenvolveu um algoritmo para unir embarcadores e motoristas em tempo real, maximizando o uso da capacidade de carga, reduzindo o CO₂ emitido e otimizando fretes.

Arquitetura da Informação

Os resultados atingidos pelos projetos da nstech, no entanto, não são sem uma boa e fundamentada estratégia e uma complexa arquitetura de dados. Berti, afirma que ser data-driven é essencial e que o produto precisa gerar inteligência real. O executivo entende ainda que o olhar precisa estar voltado a eventos, ou seja, as informações precisam circular em tempo real. Atualmente, a nstech utiliza um data lake com 15 hubs informacionais. Porém, Eduardo ressalta: nem toda informação deve estar no data lake — apenas o que gera valor. O restante, deve ser descartado.

Embora Berti tenha compartilhado diversos exemplos exitosos sobre uma boa estratégia de dados, o executivo, ao longo de sua carreira em tecnologia presenciou muita coisa que não saiu como desejado. Assim, ele citou o que considera três erros ainda bastante comuns em projetos de dados:

  1. Data lakes gigantes sem valor real: grandes investimentos em dados que não são utilizados.
  2. Data lakes “piratas”: sistemas paralelos onde realmente está o valor, mas sem controle ou acurácia.
  3. Dados mal estruturados e sem padronização: comprometem todo o processo analítico.

Sem comentários registrados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *