Painelista durante encontro no inovabra

A evolução da inteligência artificial para interfaces mais naturais com voz, memória contextual e capacidade de modelar sistemas já faz parte de produtos digitais. O tema foi debatido em um encontro no inovabra, trazendo perspectivas de especialistas para discutir até onde vai a “humanidade” da IA.

Um consenso entre os participantes é que a qualidade das aplicações depende diretamente da base, tanto de dados quanto de entendimento do comportamento humano. A construção de sistemas mais “humanizados” exige não apenas engenharia, mas também conhecimento sobre cognição, linguagem e contexto de uso. Sem essa camada, os modelos tendem a entregar respostas corretas tecnicamente, mas desalinhadas da intenção real do usuário.

Na prática corporativa, esse princípio se traduz em algo direto: saber pedir é tão relevante quanto saber programar. “É tudo baseado no jeito de perguntar, no jeito de falar, no jeito de interagir com a IA, no jeito de contextualizar ela com arquivos”, explicou Roque Jose Ribeiro da Silva Junior, Gerente de TI do Bradesco. Estruturas de prompt, contexto bem definido e objetivo claro determinam a qualidade do output. Há indícios de ganhos expressivos quando equipes são treinadas para interagir melhor com IA, padronizando linguagem, objetivos e limites operacionais.

Outro ponto destacado é a importância de dados contextuais e regionais. Thiago Nascimento, Digital Services Vice President da Capgemini, destacou que “do ponto de vista de quem está implementando uma solução dessa, entender o comportamento, entender o público, entender o contexto, e obviamente gerar dados para isso, é fundamental para o sucesso”. Sem essa calibração, sistemas tendem a falhar mesmo com modelos sofisticados.

Resistências na nova lógica de trabalho

Apesar do avanço, a adoção ainda enfrenta resistências internas. Áreas menos expostas à tecnologia, especialmente criativas, tendem a reagir com mais cautela à IA. Há também a percepção de que parte dos profissionais teme perda de protagonismo, sobretudo quando ferramentas passam a executar tarefas antes consideradas autorais.

Os participantes reforçaram que a IA não elimina o papel humano, mas redefine sua função. Para Mario Uliani Neto, Technical Leader do CPQD, a tendência observada é a substituição de tarefas operacionais simples. Porém ele frisa que “tarefas mais complexas ainda terão o humano no centro. Entender os diferenciais que o humano vai ter ali, para se apoiar, se potencializar com essa tecnologia é o caminho que a gente como humano deveria entender e seguir”.

Na prática, isso já impacta métricas de desempenho. Há relatos de redução drástica no tempo de execução de tarefas complexas, desde que a etapa de especificação seja aprofundada. Em alguns casos, o desenvolvimento de soluções que levava semanas passa a ser realizado em dias, quando o problema está descrito de forma bem estruturada.

A importância da governança

Painelistas durante encontro no inovabra.

Se por um lado a IA amplia performance, por outro intensifica riscos. Tecnologias como clonagem de voz, deepfakes e automação de decisões sem rastreabilidade levantam questões críticas sobre confiança e responsabilidade. E ainda há lacunas relevantes, tanto tecnológicas quanto regulatórias, para lidar com esses desafios.

Definir riscos, responsabilidades e mecanismos de monitoramento é condição para escalar aplicações com segurança. A lógica segue princípios já conhecidos em outros sistemas: a IA executa conforme instruída, mas o desenho da instrução, dos limites e das validações é humano. Mario exemplificou: “quais são os riscos de uma aplicação? E para cada eventual erro ou problema que você possa ter, quem é o responsável por aquele ponto da solução?”. Isso precisa estar bem definido na governança.

Na finalização da conversa foi trazida a criticidade que envolve o impacto no relacionamento com clientes. O aumento de golpes digitais, muitas vezes apoiados por IA, já afeta canais tradicionais, como ligações telefônicas, reduzindo a confiança do usuário. Os participantes abordaram que o avanço da IA exigirá evolução regulatória. Assim como ocorreu com a proteção de dados, a expectativa é de marcos legais ainda mais robustos para automação e responsabilidade algorítmica.

Sem comentários registrados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *