
O frisson em torno da inteligência artificial vem acompanhado de uma série de debates que vão desde questões relacionadas à sustentabilidade até o uso responsável e a responsabilização por eventuais erros. A jornada para fazer uso dessas plataformas de maneira responsável nas empresas, no entanto, pede mais que um olhar ao campo tecnológico em si, mas investimentos em conhecimento e um trabalho duro em governança e cultura corporativa. O tema esteve em debate durante painel no RPA & AI Congress, nesta terça-feira (15/07), em São Paulo, que contou com a participação de Aguinaldo Aragon, diretor da Conceptus, Leandro Bissoli, Manager Partner do Peck Advogados, e Walter Koch, CEO da IWare.
Algo que diversos especialistas têm levantado há pelo menos dois anos também integrou a discussão que é o debate estratégica em torno de projetos de inteligência artificial. Antes de qualquer implantação, entender como a tecnologia é aderente a determinado projeto ou estratégia do ponto de vista de negócio é fundamental, não apenas para o uso responsável, mas para ter bons resultados, como ressaltou Aragon. “Parte dos projetos com IA generativa estão sendo cancelados porque não tem propósito”, resumiu o especialista, que lançou recentemente o livro Governança da Inteligência Artificial: estrutura, desafios e práticas para organizações inovadoras.
Governança first
Nessa linha da estratégia, algo importante é pensar de maneira holística e como cada camada da organização tem sua responsabilidade. Parte disso é uma boa arquitetura de dados já que, sem bons dados, projetos de IA são fadados ao insucesso ou a cometer erros e deslizes que podem comprometer o uso responsável da ferramenta. Como explicou Koch, no cenário atual, sobretudo quando se pensa em gestão de documentos, por exemplo, você sai de uma realidade onde se armazenava para buscar quando necessário, para uma onde se passa a ter que usar tais documentos quase que o tempo todo. “Não adianta comprar tecnologia se não tiver o acervo de informação devidamente preparado, apoio da alta gestão e boa arquitetura de informação”, ensinou o executivo.
Afora essa estrutura de suporte para um bom funcionamento da IA e de mecanismos que colaboram para uma governança adequada sobre o uso da ferramenta, como criação de comitês executivos, existe a necessidade de estar atento a movimentações legais, como a própria Lei Geral de Proteção de Dados (LGPD), sigilo e a própria regulação de inteligência artificial em discussão no Congresso. Uma vez aderente às boas práticas, na visão de Koch, o sinal está liberado para pensar em ferramental a partir da visão estratégica.
Riscos associados
Parte do desafio enfrentado pelas corporações reside também em gestão baseada em modismo, naquilo que a academia chama de Management Fashion, ou seja, liderar a empresa a partir de tendências, muitas vezes absorvendo soluções e práticas comercializadas por fabricantes e consultorias sem ao menos saber se: 1 vai gerar valor para o negócio; 2 se a empresa está preparada para tirar proveito de determinada tecnologia ou processo.
Diante desse contexto, Bissoli, do Peck Advogados, afirma que o risco para empresas é muito alto, sobretudo onde a governança é baixa e se volta muito para o hype. O especialista reconhece que os gestores são muito impactados pelos discursos das Big Techs e pelo temor de obsolescência se não seguir o caminho da IA pela IA. “Mas a governança é necessária e vem cross. São necessários direcionadores, freios, para entender o que não deve ser feito com IA”, comentou. Ao detalhar os riscos que as empresas sofrem sem uma boa governança, Bissoli listou perda de confiabilidade, propriedade intelectual. “Informações podem estar sendo passadas para o público final sem revisão humana. Há um paralelo com os processos de adaptação à LGPD, sobretudo no cuidado com os dados”.
Por onde começar?
Com tantos pontos debatidos, como fazer uso responsável da inteligência artificial? Aragon, da Conceptus, entende que a melhor maneira de iniciar essa trajetória é manter boa comunicação com a alta gestão, estabelecer um programa, pensar na estratégia, na política e em como organizar o uso da IA generativa na organização. “É previso avaliar o apetite ao risco, qual a tolerância da companhia e isso depende da visão da alta gestão. Também tem de olhar requisitos éticos, legislação vigente, pensar transparência, regular todos esses pontos”, detalhou.
Para Aragon, a questão da visão ética precisa ser refletida com ou sem legislação e isso é uma decisão da alta gestão da empresa e não da tecnologia em si. “Governança de IA é do board, do conselho para baixo são práticas de gestão”. Mas com tanta complexidade, médias empresas conseguiriam aderir a um uso responsável? Na visão dos painelistas sim. Aragon entende que aí, normalmente, dependerá do dono da organização e dos recursos à disposição. Já Bissoli relembrou de estruturações realizadas pelo escritório para empresas de médio porte. “Nesses casos, cria-se comitê multidisciplinar para falar sobre a finalidade. O fluxo do uso da tecnologia, criar princípios de como homologar a tecnologia para as rotinas corporativas. O comitê avaliar os indicadores de segurança, conformidade e governança”, compartilhou o advogado. “Um comitê multidisciplinar é muito importante, para olhar risco, compliance, assim como ter alguém com formação acadêmica em gestão documental”, complementou Koch, da IWare.
Cultura e conhecimento
Para completar a discussão, ao refletirem sobre o que mais surge com entrave para o uso responsável da IA no Brasil, os especialistas trouxeram, principalmente, dois pontos: cultura organizacional e conhecimento. Koch comentou que em cultura tem muita ligação com alinhamento. “A empresa não sabe o que está falando, fica no modismo, acha caro investir em metadado, acha que IA é bala de prata. Entra no baile e acha que vai sair com cinderela, mas vai sair com boa noite cinderela”, provocou.
Aragon segui na mesma linha da cultura e trouxe para a mesa a centralização do poder ao lembrar que, se em um comitê, o dono tiver preponderância, não funciona. “As decisões não saem boas. A questão da responsabilidade é difícil de implementar, assim como a explicabilidade, é preciso explicar algoritmo, de onde os dados vêm, se são confiáveis.”
Para Bissoli, associado à questão da cultura da empresa, está a falta de conhecimento e as empresas têm pecado muito nisso, não à toa a quantidade de erros ou de projetos mal executados. “Todos investem, mas não conhecem, acham que não terão trabalho para implementar, falta conhecimento até do processo”, avaliou. Koch complementou ao frisar que é necessário praticamente um trabalho de evangelização até para garantir que todos os níveis da empresa estejam na mesma página.
Sem comentários registrados