
O Centro de Ensino e Pesquisa em Inovação (CEPI) da FGV Direito SP apresentou um guia voltado a empresas e organizações sobre o uso responsável da inteligência artificial. Intitulado “Governança da Inteligência Artificial em Organizações: Arquitetura de Confiabilidade e Gestão de Vieses“, o material consolida recomendações práticas para reduzir riscos e estruturar a governança de soluções algorítmicas.
O documento resulta de um projeto de pesquisa aplicada que envolveu especialistas externos e empresas parceiras. A proposta é oferecer um panorama instrumental para apoiar a adoção ética da IA, fortalecendo a segurança jurídica e a chamada justiça algorítmica.
O estudo parte de três frentes de atuação: a criação de um vocabulário comum para profissionais que lidam com vieses em sistemas tecnológicos; a conscientização sobre riscos que emergem da implementação de IA; e a adaptação de instrumentos de governança organizacional a esse novo cenário.
Interdisciplinaridade em foco
Segundo comunicado de Luiza Morales, pesquisadora do CEPI-FGV, o relatório não se limita a um glossário técnico, mas organiza conceitos e práticas a partir de campos como proteção de dados, direito antidiscriminatório, diversidade e inclusão, além da gestão de riscos. O material contribui para que empresas compreendam a complexidade dos vieses e consigam tratá-los de forma holística.
Um dos pontos centrais é a análise do ciclo de vida dos modelos de IA, identificando em quais etapas os vieses podem surgir ou ser ampliados. O estudo revisitou frameworks como CRISP-DM, KDD, SEMMA, a norma ISO/IEC 8183:2023 e o AI Ethics and Governance in Practice do Alan Turing Institute, propondo uma consolidação desses referenciais em macromomentos de governança.
Recomendações para enfrentar os vieses algorítmicos
A partir desse diagnóstico, foram sistematizadas 11 medidas-chave para orientar as organizações: supervisão humana; promoção da diversidade; definição de objetivos e monitoramento de fairness; gestão de riscos documentada; análise crítica de datasets; escolha de variáveis e proxies adequadas; consideração da experiência do usuário; preparação dos dados; desenho de modelos interpretáveis; e aplicação de restrições ao modelo.
O relatório também dedica espaço aos cenários de risco, considerando não apenas sanções legais, mas impactos na sustentabilidade do negócio e no ecossistema de inovação. A ideia é que cada organização adapte o guia à sua cultura, recursos e apetite de risco, criando um caminho próprio de governança.
Sem comentários registrados