Pesquisa traça guia sobre vieses e algoritmos para uso de sistemas de IA de forma responsável

15 de outubro de 2025

Estudo aponta medidas para mitigar vieses em sistemas de IA, como promover diversidade, definir objetivos claros, monitorar critérios de fairness e aprimorar a gestão de riscos.

 

O Centro de Ensino e Pesquisa em Inovação (CEPI) da FGV Direito SP lançou um guia para empresas e organizações sobre o desenvolvimento e o uso responsável de sistemas de inteligência artificial. O lançamento do relatório Governança Da Inteligência Artificial Em Organizações Arquitetura de Confiabilidade e Gestão de Vieses marca o encerramento dos trabalhos de um projeto de pesquisa aplicada que contou com a condução de grupo de pesquisa com especialistas externos no tema, além de entrevistas com as empresas parceiras.

O produto final busca consolidar as principais preocupações, contribuições e tarefas sobre esse tema complexo e interdisciplinar. Para isso, a pesquisa elegeu três frentes de atuação: 1) a consolidação de um vocabulário comum e conhecimento de base entre os diferentes profissionais que lidam com o desafio de vieses nas soluções tecnológicas de suas empresas; 2) a conscientização sobre o panorama de riscos que uma organização está sujeita quando implementa soluções de IA; e 3) a adaptação dos instrumentos de governança organizacional a estes desafios.

De acordo com Luiza Morales, pesquisadora do CEPI, o estudo traça um panorama instrumental importante para que as empresas usem a inteligência artificial de forma ética, promovendo maior segurança ao ecossistema de inovação e atenção ao que vem sendo chamado de justiça algorítmica.

A implementação de soluções de IA é objeto de trabalho para muitas áreas do conhecimento. O relatório relaciona o tema com preocupações oriundas da regulação de proteção de dados pessoais, além de outros campos como Direito antidiscriminatório, diversidade e inclusão, gestão de riscos, entre outras. Assim, o relatório se dedica a passar conceitos importantes sobre discriminação, fairness e como o Direito já tem olhado para o tema, com foco nos marcos legais que embasam a proteção à igualdade e a vedação a práticas discriminatórias – contribuição caracterizada não apenas como mero glossário, mas como uma consolidação das principais discussões e entendimentos dos campos, para dirimir equívocos recorrentes e para que o tema seja abordado de forma holística.

A pesquisa também traz uma consolidação das principais discussões e entendimentos em relação ao conhecimento sobre tecnologia, sendo este importante para o entendimento das complexificações de quando os algoritmos passam a mediar nossas relações sociais e, assim, demandam novas soluções jurídicas e organizacionais.

Nesse sentido, o estudo permite um entendimento sobre as diversas entradas para os vieses na tecnologia e, logo, possíveis ações de gestão desses riscos. Assim, a pesquisa observa que uma abordagem recorrente na prática e na literatura como estratégia de governança de inteligência artificial é a observação das atividades do ciclo de vida de um modelo de uma solução algorítmica, identificando em quais momentos esses vieses podem ser introduzidos ou amplificados. Após a comparação dessas diferentes referências, a pesquisa propõe uma consolidação do ciclo em macromomentos que orientarão o trabalho de governança.

O relatório tem um capítulo dedicado à exposição dos cenários de risco a partir da perspectiva das organizações, levando em consideração não apenas as consequências de sanções legais, mas também a sustentabilidade do negócio e do ecossistema de inovação, atentando para os riscos sistêmicos e as consequências que vieses podem trazer para a qualidade dos produtos e processos organizacionais.

Em sua exposição, o relatório traça um panorama para que as organizações, ao navegarem no tema, não apenas entendam as diferentes perspectivas envolvidas, mas possam personalizar o seu caminho de governança de acordo com padrões já adotados, recursos já dispendidos, cultura, capacitação e apetite de risco.

Com a análise de pesquisas aplicadas ao tema, o estudo constatou que se costumam localizar as medidas no ciclo apresentando soluções tanto comuns quanto originais. A partir disso, o relatório consolidou 11 conjuntos de medidas:

– Realizar supervisão humana

– Promover diversidade, independência e participação

– Identificar objetivos e contexto da solução e questionar efeitos

– Eleger e monitorar critérios de fairness

– Planejar e documentar a gestão de riscos

– Familiarizar-se com o dataset e analisar sua adequação

– Considerar, examinar e selecionar variáveis, features e proxies

– Considerar a experiência do usuário

– Tratar e preparar os dados

– Desenhar ou selecionar modelos interpretáveis

– Operar constrições e obstáculos no modelo

Esses conjuntos de medidas são detalhados no relatório de acordo com o que cada momento do ciclo de vida da solução de IA pede, apontando quais tipos de vieses podem ser sanados com cada um desses conjuntos de medidas.

Desse modo, a última contribuição do estudo se caracteriza pela união da consolidação de ciclos com o repositório de medidas, formando uma ferramenta de transposição de frameworks já consagrados que busca trazer praticidade e clareza no grande desafio que é a governança de vieses em IA.

A pesquisa foi lançada em setembro contou com a parceria e financiamento do Banco do Brasil, B3, Mercado Livre e Banco BV.

Saiba mais sobre a pesquisa Governança em Inteligência Artificial (IA): Vieses e Algoritmos | FGV DIREITO SP

 

 

Originalmente publicado em:
https://direitosp.fgv.br/noticias/pesquisa-traca-guia-sobre-vieses-algoritmos-para-uso-sistemas-ia-forma-responsavel