Pesquisa traça guia sobre vieses e algoritmos para uso de sistemas de IA de forma responsável

Estudo aponta medidas para mitigar vieses em sistemas de IA, como promover diversidade, definir objetivos claros, monitorar critérios de fairness e aprimorar a gestão de riscos.
O Centro de Ensino e Pesquisa em Inovação (CEPI) da FGV Direito SP lançou um guia para empresas e organizações sobre o desenvolvimento e o uso responsável de sistemas de inteligência artificial. O lançamento do relatório Governança Da Inteligência Artificial Em Organizações Arquitetura de Confiabilidade e Gestão de Vieses marca o encerramento dos trabalhos de um projeto de pesquisa aplicada que contou com a condução de grupo de pesquisa com especialistas externos no tema, além de entrevistas com as empresas parceiras.
O produto final busca consolidar as principais preocupações, contribuições e tarefas sobre esse tema complexo e interdisciplinar. Para isso, a pesquisa elegeu três frentes de atuação: 1) a consolidação de um vocabulário comum e conhecimento de base entre os diferentes profissionais que lidam com o desafio de vieses nas soluções tecnológicas de suas empresas; 2) a conscientização sobre o panorama de riscos que uma organização está sujeita quando implementa soluções de IA; e 3) a adaptação dos instrumentos de governança organizacional a estes desafios.
De acordo com Luiza Morales, pesquisadora do CEPI, o estudo traça um panorama instrumental importante para que as empresas usem a inteligência artificial de forma ética, promovendo maior segurança ao ecossistema de inovação e atenção ao que vem sendo chamado de justiça algorítmica.
A implementação de soluções de IA é objeto de trabalho para muitas áreas do conhecimento. O relatório relaciona o tema com preocupações oriundas da regulação de proteção de dados pessoais, além de outros campos como Direito antidiscriminatório, diversidade e inclusão, gestão de riscos, entre outras. Assim, o relatório se dedica a passar conceitos importantes sobre discriminação, fairness e como o Direito já tem olhado para o tema, com foco nos marcos legais que embasam a proteção à igualdade e a vedação a práticas discriminatórias – contribuição caracterizada não apenas como mero glossário, mas como uma consolidação das principais discussões e entendimentos dos campos, para dirimir equívocos recorrentes e para que o tema seja abordado de forma holística.
A pesquisa também traz uma consolidação das principais discussões e entendimentos em relação ao conhecimento sobre tecnologia, sendo este importante para o entendimento das complexificações de quando os algoritmos passam a mediar nossas relações sociais e, assim, demandam novas soluções jurídicas e organizacionais.
Nesse sentido, o estudo permite um entendimento sobre as diversas entradas para os vieses na tecnologia e, logo, possíveis ações de gestão desses riscos. Assim, a pesquisa observa que uma abordagem recorrente na prática e na literatura como estratégia de governança de inteligência artificial é a observação das atividades do ciclo de vida de um modelo de uma solução algorítmica, identificando em quais momentos esses vieses podem ser introduzidos ou amplificados. Após a comparação dessas diferentes referências, a pesquisa propõe uma consolidação do ciclo em macromomentos que orientarão o trabalho de governança.
O relatório tem um capítulo dedicado à exposição dos cenários de risco a partir da perspectiva das organizações, levando em consideração não apenas as consequências de sanções legais, mas também a sustentabilidade do negócio e do ecossistema de inovação, atentando para os riscos sistêmicos e as consequências que vieses podem trazer para a qualidade dos produtos e processos organizacionais.
Em sua exposição, o relatório traça um panorama para que as organizações, ao navegarem no tema, não apenas entendam as diferentes perspectivas envolvidas, mas possam personalizar o seu caminho de governança de acordo com padrões já adotados, recursos já dispendidos, cultura, capacitação e apetite de risco.
Com a análise de pesquisas aplicadas ao tema, o estudo constatou que se costumam localizar as medidas no ciclo apresentando soluções tanto comuns quanto originais. A partir disso, o relatório consolidou 11 conjuntos de medidas:
– Realizar supervisão humana
– Promover diversidade, independência e participação
– Identificar objetivos e contexto da solução e questionar efeitos
– Eleger e monitorar critérios de fairness
– Planejar e documentar a gestão de riscos
– Familiarizar-se com o dataset e analisar sua adequação
– Considerar, examinar e selecionar variáveis, features e proxies
– Considerar a experiência do usuário
– Tratar e preparar os dados
– Desenhar ou selecionar modelos interpretáveis
– Operar constrições e obstáculos no modelo
Esses conjuntos de medidas são detalhados no relatório de acordo com o que cada momento do ciclo de vida da solução de IA pede, apontando quais tipos de vieses podem ser sanados com cada um desses conjuntos de medidas.
Desse modo, a última contribuição do estudo se caracteriza pela união da consolidação de ciclos com o repositório de medidas, formando uma ferramenta de transposição de frameworks já consagrados que busca trazer praticidade e clareza no grande desafio que é a governança de vieses em IA.
A pesquisa foi lançada em setembro contou com a parceria e financiamento do Banco do Brasil, B3, Mercado Livre e Banco BV.
Saiba mais sobre a pesquisa Governança em Inteligência Artificial (IA): Vieses e Algoritmos | FGV DIREITO SP
Originalmente publicado em:
https://direitosp.fgv.br/noticias/pesquisa-traca-guia-sobre-vieses-algoritmos-para-uso-sistemas-ia-forma-responsavel


