INTELIGÊNCIA ARTIFICIAL e os riscos do viés algorítmico
- Flávia Valéria
- 26 de jun. de 2022
- 5 min de leitura

Com o desenvolvimento da tecnologia e a multiplicação de possibilidades para o uso da inteligência artificial, os desafios começam a se intensificar, sendo um dele a questão do viés algorítmico de uma IA.
No primeiro texto sobre Inteligência Artificial - IA, abordei o trabalho de pesquisa do matemático e neurologista Marvin Minsky, do matemático John Mccarthy, Claude Shannon (matemático e criptógrafo) e Nathaniel Rochester (cientista da computação da IBM) que em 1955 iniciaram a construção das indagações sobre a inteligência artificial.
Não demorou a chegarem à conclusão de que precisariam reunir um grupo maior de pesquisadores para avançar nas teorias e proposições sobre a inteligência artificial.
Formada a equipe, inicialmente com 47 especialistas, identificá-los e recrutá-los já foi a demonstração da submissão aos vieses da época e o impacto das condições sociais. Em que pese mulheres, pessoas de todas as etnias e cor de pele já estivessem no campo desenvolvendo pesquisas nesse tema, os 47 notáveis convidados eram todos BRANCOS E HOMENS, limitando assim todo o campo de pesquisa e dados, pela exclusão que foi feita das mulheres e todas as outras tonalidades de pele, além de outras etnias e grupos.
Era o prenúncio do que estava por vir.
A humanidade já deveria estar acostumada, afinal aconteceu o mesmo com a Democracia em seus primórdios, originada na Grécia, privilegiou a casta de homens e cidadãos da pólis, com exclusão de mulheres, escravos e estrangeiros, que não tiveram direito a voz no exercício da função pública, muito menos no exercício democrático.
Não foi diferente na construção do nascedouro da inteligência artificial, lembrando que a questão racial estava presente fortemente nos EUA da década de 50 e os direitos das mulheres não eram ainda disseminados e fortalecidos como hoje, e mesmo assim, com toda a movimentação e luta para a igualdade de gênero hoje, ainda não foi possível a uma mulher ser Presidente dos EUA, em pleno séc. XXI, por exemplo.
Isso mostra o feito realizado por Marie Curie por ter conseguido fazer ciência e ser autora de suas descobertas, e ganhar Prêmio Nobel, num universo que ainda não reconhecia todos os talentos das mulheres, em especial, a pesquisa científica.
Voltando à equipe de notáveis, não fica difícil entender a explicação para a ausência das mulheres nesses primórdios da construção da inteligência artificial.
Enviesamento do pensamento, exclusão de gênero, cor da pele e situação econômica ou de localização geográfica, religiosa, enfim os vieses, impactam a construção da inteligência artificial, uma vez que esta é pautada, em alguns aspectos, na experiência humana.
A existência humana não é uma experiência de laboratório com condições controladas e especificas. Portanto, qualquer pensador e cientista sofre influências do seu tempo e espaço, da sua cultura e dos seus pares. Um cientista realmente inovador que rompa com os paradigmas de pensamento de sua época e sociedade não são comuns e levam tempo a implementar suas ideias.
É muito mais provável que os vieses que permeiam a atual sociedade sejam levados para a programação da Inteligência Artificial.
Para melhor compreensão, importante destacar, de forma simplificada, o processo de treinamento de uma inteligência artificial e seus 3 elementos:
1º) conjunto de dados disponível a ser usado por um modelo;
2º) o algoritmo de treinamento.
3º) o algoritmo modelo de treinamento que é o resultado do processo de treinamento, sobre o qual recaiu a “árvore de decisão” (momento em que o programador escolhe ou submete os parâmetros e elementos, para resultar na decisão).
Isso implica dizer que ao se usar um mesmo conjunto de dados e o mesmo algoritmo de treinamento, os resultados poderão ser distintos, se no caso de duas hipóteses distintas, forem treinados de formas diferentes, com elementos e características distintos inseridos (árvore de decisão), por exemplo:
CASE 1- usa dados relativos à idade, região, salário;
CASE 2- além da idade, região, salário do case 1, usa dados de gênero.
Ao se acrescentar mais um elemento, pode-se aumentar ou diminuir o viés num cenário concreto. E se o programador não estiver preparado e acostumado a lidar com questões sobre ética, sobre os problemas de minorias, enfim os desafios sociais, poderá apontar um direcionamento de acordo com suas convicções e compreensão da realidade do mundo, sob influência de sua educação e história de vida.
Lembrando que não há uma regulamentação sobre o procedimento nesse processo de treinamento de IA, que forneça balizas, diferentemente do que ocorre, por exemplo, no passo a passo conferido pelas leis nos estados democráticos de direito, para se proferir uma sentença criminal.
Apesar do conjunto de dados não ser a única fonte de viés em Inteligência Artificial, caso apresente algum tipo de viés, ele será repassado ao modelo de treinamento e contaminar todo o processo.
Sobre o viés é fundamental considerar:
1) está quase sempre presente, sendo preciso se conscientizar sobre esse fato;
2) é difícil de identificar e difícil de solucionar;
3) a possibilidade de implementação de um sistema de IA causar redução ou aumento do viés.
O cenário social deve ser investigado antes da decisão sobre qual modelo de IA a ser aplicado.
Por isso, a importância do acompanhamento e inclusão da diversidade nessas equipes de programação. Qual ou quais os objetivos de determinado algoritmo e os impactos possíveis no meio social? Sem o olhar social, ou os fundamentos da ética, fica difícil furar a bolha em que esteja inserido um técnico programador.
Nesse início de articulação para desenvolver o novo saber humano que resulta na construção do que seja identificado por inteligência artificial percebe-se a necessidade de uma rede de pesquisadores interdisciplinares.
Assim, a melhor garantia para que a construção de um algoritmo possa atender a multidisciplinariedade humana, seja regulamentar que essas equipes tenham uma formação mista, com integrantes de culturas diferentes, idades diferentes, gêneros diferentes, várias etnias e cor da pele, diferentes experiências de vidas, distintas graduações, para que nesse olhar multifacetado possa ser trazido pontos de vistas os mais diversos sobre o mesmo aspecto, evitando, assim, a dominação de um único ponto de vista ou a orientação para um único olhar de observação.
Esse processo de diversificação e pluralidade já se encontrava bastante atrasado em 2017, como se observa das declarações, de Fei-Fei Li, a responsável pelo laboratório de Inteligência Artificial de Standford e principal cientista do Google Cloud em IA:
“Como educadora, como mulher, como minoria, como mãe, estou cada vez mais preocupada. A IA está prestes a efetuar as maiores mudanças que a humanidade já viu e estamos perdendo uma geração diversificada de tecnólogos e líderes. Se as mulheres e as minorias forem ignoradas- tecnólogos inquestionáveis colocando a mão na massa – estamos influenciando de um jeito errado os sistemas. Tentar reverter as consequências de uma década ou duas, a partir de agora, será bastante difícil, se não quase impossível.” (Fei-Fei Li)
Esse alerta foi feito no mesmo ano em que um engenheiro da Google enviou um memorando, misógino e sexista, apontando que as mulheres seriam biologicamente menos capazes de programar.
O CEO da Google, Sundar Pichai em resposta a esse memorando, determinou a demissão do engenheiro, mas admitiu ser justo discutir o que estava no memorando.
Olha o tamanho da aberração que o CEO estava admitindo!
Assim como no restante da sociedade, as mulheres cientistas da tecnologia estão enfrentando dificuldade em participar dos laboratórios de pesquisa e trabalhar em ambientes com potencial sexista, o que já aponta para os riscos desses pensamentos do grupo de programadores serem repassados às IA´s em programação.
Nesses ambientes tecnológicos, as mulheres mesmo com formação elevada (doutorado) não estão alcançando posições catedráticas nas universidades ou funções de liderança na mesma proporção dos homens, acontecendo o mesmo para diferentes tonalidades de pele, hispânicos e grupos minoritários.
Nesse momento da evolução tecnológica é primordial garantir a diversidade entre os núcleos de programação da IA, a começar pelo debate nas universidades polos recrutadores das empresas, devendo ser inserido, em caráter obrigatório, em todo semestres na graduação e pós-graduação, módulos sobre Ética e diversidade social.
Infelizmente essa ainda não é a realidade! E o debate sobre os vieses se tornou urgente.
Já pensou nos impactos desses vieses nas IA´s adotadas pelos sistemas de justiça? Isso é assunto para um outro post!

Flávia Valéria Nava Silva
Certificada pela Unic em digital currencies.
Mestranda em Blockchain and Criptocurrencies pela University of Nicosia (UNIC) - Institute for the future.
Pós-graduada em Direitos Difusos, Coletivos e Gestão fiscal pela ESMP/MPMA.
Promotora de Justiça no Estado do Maranhão.
Pesquisadora em inovação, futuros, direito e cidadania digital.
Excelente tema! De suma importância tal discussão . Trazer à luz tais reflexões são pra ontem. Regulamentar a forma como deve ser feito com respeito à diversidade de raças , gênero , culturas etc. precisa ser implementado com muita urgência. Preocupante saber que a alimentação das IA’s estejam sendo feitas por pontos de vistas únicos, de uma só raça ou gênero ou de uma só cor de pele , etc. Como alcançar a todos? Como analisar o que precisa ser analisado com o respeito e isonomia necessários? Gratidão Flávia, por trazer informação e reflexões importantes.
Nossa, impactante. Precisamos discutir nossos direitos e espaços agora num novo espaço que ainda não tem definição. Putz, se aqui no mundo "real" é assim, imagina nos metaversos e etc. Ampliar a discussão urgentemente antes que sejamos engolidos por ela