O uso de inteligência artificial nos processos de recrutamento & seleção ganhou força nos últimos anos. Com o auxílio do recurso tecnológico, é possível tornar a contratação mais ágil, uma vez que a IA é responsável por filtrar quais são os candidatos mais alinhados às exigências da vaga, assim possibilitando que os recrutadores possam realizar entrevistas mais assertivas. Contudo, por mais que as máquinas tenham o seu papel, por trás delas existe uma programação realizada por pessoas, o que traz o questionamento, muitas vezes, referente à idoneidade dos filtros estabelecidos.
Nos últimos meses, uma polêmica se estabeleceu nas redes sociais. Usuários do Twitter denunciaram a plataforma alegando que seu algoritmo de fotos dá preferência a pessoas brancas. Na prática, acontece o seguinte: imagine que você deseja publicar uma foto, mas ela é desproporcional ao tamanho limite que a rede permite. Por padrão, a própria plataforma tentará identificar o seu rosto e realizar o recorte da foto na área em que ele for encontrado. O problema é que foi identificado que o sistema privilegia pessoas brancas e, em fotos nas quais elas estão ao lado de pessoas negras, o recorte sempre as prioriza, o que foi confirmado pelo famoso programador Tony Arcieri em testes realizados na rede.
A dimensão do problema ganhou proporções ainda maiores quando usuários do Twitter fizeram testes envolvendo desenhos animados e os resultados foram os mesmos. Em nota oficial, o perfil nacional da rede social falou a respeito: “Fizemos uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero. Está claro que temos mais análises a fazer. Continuaremos compartilhando nossos aprendizados e medidas, abriremos o código para que outros possam revisá-lo”.
De acordo com o portal The Verge, Parag Agrawal, gerente de tecnologia do Twitter, admitiu que por mais que o modelo dos algoritmos seja analisado, ele precisa de melhorias contínuas. O fato é que mesmo com a manifestação da equipe do microblog, as críticas continuam e se estendem a outras redes sociais. No ano passado o Instagram também foi fortemente atacado por um suposto “algoritmo racista”, que limitava o alcance de publicações de pessoas negras. Na época, o principal executivo da empresa, Adam Mosseri, disse estar “ouvindo a preocupação sobre se suprimimos as vozes negras e se nossos produtos e políticas tratam a todos igualmente”.
O que os problemas em redes sociais têm a ver com recrutamento?
Ao pé da letra, o problema pode estar nos algoritmos. Em 2018, a Amazon foi acusada de realizar um projeto interno no qual currículos de mulheres eram vetados pela IA. De acordo com a Reuters, a restrição era referente a escolas só para mulheres e a atividades específicas que envolvessem a palavra women (mulheres) –Women’s Chess Team Captain (Capitã do Time Feminino de Xadrez), por exemplo. Ao identificar que o software não seguia as diretrizes da empresa em relação à igualdade de gênero, não tardou para que o algoritmo fosse alterado.
“Esse comportamento dos algoritmos diz muito sobre quem os programou, e muito mais sobre a sociedade em que vivemos, com seus preconceitos e desigualdades estruturais arraigados. A evolução rápida do desenvolvimento dessas tecnologias não acompanha os debates correntes na sociedade. Podemos dizer que a introdução da ética é um movimento a posteriori. Quando, em processos modernos e saudáveis, a toda tecnologia corresponde uma ética desde o seu início”, sinaliza César Souza, um dos líderes técnicos em algoritmo na Certsys, empresa de tecnologia da informação.
De acordo com Souza, este tipo de situação escancara também uma falha estrutural inerente ao próprio nicho de TI, onde “estão ainda muito incipientes os debates que levaram ao avanço da questão humanitária e identitária na sociedade contemporânea”. Atitudes como as de ‘robôs racistas ou machistas’ vão ao encontro de uma mudança institucional que é tendência no mercado, relativa à busca por maior diversidade em espaços corporativos e em todos os níveis de trabalho.
Em vista de que os processos mediados por inteligência artificial ainda não estejam em um estágio de geração de conteúdo próprio, estes são alimentados com dados prévios. “É fato que toda informação carrega um viés, uma tendência. Essa tendência vai se replicar pro sistema que foi treinado. Em um cenário em que há dados, mas não informações sobre eles, a catalogação se torna outro problema. Neste caso, o problema não é o dado, mas quem está catalogando. Dependendo de quem e como se classifica esse dado, estará induzindo sim esse sistema eletrônico a um determinado tipo de comportamento. Quando surgem temáticas sobre reconhecimento facial, triagem de currículo, sempre reverbera uma polêmica atrelada, porque ainda nenhum desses sistemas consegue garantir que não será enviesado”, continua Souza.
Para Gabriel Toledo, especialista em programação e algoritmos que presta consultoria para empresas do interior de São Paulo, a inteligência artificial chegou para “agregar da forma mais significativa possível para as empresas”, porém, é fundamental que as empresa sempre mantenham os seus algoritmos atualizados e alinhados com seus valores e mudanças sociais.
“Nos meus anos como consultor, já vi, entre outras coisas, uma fábrica que abriu um processo seletivo priorizando mulheres para uma vaga, mas que quase não teve nenhuma concorrendo, pois o algoritmo eliminava palavras como ‘solteira’ e ‘casada’, que foi a forma identificada para excluir mais facilmente mulheres de processos anteriores. Minha recomendação é que diferentes perfis de pessoas atuem em conjunto desde a elaboração das exigências da vaga até a criação do algoritmo. Outra dica é, nos primeiros processos seletivos, acompanhar quem está sendo barrado pela IA, para assim identificar se há um padrão que elimina realmente quem não tem as competências técnicas ou se características pessoais também são um fator e, consequentemente, um ponto discriminatório”, ressalta.
Toledo reforça que a construção de algoritmos com vieses conscientes ou inconscientes pode ser um verdadeiro “baque” à diversidade, uma vez que assim como a população negra e as mulheres, LGBTQIA+, as pessoas com deficiência e outros públicos que integram as chamadas “minorias” no mercado de trabalho, podem ser prejudicadas.
“As IAs trazem agilidade, interação, recursos como gamification e uma série de outras vantagens. É um processo eficaz. A IA pode ser útil em todas as fases, da análise de currículo até os testes aplicados, mas ela não pode ser uma bagunça. Acredito que a grande maioria de casos preconceituosos que envolvem inteligência artificial não são propositais, mas é muito importante que haja atenção para identificar padrões que não são esperados e rebalancear o sistema”, explica o consultor.
Além disso, César Souza acrescenta que, dentro do setor de TI, novos grupos surgem para debater este tipo de questão e alinhar o ambiente de tecnologia às temáticas latentes em outras áreas. “É um assunto delicado para as empresas, porque mexe com a imagem delas. Falta uma interdisciplinaridade maior entre as áreas. Alguns currículos de universidades do exterior já incluem certas disciplinas que apontam para esse caminho. É necessário apresentar para quem está saindo da universidade esse outro lado da figura tecnológica”, finaliza.
Por Bruno Piai