Uma equipe liderada pelo cientista de pesquisa do Google Moritz Hardt
criou um método para impedir que algoritmos tomem decisões injustas com
base em critérios como etnia, gênero ou idade das pessoas. O método foi
detalhado em um artigo apresentado na conferência NIPS, em Barcelona, no começo de dezembro.
A ideia dos pesquisadores é evitar situações nas quais algoritmos
tomem decisões que prejudiquem de maneira desproporcional determinados
grupos da população. Um caso citado como exemplo é o de algoritmos
usados por bancos para decidir quais pessoas devem ou não receber
empréstimos: nesses casos, dependendo do algoritmo, ele pode ter uma
taxa muito maior de erro com certos grupos da população, como mulheres
ou pessoas negras.
Oportunidades iguais
Segundo o Guardian,
o método envolve olhar para os dados que são usados para treinar o
algoritmo e para os resultados que ele produz. O objetivo do teste é
garantir que sempre que o algoritmo fizer uma decisão sobre um indivíduo
- desde mostrar ou não uma propaganda a ele, até conceder ou não um
empréstimo -, essa decisão não pode dizer nada sobre o gênero ou etnia
além do que estava nos dados de entrada do algoritmo.
Por exemplo: imagine que um banco descobre que mulheres têm o
dobro de probabilidade de pagar empréstimos do que homens. Seria
razoável, portanto, imaginar que uma pessoa que não tivesse pagado um
empréstimo tinha maior probabilidade de ser homem que mulher. No
entanto, caso o algoritmo calculasse que a melhor estratégia para o
banco era só conceder empréstimos a mulheres, ele se revelaria
preconceituoso - já que alguns homens também pagariam empréstimos, e
algumas mulheres, não.
Cegueira não resolve
Conforme os pesquisadores explicam,
essa estratégia é melhor do que a de eliminar quaisquer dados
demográficos desse tipo das informações usadas para treinar o sistema.
Isso porque, em alguns casos, essas informações são cruciais. Por
exemplo: homens têm maior probablidade de ter problemas cardíacos do que
mulheres. Por isso, um sistema que quisesse determinar a chance de uma
pessoa ter problemas cardíacos precisaria saber se ela é homem ou
mulher.
Outro problema, segundo a explicação de Hardt no blog de pesquisa
do Google, é que eliminar determinadas informações não impede que o
algoritmo tome decisões preconceituosas. Isso porque ele seria capaz de
usar outros dados disponíveis de maneira igualmente "preconceituosa", o
que levaria aos mesmos problemas de um algoritmo que tivesse acesso a
esses dados.
Será o suficiente?
Racismo e machismo entre algoritmos são casos infelizmente comuns: por causa da maneira como redes neurais funcionam,
e por causa dos preconceitos ainda presentes em nossa sociedade, esses
sistemas muitas vezes acabam reproduzindo situações desse tipo. O
algoritmo de buscas do Google já foi acusado de racismo em mais de uma ocasião - com tanta razão que a empresa se desculpou depois. Também houve um caso de racismo num "concurso de beleza" julgado por inteligência artificial.
Embora a solução apresentada pelos pesquisadores seja
interessante, especialistas ouvidos pelo Guardian temem que ela se
revele insuficiente. Isso porque a existência de um "teste" desse tipo
removeria o foco de como as máquinas chegam às decisões que tomam.
Normalmente, sabe-se muito pouco sobre a forma como as redes neurais
funcionam, e esse "teste" pode desviar a atenção de problemas sérios que
estejam ocorrendo nessa camada do algoritmo.
De acordo com o professor de robótica Noel Sharkey, da
Universidade de Sheffield, ainda é temerário usar algoritmos desse tipo
para situações que tenham impacto social. "Aprendizagem de máquina é
ótima se você a utiliza para determinar a melhor rota para uma tubulação
de petróleo", opinou. "Mas até que nós saibamos mais sobre como elas
lidam com preconceitos, eu ficaria muito preocupado de que elas fossem
usadas para tomar decisões que afetem as vidas das pessoas", continuou.
Fonte: Olhar Digital