Biases02

És criminoso? Se fores feio ficas preso mais tempo

Temos medo que a Inteligência Artificial possa tomar decisões tendenciosas! Mas vejamos até onde podem chegar as decisões do ser humano. Um dos problemas já constatados em alguns processos com Inteligência artificial é que, se os dados que são usados para a aprendizagem forem de má qualidade, vai aprender mal. 

Este artigo mostra, com base num estudo alargado de análise ao sistema judicial australiano, corroborado por alguns outros estudos feitos na Pensilvânia, Estados Unidos, que fatores como a beleza e o charme dos criminosos são importantes no resultado das sentenças. As conclusões principais são que o veredito, de culpado ou inocente não é afetado pela atratividade do réu, mas a gravidade das penas é, chegando a diferenças de amplitude entre duas a quatro vezes maiores, se as pessoas forem menos atraentes.

Este tipo de efeitos resulta de associações, normalmente não conscientes e acontece em várias outras áreas. Por exemplo, é frequente os médicos desvalorizarem as queixas relativas a dores, de pessoas com boa aparência. Ou seja, o ser humano dificilmente consegue ser imparcial nos seus juízos, quer nas decisões corriqueiras do dia a dia, quer em decisões de profundas implicações, como sentenças judiciais ou diagnósticos médicos. E é com base nos dados produzidos por este tipo de viés do ser humano, que a inteligência artificial aprende.

Mas há um lado positivo. No caso da inteligência artificial podemos dar-lhes muitos dados, de múltiplas origens e podemos montar processos de verificação adicionais. Isso significa que, num futuro em que as tomadas de decisão serão feitas cada vez mais por inteligência artificial, estas tenderão a ter melhor qualidade que as decisões tomadas pelo ser humano

Foto Credito: racism.org

Comments are closed.