Racismo algorítmico: Tecnologias de reconhecimento facial se tornam um pesadelo para pessoas negras

Às vésperas do Natal, Benjamin utilizava o aplicativo de um banco quando recebeu a solicitação para cadastrar sua biometria facial. Com o rosto sem adereços ou óculos, e com uma boa iluminação, o sistema de reconhecimento facial do aplicativo não conseguia o identificar.
Após algumas tentativas, de vários ângulos e com diferentes iluminações, o usuário resolveu testar o sistema com uma foto aleatória da internet. Quase que instantaneamente, sua câmera o reconheceu. Benjamin é negro. O homem da foto, branco.
O relato que foi feito através do TikTok por um usuário ganhou repercussão nas redes sociais após retomar as discussões sobre como algoritmos de reconhecimento facial e outras tecnologias podem ser racistas e excludentes com homens e mulheres negros.
https://www.tiktok.com/@sociedadepretadospoetas/video/7045306381703924998?_d=secCgwIARCbDRjEFSACKAESPgo89x7Wn2wTMcKLpT5jLhVV9UMQofVdVSUu3AfpyICB%2B4i1fzL1jozGZqp802vPFDvwheRlBl461zTJ47FMGgA%3D&checksum=9cb6661412ef0c87c224022c8644b72eafc9707c7f00b702e29891dedb741779&language=pt&preview_pb=0&sec_user_id=MS4wLjABAAAAqQQSG7MhWXNu2Hds7OvCD8plPNrMrhkxcjzUvmu6M9jQuYk8kEljdW8FJ1wFdDtW&share_app_id=1233&share_item_id=7045306381703924998&share_link_id=4D4E8B21-3FD7-4288-A513-19EA15AFFDC3&source=h5_m×tamp=1642704832&tt_from=copy&u_code=dbd559lje228g3&user_id=6806137018302137349&utm_campaign=client_share&utm_medium=ios&utm_source=copy&_r=1
O C6 Bank – instituição financeira na qual Benjamin não conseguiu concluir a etapa de segurança – divulgou em nota oficial que “o índice de falhas em biometria facial no processo de abertura de contas é de 0,1%, sem nenhuma diferença estatística por cor, idade ou gênero”. A empresa também destacou que “trabalha continuamente para aumentar a acuracidade da ferramenta de reconhecimento facial”.
Ao ser questionada se seus sistemas também foram testados com usuários negros, a instituição não se pronunciou.
Tecnologias de inteligência artificial como a utilizada por bancos em verificações de segurança também são encontradas em aplicativos de fotos, mídias sociais e até mesmo sistemas de segurança pública. Os algoritmos utilizados nessas ferramentas, por sua vez, comprovam-se bem falhos.
Segundo pesquisa realizada pela Rede de Observatórios da Segurança, em 2019, cerca de 90,5% dos presos por monitoramento facial no Brasil foram negros. Em muitos casos, as prisões arbitrárias alcançam os alvos errados, causando constrangimento aos acusados.
E não acaba por aí.
Fotos publicadas por pessoas negras na plataforma Flickr receberam a tag “macacos” pelo algoritmo do site; já o Twitter reconheceu que sua programação faz com que conteúdos de pessoas brancas viralizem com mais frequência; o aplicativo da Uber, por sua vez, bloqueou a conta de um motorista negro após não conseguir reconhecê-lo através de seu sistema.
Benjamin foi contatado pelo Money Times para comentar sobre o assunto, mas não respondeu aos pedidos da reportagem. De qualquer forma, pelo visto, seu episódio não se parece com um caso isolado, mas com um problema longe de ser solucionado.