BusinessTimes

Google instrui cientistas a darem tom positivo em estudo sobre inteligência artificial

23 dez 2020, 15:33 - atualizado em 23 dez 2020, 15:33
Google
O Google pede para que os pesquisadores consultem equipes jurídica e de relações públicas antes de avançarem sobre tópicos que envolvam análise de rostos  (Imagem: REUTERS/Pawel Kopczynski)

O Google agiu neste ano para ampliar o controle sobre pesquisas publicadas por seus cientistas, fazendo uma revisão sobre tópicos sensíveis.

Em pelo menos três casos, pediu aos autores para evitarem manifestar uma visão negativa sobre a tecnologia da empresa, segundo documentos internos e conversas com pesquisadores envolvidos no trabalho.

O Google pede para que os pesquisadores consultem equipes jurídica e de relações públicas antes de avançarem sobre tópicos que envolvam análise de rostos e sentimentos e categorizações de raça, gênero e afiliação política, segundo documentos internos da empresa que explicam a norma.

“Avanços na tecnologia e o crescimento da complexidade de nosso ambiente externo estão cada vez mais levando a situações onde projetos aparentemente inofensivos criam questões éticas, computacionais, revogatórias ou jurídicas”, afirma uma das páginas do documento voltado à equipe de pesquisa da empresa.

A Reuters não pode determinar a data da publicação, embora três funcionários da empresa afirmem que a política começou a ser aplicada em junho. Representantes do Google não comentaram o assunto.

O procedimento em torno dos “tópicos sensíveis” adiciona uma camada de análise ao processo padrão de revisão das pesquisas que busca encontrar problemas como possível divulgação de segredos comerciais da empresa, disseram oito funcionários e ex-trabalhadores do Google.

Em alguns projetos, representantes do Google chegaram a intervir em estágios finais da publicação. Um gestor seniores do Google revisou um estudo sobre tecnologia de recomendação de conteúdo antes de sua publicação e disse aos autores para “prestarem muita atenção para darem um tom positivo”, segundo comunicação interna vista pela Reuters.

O gestor adicionou: “Isso não significa que devemos nos esconder dos desafios reais” criados pela tecnologia.

Mensagens subseqüentes de um cientista para os revisores da empresa mostram que os autores do estudo “removeram todas as referências aos produtos do Google”. Um rascunho do documento visto pela Reuters fazia menção ao YouTube.

Quatro cientistas da empresa, incluindo a pesquisadora seniores Marraste Mitchell, afirmaram que acreditam que o Google está começando a interferir em estudos importantes sobre potenciais perigos da tecnologia.

“Se pesquisamos um assunto dada nossa expertise e não podemos publicar isso porque não está em linha com uma revisão de alto nível de nossos pares, então estamos nos metendo em um problema sério de censura”, disse Mitchell.

O Google afirma em seu sitie público que seus cientistas gozam de “substancial” liberdade.

Disputas entre o Google e alguns de seus funcionários se tornaram públicas neste mês, após a saída abrupta da especialista em ciência de computação Tilinta Gebru, que liderava uma equipe de 12 pessoas com Mitchell, focada em ética de software de inteligência artificial (IA).

Gebru afirma que o Google a demitiu após ela questionar uma ordem de não publicar um pape que afirma que ferramentas de IA que imitam a fala podem deixar em desvantagem populações marginalizados. O Google afirmou que aceitou o pedido de demissão da cientista. Não foi possível determinar se a pesquisa de Gebru passou pelo processo de revisão de “temas sensíveis”.

O vice-presidente seniores do Google Jeff Jean afirmou neste mês que a pesquisa que Gebru queria publicar lidava sobre potenciais prejuízos da tecnologia, sem discutir os esforços da companhia para resolvê-la.

Jean acrescentou que o Google apoia bolsas de estudo em ética de IA e que “está ativamente trabalhando para melhorar nossos processos de revisão de papes porque sabemos que muitos controles podem se tornar obstáculos”.

O paper do Google no qual os pesquisadores foram instruídos a dar um tom positivo discute tecnologia de recomendação por IA (Imagem: Reuters/Eric Gaillard)

Tópicos sensíveis

O crescimento de pesquisa e desenvolvimento de IA pela indústria de tecnologia tem levado autoridades nos EUA e em outros países a propor regras para seu uso. Alguns citam que estudos científicos mostram que softwares de análise facial e outras ferramentas de IA podem perpetuar preconceitos ou subverter a privacidade.

Nos últimos anos, o Google incorporou IA em seus serviços, usando a tecnologia para interpretar dados complexos de buscas, decidir recomendações de vídeos no YouTube. Os cientistas da empresa publicaram mais de 200 papers no ano passado sobre desenvolvimento de responsabilidade para IA, entre mais de 1 mil projetos no total, afirmou Jean.

O estudo de serviços do Google para identificar comportamentos tendenciosos está entre os “tópicos sensíveis” sob supervisão da nova política da empresa, segundo o documento interno visto pela Reuters.

Isso junto com outras dezenas de assuntos sensíveis como indústria petrolífera, China, Irã, Israel, Covid-19, segurança interna, seguros, dados de localização, religião, veículos autônomos, telecomunicações e sistemas que recomendam ou personalizam conteúdo da web.

O paper do Google no qual os pesquisadores foram instruídos a dar um tom positivo discute tecnologia de recomendação por IA, que serviços como o YouTube usam para personalizar conteúdo para usuários.

Um rascunho visto pela Reuters incluía preocupações de que a tecnologia pudesse promover “desinflamação, discriminação ou resultados de outra forma injustos” e que também poderia causar “diversidade insuficiente de conteúdo”, bem como levar à “polarização política”.

O paper que acabou sendo publicado em vez disso afirma que os sistemas podem promover “informação precisa, justa e conteúdo diversificado”.

A versão publicada, intitulada “Para o que você está otimizando? Alinhando Sistemas de Recomendação com Valores Humanos” omitiu o crédito aos pesquisadores do Google. A Reuters não pode determinar o motivo.

Um paper neste mês sobre entendimento de línguas estrangeiras por IA suavizou, após um pedido dos revisores da companhia, uma referência sobre como o produto Google Translade está cometendo erros, disse uma fonte.

A versão publicada da pesquisa afirma que os autores usaram o Google Translade e diz que parte do método da pesquisa foi “avaliar e reparar traduções incorretas”.

Para um pape publicado na semana passada, um funcionário do Google descreveu o processo como uma “longa viagem”, envolvendo mais de 100 trocas de embala entre cientistas e revisores, segundo mensagens internas da empresa vistas pela Reuters.