BusinessTimes

Google vê briga interna entre inteligência artificial e humana; entenda

25 fev 2021, 12:01 - atualizado em 25 fev 2021, 12:06
Google
O Google se recusou a comentar sobre a reunião de sexta-feira (Imagem: REUTERS/Dado Ruvic/Ilustração)

O Google (GOOGL), da Alphabet, mudará os procedimentos antes de julho para revisar o trabalho de seus cientistas, de acordo com a gravação de uma reunião ouvida pela Reuters, movimento que faz parte de um esforço para conter a agitação interna sobre a integridade de sua pesquisa em inteligência artificial (IA).

Em comentários em uma reunião de equipe na sexta-feira passada, executivos do Google Research disseram que estavam trabalhando para reconquistar a confiança depois que a empresa demitiu duas mulheres proeminentes e rejeitou o trabalho delas, de acordo com uma gravação de 1 hora, cujo conteúdo foi confirmado por duas fontes.

As equipes já estão testando um questionário que avaliará os riscos dos projetos e ajudará os cientistas a navegar pelas análises, disse a diretora operacional da unidade de pesquisa Maggie Johnson na reunião.

Essa mudança inicial será implementada no final do segundo trimestre, e a maioria dos documentos não exigirá verificação extra, afirmou a executiva.

A Reuters relatou em dezembro que o Google havia apresentado uma revisão de “tópicos sensíveis” para estudos envolvendo dezenas de questões, como China ou preconceito em seus serviços.

Revisores internos exigiram que pelo menos três artigos sobre IA fossem modificados para evitar colocar a tecnologia do Google em uma luz negativa, informou a Reuters.

Jeff Dean, vice-presidente sênior do Google que supervisiona a divisão, disse na sexta-feira que a revisão “de tópicos delicados” é e era confusa “e que ele encarregou um diretor sênior de pesquisa, Zoubin Ghahramani, para esclarecer as regras, de acordo com a gravação.

A Reuters relatou em dezembro que o Google havia apresentado uma revisão de “tópicos sensíveis” para estudos envolvendo dezenas de questões (Imagem: Unsplash/@mitchel3uo)

Ghahramani, um professor da Universidade de Cambridge que ingressou no Google em setembro vindo da Uber Technologies, disse durante a reunião: “Precisamos estar confortáveis com esse desconforto” da pesquisa autocrítica.

O Google se recusou a comentar sobre a reunião de sexta-feira.

Um e-mail interno, visto pela Reuters, deu novos detalhes sobre as preocupações dos pesquisadores do Google, mostrando exatamente como o departamento jurídico do Google modificou um dos três documentos de IA, chamado “Extraindo dados de treinamento de grandes modelos de linguagem”.

O e-mail, datado de 8 de fevereiro, de um coautor do paper, Nicholas Carlini, foi enviado a centenas de colegas, buscando chamar sua atenção para o que ele nomeou de edições “profundamente insidiosas” de advogados da empresa.

“Vamos ser claros aqui”, dizia o e-mail de aproximadamente 1.200 palavras. “Quando nós, como acadêmicos, escrevemos que temos uma ‘preocupação’ ou encontramos algo ‘preocupante’ e um advogado do Google exige que mudemos para soar melhor, isso é muito mais um Big Brother intervindo.”

As edições necessárias, de acordo com seu e-mail, incluíam trocas de “negativo para neutro”, como mudar a palavra “preocupações” para “considerações” e “perigos” para “riscos”. Os advogados também exigiram a exclusão de referências à tecnologia do Google; da descoberta dos autores de que a IA vazou conteúdo protegido por direitos autorais; e as palavras “violação” e “sensível”, dizia o e-mail.

Carlini não respondeu aos pedidos de comentários. O Google, em resposta a perguntas sobre o e-mail, contestou sua alegação de que os advogados estavam tentando controlar o tom do documento.

A empresa disse que não teve problemas com os tópicos investigados pelo paper, mas encontrou alguns termos jurídicos usados de forma imprecisa e conduziu uma edição completa como resultado.