BusinessTimes

Apple apela contra empresa de pesquisa de segurança enquanto elogia pesquisadores

18 ago 2021, 11:39 - atualizado em 18 ago 2021, 11:39
Apple
A Apple torna seu software difícil de examinar, e os telefones de pesquisa especializados que oferece a especialistas pré-selecionados vêm com uma série de restrições (Imagem: Unsplash/ Laurenz Heymann)

A  Apple (AAPL) entrou com um recurso na terça-feira em um caso de direitos autorais que perdeu contra a startup de segurança Corellium, que ajuda pesquisadores a examinar programas como o planejado novo método da Apple para detectar imagens de abuso sexual infantil.

Um juiz federal rejeitou no ano passado reivindicações de direitos autorais da Apple contra a Corellium, que faz um iPhone simulado que os pesquisadores usam para examinar como funcionam os dispositivos rigidamente restritos.

Especialistas em segurança estão entre os principais clientes da Corellium, e as falhas que eles descobriram foram relatadas à Apple por recompensas em dinheiro e usadas em outros lugares, incluindo pelo FBI ao quebrar o telefone de um atirador que matou várias pessoas em San Bernardino, Califórnia.

A Apple torna seu software difícil de examinar, e os telefones de pesquisa especializados que oferece a especialistas pré-selecionados vêm com uma série de restrições. A empresa não quis comentar.

O recurso veio como uma surpresa, porque a Apple acabara de resolver outras reivindicações com a Corellium relacionadas ao Digital Milennium Copyright Act, evitando um julgamento.

Especialistas disseram que também ficaram surpresos com o fato de a Apple ter reativado a luta contra um grande fornecedor de ferramentas de pesquisa logo após argumentar que os pesquisadores forneceriam uma verificação sobre seu polêmico plano de escanear dispositivos de clientes.

“Basta”, disse a presidente-executiva da Corellium, Amanda Gorton. “A Apple não pode fingir que se responsabiliza pela comunidade de pesquisa de segurança e, ao mesmo tempo, tenta tornar essa pesquisa ilegal.”

De acordo com o plano da Apple anunciado no início deste mês, o software verificará automaticamente as fotos programadas para upload de telefones ou computadores para o armazenamento online do iCloud para ver se correspondem aos identificadores digitais de imagens conhecidas de abuso infantil.

Se forem encontradas correspondências suficientes, os funcionários da Apple verificarão se as imagens são ilegais e, em seguida, cancelarão a conta e encaminharão o usuário às autoridades.

Compartilhar

TwitterWhatsAppLinkedinFacebookTelegram
Giro da Semana

Receba as principais notícias e recomendações de investimento diretamente no seu e-mail. Tudo 100% gratuito. Inscreva-se no botão abaixo:

*Ao clicar no botão você autoriza o Money Times a utilizar os dados fornecidos para encaminhar conteúdos informativos e publicitários.

Usamos cookies para guardar estatísticas de visitas, personalizar anúncios e melhorar sua experiência de navegação. Ao continuar, você concorda com nossas políticas de cookies.

Fechar