Tecnologia

DeepSeek cria software de sequestro de dados e ensina a fazer bomba, expondo fragilidade grave no modelo da inteligência artificial

29 jan 2025, 16:47 - atualizado em 29 jan 2025, 16:47
DeepSeek e o alerta de segurança para a inteligência artificial chinesa
DeepSeek e o alerta de segurança para a inteligência artificial chinesa (Imagem: Montagem Money Times)

O DeepSeek, inteligência artificial (IA) chinesa que abalou o mercado de tecnologia nesta semana expôs uma vulnerabilidade crítica no chatbot. De acordo com um artigo da Cybersecurity News, o modelo DeepSeek R1 — o mais atualizado da startup — pode criar códigos e scripts de ransomwares e malwares.

Ransomwares são softwares que sequestram dados e arquivos utilizando criptografia em troca de dinheiro para realizar o desbloqueio. Já os malwares são os populares “vírus de computador”, que podem prejudicar os dispositivos eletrônicos das mais diversas formas. 

Enquanto modelos de inteligência artificial como o ChatGPT, da OpenIA, e o Gemini, do Google, têm uma série de barreiras que restringem esse tipo de atividade, o DeepSeek não possui o mesmo tipo de filtro. 

Isso demonstra uma falha significativa nos mecanismos de segurança do modelo, levantando preocupações éticas e de segurança. A empresa responsável ainda não se manifestou sobre o incidente.

Inclusive, o processo de raciocínio transparente do DeepSeek R1 permite aos usuários acompanhar cada etapa de sua lógica — o que facilita ainda mais a identificação e exploração das vulnerabilidades da IA.

CONTINUA DEPOIS DA PUBLICIDADE

DeepSeek facilita crimes virtuais — e no mundo real

Além disso, o DeepSeek R1 não se limita apenas à criação de malware. O modelo também foi capaz de gerar instruções detalhadas para criar explosivos que poderiam evitar a detecção em aeroportos.

O modelo chegou a recomendar mercados paralelos online para a compra de credenciais de login roubadas, facilitando ainda mais a execução de atividades ilícitas. 

Vale dizer que, no início, as principais IAs generativas também tiveram problemas ao darem respostas com vieses políticos ou informações falsas aos usuários.

Parte dessas questões foram mitigadas, com a implementação de filtros que impedem pesquisas sobre figuras políticas ou a geração de imagens sensíveis, por exemplo. 

renan.sousa@moneytimes.com.br