DeepSeek cria software de sequestro de dados e ensina a fazer bomba, expondo fragilidade grave no modelo da inteligência artificial
O DeepSeek, inteligência artificial (IA) chinesa que abalou o mercado de tecnologia nesta semana expôs uma vulnerabilidade crítica no chatbot. De acordo com um artigo da Cybersecurity News, o modelo DeepSeek R1 — o mais atualizado da startup — pode criar códigos e scripts de ransomwares e malwares.
Ransomwares são softwares que sequestram dados e arquivos utilizando criptografia em troca de dinheiro para realizar o desbloqueio. Já os malwares são os populares “vírus de computador”, que podem prejudicar os dispositivos eletrônicos das mais diversas formas.
Enquanto modelos de inteligência artificial como o ChatGPT, da OpenIA, e o Gemini, do Google, têm uma série de barreiras que restringem esse tipo de atividade, o DeepSeek não possui o mesmo tipo de filtro.
Isso demonstra uma falha significativa nos mecanismos de segurança do modelo, levantando preocupações éticas e de segurança. A empresa responsável ainda não se manifestou sobre o incidente.
Inclusive, o processo de raciocínio transparente do DeepSeek R1 permite aos usuários acompanhar cada etapa de sua lógica — o que facilita ainda mais a identificação e exploração das vulnerabilidades da IA.
- SAIBA MAIS: Robô de investimentos possibilita lucros diários de até R$ 1.200, em média, em apenas 5 minutos
DeepSeek facilita crimes virtuais — e no mundo real
Além disso, o DeepSeek R1 não se limita apenas à criação de malware. O modelo também foi capaz de gerar instruções detalhadas para criar explosivos que poderiam evitar a detecção em aeroportos.
O modelo chegou a recomendar mercados paralelos online para a compra de credenciais de login roubadas, facilitando ainda mais a execução de atividades ilícitas.
Vale dizer que, no início, as principais IAs generativas também tiveram problemas ao darem respostas com vieses políticos ou informações falsas aos usuários.
Parte dessas questões foram mitigadas, com a implementação de filtros que impedem pesquisas sobre figuras políticas ou a geração de imagens sensíveis, por exemplo.