Os cibercriminosos estão a utilizar inteligência artificial para executar esquemas mais elaborados. Estão a visar tudo, desde poupanças de reforma a segredos corporativos comOs cibercriminosos estão a utilizar inteligência artificial para executar esquemas mais elaborados. Estão a visar tudo, desde poupanças de reforma a segredos corporativos com

IA potencia o cibercrime à medida que os golpes online crescem mais rápido, mais baratos e mais difíceis de detetar

2025/12/27 01:51

Os cibercriminosos estão a usar inteligência artificial para executar esquemas mais elaborados. Estão a visar tudo, desde poupanças de reforma a segredos empresariais, com métodos cada vez mais difíceis de detetar.

A mesma tecnologia que personaliza anúncios para compradores online está agora a ser usada por agentes maliciosos para recolher detalhes pessoais e lançar golpes online personalizados rapidamente. Muito rapidamente.

Grandes empresas de IA como Anthropic, OpenAI e Google relatam que criminosos estão a explorar as suas plataformas para orquestrar operações complexas de phishing, desenvolver software nocivo e executar vários ataques digitais. Especialistas em segurança alertam que os criminosos também estão a produzir áudios e vídeos falsos de líderes empresariais para enganar funcionários e levá-los a divulgar informações sensíveis.

Empresas e organismos governamentais podem em breve enfrentar enxames de sistemas impulsionados por IA capazes de detetar vulnerabilidades em redes informáticas e depois planear e executar ataques com quase nenhuma ajuda humana.

A tecnologia está a mudar a forma como os criminosos operam online. Alice Marwick lidera a investigação na Data & Society, uma organização independente de investigação tecnológica. Disse ao Wall Street Journal que a maior mudança envolve dimensão e alcance. "A verdadeira mudança é âmbito e escala. Os golpes online são maiores, mais direcionados, mais convincentes."

Brian Singer é estudante de doutoramento na Carnegie Mellon University. Estuda como os grandes modelos de linguagem são usados em ciberataques e defesas. A sua estimativa? Metade a três quartos das mensagens mundiais de spam e phishing provêm agora de sistemas de IA.

Os próprios ataques tornaram-se mais credíveis. Sistemas de IA treinados em comunicações empresariais podem produzir milhares de mensagens que soam naturais e correspondem ao estilo de uma empresa. Copiam a forma como os executivos escrevem. Mencionam notícias recentes encontradas em registos públicos.

A tecnologia também ajuda burlões estrangeiros a esconder erros linguísticos que costumavam tornar as suas tentativas óbvias. Os criminosos podem fazer-se passar por vítimas através de vídeos falsos e vozes copiadas. Usam a mesma identidade falsa para visar várias pessoas ao mesmo tempo.

John Hultquist é analista principal do Google Threat Intelligence Group. Descreve a principal mudança como "credibilidade em escala."

Os agentes maliciosos também estão a ficar melhores na escolha de alvos. Usam IA para examinar redes sociais e encontrar pessoas a lidar com grandes dificuldades de vida. Divórcio, mortes na família, perda de emprego e situações que possam tornar alguém mais vulnerável a burlas românticas, fraude de investimento ou ofertas de emprego falsas.

Mercados da dark web baixam a barreira de entrada

A barreira de entrada para o cibercrime caiu. Mercados clandestinos vendem ou alugam agora ferramentas de IA para trabalho criminoso por apenas 90 dólares por mês. Nicolas Christin lidera o departamento de software e sistemas sociais da Carnegie Mellon.

Disse que estas plataformas vêm com diferentes níveis de preços e apoio ao cliente. "Os programadores vendem subscrições de plataformas de ataque com preços escalonados e apoio ao cliente."

Estes serviços têm nomes como WormGPT, FraudGPT e DarkGPT. Podem criar software nocivo e campanhas de phishing. Alguns incluem até materiais de ensino sobre técnicas de hacking.

Margaret Cunningham é vice-presidente de segurança e estratégia de IA na Darktrace, uma empresa de segurança. Diz que é simples. "Não é preciso saber programar, apenas onde encontrar a ferramenta."

Há um desenvolvimento recente chamado vibe-coding ou vibe-hacking. Pode permitir que criminosos aspirantes usem IA para criar os seus próprios programas maliciosos em vez de os comprarem de fontes clandestinas. A Anthropic revelou no início deste ano que impediu várias tentativas de usar a sua IA Claude para criar ransomware por "criminosos com poucas competências técnicas."

As próprias operações criminosas estão a mudar. O cibercrime funciona como um mercado empresarial há anos, segundo especialistas. Uma operação típica de ransomware envolvia diferentes grupos. Intermediários de acesso que invadiam redes empresariais e vendiam entrada. Equipas de intrusão que se moviam através de sistemas roubando dados. E fornecedores de ransomware-como-serviço que lançavam o malware, tratavam de negociações e dividiam o dinheiro.

Velocidade e automação remodelam redes criminosas

A IA aumentou a velocidade, dimensão e disponibilidade deste sistema. Trabalho anteriormente feito por pessoas com conhecimento técnico pode agora executar-se automaticamente. Isto permite que estes grupos operem com menos pessoas, menos risco e lucros mais elevados. "Pense nisso como a próxima camada de industrialização. A IA aumenta o rendimento sem exigir mais mão de obra qualificada," explica Christin.

Pode a IA lançar ataques completamente sozinha? Ainda não. Os especialistas comparam a situação ao impulso para veículos totalmente autónomos. Os primeiros 95% foram alcançados. Mas a parte final que permitiria a um carro conduzir em qualquer lugar, a qualquer hora sozinho permanece fora de alcance.

Investigadores estão a testar as capacidades de hacking da IA em ambientes laboratoriais. Uma equipa na Carnegie Mellon, apoiada pela Anthropic, recriou a famosa violação de dados da Equifax usando IA no início deste ano. Singer liderou o trabalho no CyLab Security and Privacy Institute da Carnegie Mellon. Chama-lhe "um grande salto."

Os criminosos exploram a IA para fins prejudiciais. Mas as empresas de IA dizem que as mesmas ferramentas podem ajudar organizações a fortalecer as suas defesas digitais.

A Anthropic e a OpenAI estão a construir sistemas de IA que podem examinar continuamente código de software para localizar vulnerabilidades que os criminosos possam explorar. As pessoas ainda devem aprovar quaisquer correções. Um programa de IA recente desenvolvido por investigadores de Stanford teve um desempenho melhor do que alguns testadores humanos ao procurar problemas de segurança numa rede.

Mesmo a IA não impedirá todas as violações. É por isso que as organizações devem concentrar-se em criar redes resistentes que continuem a funcionar durante ataques, diz Hultquist.

Se está a ler isto, já está à frente. Mantenha-se aí com a nossa newsletter.

Oportunidade de mercado
Logo de Sleepless AI
Cotação Sleepless AI (AI)
$0,03904
$0,03904$0,03904
+%0,56
USD
Gráfico de preço em tempo real de Sleepless AI (AI)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail service@support.mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.