A Check Point Software aponta as previsões de segurança cibernética para 2025, delineando os principais desafios de cibersegurança que as organizações e os usuários finais enfrentarão no próximo ano.
À medida que avançamos para 2025, o cenário de segurança cibernética se tornará mais complexo. Desde um malware aprimorado por inteligência artificial (IA) até ameaças de ransomware mais sofisticado, os especialistas da Check Point Software relacionam as principais tendências por meio das quais as pessoas serão diretamente impactadas.
Sofisticação do ransomware
O ransomware promete se tornar ainda mais sofisticado até 2025, com cibercriminosos utilizando IA e automação para aumentar a velocidade e a precisão de seus ataques. Essas técnicas avançadas permitirão que o ransomware se espalhe rapidamente pelas redes corporativas, dificultando sua detecção. O aumento de ransomware direcionado a cadeias de suprimentos é particularmente preocupante, pois ataques a fornecedores ou parceiros críticos podem ter um efeito cascata em setores inteiros.
Em resposta, as organizações deverão recorrer mais ao seguro cibernético para mitigar o impacto financeiro desses ataques, enquanto os governos aplicarão padrões regulatórios mais rigorosos. O cumprimento das normas e a notificação de incidentes se tornarão inegociáveis, uma vez que o ransomware continua a ser uma das principais ameaças.
Ao mesmo tempo, o phishing permanece como a porta de entrada para a maioria dos ransomwares, com e-mails gerados por IA e falsificações cada vez mais convincentes. Prevenir esses ataques exigirá treinamento rigoroso dos colaboradores e sistemas de detecção de phishing para acompanhar as táticas em constante evolução.
“Em 2025, podemos esperar de dois a três ataques massivos às cadeias de suprimentos. As organizações precisarão se preparar para ataques mais rápidos e direcionados, além de aumentar seu foco em conformidade, seguro cibernético e prevenção e treinamento de seus funcionários”, diz Itai Greenberg, diretor de Estratégia e Segurança em Nuvem da Check Point Software.
Aumento dos ataques impulsionados por IA
A integração da IA nos ataques cibernéticos é um dos desenvolvimentos mais críticos previstos para 2025. A IA já tornou as atividades cibercriminosas mais escaláveis e sofisticadas, com seu impacto esperado para intensificar em 2025. Essas ameaças aprimoradas por IA assumem muitas formas, desde e-mails de phishing com gramática impecável e detalhes pessoais até malwares altamente adaptativos que podem aprender e escapar dos sistemas de detecção. Essa próxima geração de ataques de phishing aproveitará a capacidade da IA de aprender com dados em tempo real, adaptando-se em resposta às medidas de segurança em evolução, tornando a detecção ainda mais desafiadora.
A IA Generativa também permitirá operações em escala muito maior. Por exemplo, cibercriminosos podem utilizar IA para lançar milhares de ataques de phishing direcionados simultaneamente, personalizando cada um para obter o máximo efeito. Isso permite que mesmo grupos criminosos menores executem operações de grande escala sem exigir conhecimento técnico avançado, levando à “democratização” do cibercrime.
“O papel crescente da IA no cibercrime é inegável. Em 2025, a IA não apenas aumentará a escala dos ataques, mas também sua sofisticação. Os ataques de phishing serão mais difíceis de serem detectados, com a IA aprendendo e se adaptando continuamente”, afirma Jeremy Fuchs, especialista Segurança Cibernética da Check Point Software.
Uso indevido de IA levará ao aumento de vazamentos de dados
À medida que a IA se torna mais onipresente tanto em ambientes pessoais quanto profissionais, cresce a preocupação com o uso inadequado dessas ferramentas. Um dos maiores riscos em 2025 será o vazamento de dados causado por funcionários que, sem querer, compartilham informações confidenciais com plataformas de IA como o ChatGPT ou o Google Gemini. Os sistemas de IA podem processar enormes quantidades de dados e, quando esses dados são inseridos em ferramentas de IA externas, o risco de exposição aumenta drasticamente.
Por exemplo, funcionários podem inserir dados financeiros confidenciais em uma ferramenta de IA para gerar um relatório ou análise sem perceber que esses dados podem ser armazenados e potencialmente acessados por usuários não autorizados.
Em 2025, as organizações precisarão estabelecer controles mais rígidos sobre o uso de ferramentas de IA em suas redes, equilibrando os benefícios da produtividade impulsionada pela IA com a necessidade de proteções rigorosas de privacidade de dados.
“À medida que ferramentas de IA como o ChatGPT e o Google Gemini se integram profundamente nas operações empresariais, o risco de exposição acidental de dados dispara com novos desafios de privacidade de dados. Em 2025, as organizações devem agir rapidamente para implementar controles e governança rigorosos sobre o uso da IA, garantindo que os benefícios dessas tecnologias não venham à custa da privacidade e segurança de dados”, ressalta Jeremy Fuchs, especialista Segurança Cibernética da Check Point Software.
Redes Sociais como palco de cibercrimes
Com bilhões de usuários em todo o mundo, as plataformas de redes sociais tornaram-se um alvo principal para os criminosos cibernéticos. Em 2025, a combinação de redes sociais e IA Generativa (GenAI) permitirá ataques ainda mais sofisticados e perigosos, utilizando dados pessoais e conteúdos gerados por IA para criar golpes altamente direcionados, personificações e fraudes.
A preocupação não está apenas nas redes sociais ou na IA Generativa individualmente, mas em como essas duas forças estão convergindo, amplificando os riscos. Criminosos usarão IA para imitar o comportamento, aparência e voz das pessoas, tornando mais difícil distinguir interações reais das artificiais.
Os cibercriminosos explorarão as plataformas de redes sociais não apenas para roubar informações pessoais, mas também para manipular usuários, comprometendo a segurança corporativa. Essa ameaça é especialmente alarmante em redes profissionais como o LinkedIn, onde a expectativa de ver conteúdos relacionados a negócios e conexões legítimas facilita a infiltração por atores mal-intencionados.
A personificação no LinkedIn é particularmente perigosa, pois criminosos cibernéticos podem criar perfis convincentes para interagir com funcionários, executivos ou parceiros, obscurecendo as linhas entre comunicação legítima e fraude.
O uso de táticas de engenharia social aumentará drasticamente, com a IA desempenhando um papel crucial na criação de personificações altamente convincentes. De fato, bots impulsionados por IA e deepfakes — que geram vídeos, áudios e conversas falsas — já estão sendo usados para imitar pessoas de destaque, como chefes de estado e executivos de alto escalão.
Em breve, não será exagero nos depararmos em uma situação em que se pensará estar conversando com um colega ou superior em uma chamada em plataforma de videoconferência e, somente depois perceber que era uma falsificação gerada por IA. Esses bots permitirão que cibercriminosos interajam e enganem múltiplas vítimas simultaneamente, lançando campanhas de engenharia social em larga escala com um nível de alcance e sofisticação sem precedentes.
“Até 2025, esperamos um aumento acentuado de cibercriminosos explorando as redes sociais, especialmente usando IA para lançar ataques de personificação direcionados. Deepfakes já interferem em processos políticos e irão se expandir para o ambiente corporativo. Hackers não apenas roubarão seus dados ou credenciais de acesso, mas também irão interromper transações financeiras, decisões corporativas e a reputação da marca. Para se manter à frente do cibercrime, fornecedores e organizações devem adaptar suas ferramentas de defesa e treinar seus funcionários para um novo ambiente de ‘confiança zero’ em que se ‘suspeite de tudo'”, explica Gil Friedrich, vice-presidente de Segurança de E-mail da Check Point Software.
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
JULIANA VERCELLI
juliana.vercelli@inkcomunicacao.com.br