A Check Point Software divulga os resultados de uma pesquisa realizada em colaboração com a Enterprise Strategy Group (ESG) da TechTarget, na qual é revelado o papel da IA generativa na segurança cibernética: 92% dos entrevistados concordaram que a aprendizagem de máquina melhora a eficácia e a eficiência das tecnologias de cibersegurança.
À medida que o cenário digital evolui, também desenvolve o domínio da cibersegurança, agora à beira de uma era transformadora impulsionada pela Inteligência Artificial Generativa (GenAI). A pesquisa revela insights e estatísticas convincentes que destacam o papel crítico da IA generativa na formação do futuro da cibersegurança.
Para o levantamento dos dados para este relatório, a ESG realizou uma abrangente pesquisa online com profissionais de TI e de cibersegurança de organizações dos setores público e privado na América do Norte no período de 6 a 21 de novembro de 2023. Para se qualificar para esta pesquisa, os respondentes deveriam estar envolvidos no suporte e segurança, bem como no uso, de tecnologias de IA generativa.
Os principais objetivos da pesquisa foram:
. Identificar o uso atual e os planos para IA generativa.
. Estabelecer como a IA generativa influencia o equilíbrio de poder entre cibercriminosos e defensores cibernéticos.
. Determinar como as organizações estão abordando a governança, políticas e aplicação de políticas de IA generativa.
. Monitorar como as organizações aplicarão a IA generativa na adoção e seu uso em cibersegurança.
Destaques da pesquisa
A IA generativa já está presente e será onipresente até ao final de 2024.
Eficácia e eficiência da cibersegurança: 92% dos entrevistados concordaram que o aprendizado de máquina melhora a eficácia e a eficiência das tecnologias de segurança cibernética. Eles apontaram as áreas em que acreditam que a IA generativa é mais promissora para a segurança cibernética:
. Aprimorar a higiene de segurança e o gerenciamento de postura.
. Orientar a equipe de segurança cibernética com ações recomendadas.
. Acelerar a detecção e resposta a ameaças.
. Consolidar tecnologias de segurança.
. Treinamento de pessoal iniciante em segurança cibernética.
. Melhorar a qualidade do software desenvolvido internamente.
. Criação de relatório de segurança resumido (ou seja, incidentes de segurança, ameaças, relatórios executivos, entre outros).
. Criação de regras de detecção.
. Análise de inteligência de ameaças.
. Usar uma interface de linguagem natural.
. Automatizar processos.
. Teste de penetração e/ou Red Team.
O paradoxo da adoção: Enquanto 87% dos profissionais de segurança reconheceram o potencial da IA generativa para aprimorar as defesas de cibersegurança, há um sentido palpável de cautela. Isso decorre do entendimento de que as mesmas tecnologias também podem ser utilizadas por adversários para orquestrar ataques cibernéticos mais sofisticados.
Governança estratégica e desenvolvimento de políticas: Impressionantes 75% das empresas já estão desenvolvendo políticas de uso de IA generativa em cibersegurança. Esta abordagem proativa indica uma mudança significativa para a integração desta nova tecnologia na área, garantindo que sua aplicação seja eficaz e responsável.
Investimento e impacto: A pesquisa prevê uma tendência crucial: até o final de 2024, a IA generativa influenciará as decisões de compra de cibersegurança de mais de 60% das organizações. Esta estatística é um testemunho da crescente confiança nas capacidades da IA para revolucionar as operações de segurança, desde a detecção de ameaças até a resposta a incidentes.
Eficiência operacional e resposta a ameaças: Uma das estatísticas mais marcantes da pesquisa é que 80% das equipes de segurança entrevistadas esperam que a IA generativa melhore significativamente a eficiência operacional. Além disso, 65% esperam que ela aprimore os tempos de resposta a ameaças, destacando o potencial da tecnologia não apenas para aumentar, mas também para acelerar ativamente os fluxos de trabalho de segurança.
Desafios e preocupações: Aproximadamente 70% dos entrevistados destacaram o desafio de integrar a IA generativa nas suas infraestruturas de segurança, enquanto 60% ressaltaram os riscos associados a potenciais preconceitos e considerações éticas.
A tendência crescente para o desenvolvimento de Large Language Models (LLMs) proprietários e para a implementação de estruturas de governança de IA generativa, especialmente em organizações maiores, foi apontada na pesquisa.
Naturalmente, os cibercriminosos também têm acesso a aplicações de IA generativa abertas e têm capacidades técnicas para desenvolver suas próprias LLMs. WormGPT e FraudGPT são exemplos iniciais de LLMs projetados para uso por cibercriminosos e hackers.
Os cibercriminosos usarão e se beneficiarão de LLMs? Mais de três quartos dos entrevistados (76%) não apenas acreditam que sim, mas também sentem que eles terão a maior vantagem (sobre os defensores cibernéticos) a partir da inovação da IA generativa.
A maioria dos profissionais de segurança acredita que os cibercriminosos já estão usando GenAI e que os adversários sempre ganham uma vantagem com novas tecnologias. Os entrevistados também acreditam que a IA generativa poderia levar a um aumento no volume de ameaças, pois torna mais fácil para os adversários não qualificados desenvolverem ataques mais sofisticados. Profissionais de segurança e TI também estão preocupados com deepfakes e ataques automatizados.
Navegar pela nova fronteira
Essa pesquisa fornece novos dados sobre o futuro da IA generativa na segurança cibernética. Os seus resultados são otimistas e mostram que o potencial de inovação é equilibrado pela consciência dos desafios apresentados por esta nova tecnologia. À medida que as empresas navegam neste novo cenário, as conclusões dessa pesquisa ajudam a desenvolver estratégias que não são apenas tecnologicamente avançadas, mas também éticas e sólidas. Ou seja, segundo os respondentes, não se trata apenas de adotar a IA generativa, mas de fazê-lo de forma reflexiva, responsável e transformadora.