À medida que avançamos em 2025, a rápida evolução da inteligência artificial (IA) deverá remodelar dramaticamente o cenário da cibersegurança. A Check Point Software prevê vários desenvolvimentos importantes que terão um impacto significativo no mundo digital. O aumento do uso de IA terá implicações de grande alcance em áreas como consumo de energia, desenvolvimento de software e marcos éticos e legais. Naturalmente, tecnologias de IA também serão utilizadas como “ciberarmas” por cibercriminosos e atacantes com foco em Estado-nação, criando novas ameaças à cibersegurança.
A explosão da IA
A adoção de tecnologias de IA está acelerando em um ritmo sem precedentes. O ChatGPT, por exemplo, atingiu 100 milhões de usuários apenas 60 dias após seu lançamento e agora conta com mais de 3 bilhões de visitas mensais. Esse crescimento explosivo não se limita ao ChatGPT; outros modelos de IA, como Claude, Gemini e Midjourney, também estão sendo amplamente adotados.
Até o final de 2024, 92% das empresas da Fortune 500 haviam integrado IA generativa em seus fluxos de trabalho, segundo o Financial Times. A Dimension Market Research prevê que, até 2033, o mercado global de grandes modelos de linguagem (LLMs) alcançará US$ 140,8 bilhões. “Essas tecnologias de IA exigem enormes recursos computacionais, e a rápida adoção já está impulsionando um aumento significativo na demanda por terreno, água e energia para sustentá-las. Em 2025, o impacto dessa demanda nas fontes naturais será amplamente sentido”, aponta Dan Karpati, vice-presidente de Tecnologias de IA da Check Point Software.
Demandas energéticas e inovação em eficiência
A proliferação da IA está exercendo enorme pressão sobre os recursos energéticos globais. Os Data Centers, que são a espinha dorsal das operações de IA, estão se multiplicando rapidamente. Esses centros requerem terra, energia e água, três recursos naturais preciosos que já estão sob pressão mesmo sem as crescentes demandas da IA.
Segundo a McKinsey, o número de data centers dobrou de 3.500 em 2015 para 7.000 em 2024. A Deloitte projeta que o consumo de energia desses centros saltará de 508 TWh em 2024 para impressionantes 1.580 TWh até 2034 — o equivalente ao consumo anual de energia da Índia.
Especialistas, como os da Deloitte, alertam que o sistema atual está se tornando rapidamente insustentável. A Goldman Sachs Research estima que a demanda por energia dos data centers crescerá 160% até 2030, com a IA representando cerca de 19% desse consumo até 2028. “Essa demanda sem precedentes por energia exige uma mudança para fontes de energia mais sustentáveis e soluções inovadoras de resfriamento para cargas de trabalho (workloads) intensivas de IA. Embora avanços tenham sido feitos na utilização de fontes alternativas de energia, é provável que a energia nuclear seja empregada para sustentar o aumento no consumo energético impulsionado pela IA”, afirma Karpati.
A tecnologia de computação também se tornará mais eficiente com avanços no design de chips e no planejamento de cargas de trabalho. Como as cargas de trabalho de IA frequentemente envolvem transferências massivas de dados, as inovações como arquiteturas de computação na memória (CIM) — que reduzem significativamente a energia necessária para mover dados entre memória e processadores — se tornarão essenciais.
Os chips de memória de acesso aleatório (RAM) integram processamento dentro da própria memória, eliminando a separação entre unidades de computação e memória, melhorando a eficiência. Essas e outras tecnologias disruptivas emergirão para ajudar a gerenciar a crescente demanda computacional de maneira eficiente em termos de energia.
IA responsável transformará o desenvolvimento de software
A IA está pronta para revolucionar o desenvolvimento e a programação de software. Observa-se um avanço além das ferramentas simples na função de autocompletar código, como o GitHub Copilot, para plataformas completas de criação de código, como CursorAI e Replit.com. Embora essa evolução prometa aumentar a produtividade, ela também traz riscos significativos à segurança.
A IA oferece a qualquer cibercriminoso a capacidade de gerar malware completo a partir de um único comando, inaugurando uma nova era de ameaças cibernéticas. A barreira de entrada para cibercriminosos desaparecerá, tornando-os mais sofisticados e difundidos, deixando nosso mundo digital com mais riscos pela frente.
Essa ameaça impulsionará a área de IA responsável, a qual se refere à prática de fornecedores de IA construírem barreiras para evitar a utilização maliciosa ou prejudicial de seus grandes modelos de linguagem. Desenvolvedores de software e fornecedores de cibersegurança devem unir forças para alcançar a IA responsável.
Os fornecedores de segurança possuem profunda experiência em entender a mentalidade de atacantes para simular e prever novas técnicas de ataque. Testadores de penetração, hackers “white hat” e equipes “red team” são dedicados a encontrar formas de explorar software antes que atacantes o façam, para que vulnerabilidades sejam corrigidas proativamente. Novas parcerias entre fornecedores de software e cibersegurança são necessárias para testar modelos de LLM quanto ao seu possível uso como arma cibernética.
Desafios éticos e regulatórios
Conforme a IA se torna mais presente, enfrentaremos crescentes desafios éticos e regulatórios. Duas importantes legislações já estão previstas para entrar em vigor em 2025. A Lei de IA da União Europeia entrará em vigor em 2 de fevereiro de 2025, com disposições adicionais sendo implementadas em 2 de agosto. Nos Estados Unidos, um novo marco regulatório para IA deve ser implementado por meio do Ato de Autorização de Defesa Nacional (NDAA) e outras medidas legislativas (no entanto, novas mudanças poderão incorrer a partir da posse do presidente Donald Trump), com provisões importantes previstas para o início de 2025. Essas novas leis forçarão as empresas a exercer maior controle sobre suas implementações de IA, e novas plataformas de governança de IA surgirão para ajudar a construir confiança, transparência e ética nos modelos de IA.
“Em 2025, podemos esperar um aumento em estruturas de garantia de IA específicas do setor industrial para validar a confiabilidade da IA, mitigação de vieses e segurança. Essas plataformas garantirão a explicabilidade dos resultados gerados pela IA, evitarão resultados prejudiciais ou tendenciosos e fomentarão confiança em ferramentas de cibersegurança baseadas em IA”, diz Dan Karpati.
Em resumo, para o executivo da Check Point Software, o ano de 2025 promete ser um marco para a IA e a cibersegurança. Embora a IA ofereça oportunidades sem precedentes de avanço, ela também apresenta desafios significativos. Uma cooperação estreita entre o setor comercial, fornecedores de software e segurança, governos e forças de segurança será essencial para garantir que essa poderosa tecnologia não prejudique a confiança digital ou o meio ambiente físico. “Como profissionais de cibersegurança, devemos estar à frente desses desenvolvimentos, adaptando nossas estratégias para aproveitar o poder da IA enquanto mitigamos seus riscos. O futuro será determinado por nossa capacidade de navegar nesse complexo cenário impulsionado pela IA”, conclui Karpati.
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
JULIANA VERCELLI
juliana.vercelli@inkcomunicacao.com.br