A Inteligência Artificial (IA) tem se espalhado por quase todos os setores, à medida que organizações e consumidores buscam tirar proveito de suas eficiências de escala. Tarefas como análise de dados, transcrição, suporte ao cliente, entre outras, podem ser realizadas com o uso da IA para reduzir o tempo de obtenção de resultados em ordens de grandeza. E com o planejamento financeiro isso não é exceção.
De acordo com uma pesquisa internacional da F2 Strategy, mais da metade das empresas de gestão de fortunas já possui um projeto de IA em andamento. Essas empresas estão interessadas em análises preditivas sobre as condições do mercado e as alterações dos títulos ao longo prazo, reconhecimento óptico de caracteres para analisar documentos, automação do fluxo de trabalho, chatbots, entre outras ações.
O potencial é claro, pois a IA pode reduzir o tempo humano gasto nessas tarefas em até 90%. Ao mesmo tempo, mais de 60% das empresas afirmaram que precisam de mais treinamento sobre IA. Assim, embora o lado positivo seja inegável, a relação valor/risco é menos compreendida.
Segundo a Check Point® Software, essa dinâmica é particularmente importante para o planejamento financeiro, em que os riscos são maiores: o dinheiro das famílias e dos indivíduos está diretamente em risco. Embora os serviços de gestão de patrimônio personalizados sejam geralmente destinados a indivíduos com um patrimônio líquido mais elevado, a IA torna possível oferecer esses serviços a um grupo mais amplo de pessoas.
Os consultores podem desenvolver perfis de clientes e fornecer planos personalizados com base em idade, ativos, riscos, objetivos e necessidades em uma fração do tempo com a IA, o que significa que as empresas podem oferecê-los a mais pessoas. Isso representa um novo mercado para os gestores de patrimônios, mas também um maior conjunto de riscos.
Devemos sempre lembrar que os cibercriminosos também estão utilizando a IA. Esta oferece aos atacantes exatamente os mesmos benefícios, ou seja, é um multiplicador de forças que lhes permite aumentar a escala e a eficácia de suas campanhas. Eles podem até “envenenar” o próprio modelo de IA para revelar informações sensíveis ou apresentar resultados maliciosos.
Além disso, funcionários que não recebem treinamento adequado podem expor inadvertidamente dados sensíveis por meio das informações que inserem nas ferramentas de IA, que posteriormente as incorporam em suas atividades de aprendizado de máquina. Já existiram casos em que isso invalidou reivindicações de propriedade intelectual. Por isso, os controles de segurança devem ser integrados em todo o ciclo de vida da IA, incluindo o treinamento dos funcionários.
Saiba usar IA a seu favor
Antes de utilizar qualquer ferramenta de IA, as organizações devem compreender a classificação da privacidade de todos os dados que possam ser introduzidos, a fonte dos dados utilizados para treinar as ferramentas de IA e as especificidades dos protocolos de segurança em vigor para proteger as informações sensíveis. Isso deve fazer parte da implementação da IA desde o primeiro dia.
Os sistemas de IA abertos acarretam ainda mais riscos, pois são concebidos para serem acessíveis ao público, o que lhes permitem aprender com um conjunto de dados muito maior, mas também possibilita a manipulação dos cibercriminosos. Os sistemas fechados são mais seguros, mas requerem uma gestão mais prática e treinamento de modelos.
Os funcionários devem receber treinamento aprofundado sobre a ferramenta e seu funcionamento, bem como sobre como utilizá-la com segurança, salientando quais dados podem ser utilizados e quais nunca devem ser expostos a um modelo de linguagem de grande dimensão (LLM), como o tipo que alimenta as aplicações de IA Generativa.
Ao implementar uma solução baseada em IA, é importante identificar o âmbito da ferramenta e restringir seu acesso aos dados ao que é absolutamente necessário para treiná-la. Desenvolver uma compreensão abrangente da privacidade da informação, da fonte dos dados do modelo e dos mecanismos de segurança nativos incorporados.
Muitas ferramentas de IA têm defesas incorporadas para proteger contra uma utilização pouco ética – um bom exemplo são as regras do ChatGPT que procuram evitar que as pessoas o utilizem para fins prejudiciais, como a criação de malware. No entanto, também é claro que essas regras podem ser contornadas através de prompts inteligentemente redigidos que confundem a intenção do usuário. Este é um tipo de ataque de injeção de comandos, que é uma categoria de ameaças exclusiva dos sistemas baseados em IA. Devem ser implementados controles rigorosos para evitar esses ataques antes que aconteçam. Em termos gerais, esses controles inserem-se no âmbito das estratégias de cibersegurança de confiança zero (Zero Trust).
As ferramentas de IA, especialmente os LLM que permitem a IA Generativa, não devem ser tratadas como uma ferramenta de software típica. São mais como um híbrido entre uma ferramenta e um usuário. Os programas de confiança zero limitam o acesso aos recursos com base na função, âmbito e necessidades individuais de uma pessoa. Isso limita os danos que um atacante pode causar ao comprometer um único funcionário, porque limita o alcance do movimento lateral.
Assim, é preciso lembrar que a adição de qualquer ferramenta de software também aumenta a superfície de ataque, oferecendo mais pontos de entrada a um atacante. Comprometer uma ferramenta – como a IA – que tem acesso ilimitado a informações de identificação pessoal, segredos da empresa, ferramentas exclusivas, previsões estratégicas, análises competitivas e muito mais pode ser catastrófico. A prevenção desse tipo de violação deve estar na linha de frente da discussão em nível estratégico para implementar ferramentas de IA desde o início.
Assegurar a IA
Embora a maioria das ferramentas de IA venha com segurança incorporada, as organizações devem ter cuidado ao adaptá-las às suas necessidades específicas. E também devem ir além delas. Apesar das semelhanças, cada organização terá casos de uso exclusivos, e calibrar a defesa para corresponder a essa dinâmica é uma aposta para a segurança cibernética em 2024.
O custo do crime cibernético deve causar danos em torno de US$ 9,5 trilhões em todo o mundo em 2024, de acordo com a Cybersecurity Ventures. Claramente, esta não é uma ameaça de nicho. Pode ser razoavelmente considerada uma das principais ameaças que todas as organizações enfrentam atualmente, pelo que a segurança proativa e a prevenção são a base para fazer negócios.
Quando se fala de IA, a segurança é ainda mais importante. A IA não substituirá os consultores financeiros, mas levará o setor à sua próxima fase de evolução, o que significa novas ameaças. A escala dos modelos e os dados que eles ingerem expandem exponencialmente a superfície de ataque, e apenas uma violação pode anular todo e qualquer ganho que uma empresa faça aproveitando a IA. A análise e o controle da cibersegurança, sob um modelo de confiança zero, são indispensáveis para desbloquear todo o potencial de qualquer ferramenta baseada em IA.
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
JULIANA VERCELLI
juliana.vercelli@inkcomunicacao.com.br