Você provavelmente já percebeu que a Inteligência Artificial (IA) está essencialmente em toda parte, desde recomendações personalizadas em aplicativos de streaming até assistentes virtuais em smartphones. Sem dúvida, é inegável que a IA está transformando nosso mundo. Mas com grandes poderes, vêm grandes responsabilidades, especialmente quando falamos de segurança e proteção de dados pessoais.
No Brasil, essa discussão ganha contornos ainda mais relevantes diante de notícias recentes, como a implementação de sistemas de IA em bancos para detecção de fraudes, e a controvérsia global em torno do uso de reconhecimento facial em espaços públicos. Esses desenvolvimentos ilustram a dualidade da IA: uma força poderosa para o bem, que também apresenta desafios significativos para a privacidade e a segurança dos nossos dados.
Desenvolvimentos recentes no Brasil
No Brasil, o Projeto de Lei nº 2338/2023 é um reflexo claro dessa tendência. Ele não apenas estabelece diretrizes para o uso ético da IA, mas também responde às demandas globais por maior responsabilidade no tratamento de dados. Além disso, a ANPD (Autoridade Nacional de Proteção de Dados) tem se mostrado uma protagonista bastante ativa, esforçando-se para moldar um ambiente regulatório que possa acompanhar o ritmo acelerado da inovação tecnológica.
O órgão lançou diretrizes detalhadas e recomendações práticas para empresas e organizações, abordando desde a segurança de dados em infraestruturas baseadas em IA até a gestão de consentimento do usuário.
Estes desenvolvimentos no Brasil são um reflexo do crescente reconhecimento mundial sobre a importância de equilibrar os avanços tecnológicos com a proteção de dados pessoais. Neste cenário dinâmico, o país está se posicionando como um player ativo e consciente, buscando alinhar suas políticas e práticas com padrões globais de proteção de dados e ética em IA.
Histórico da regulamentação da IA
A jornada do Brasil na regulamentação da Inteligência Artificial começou com a introdução do pioneiro Projeto de Lei nº 21/2020. Este projeto representou uma resposta inicial e proativa às questões emergentes relacionadas à IA estabelecendo um arcabouço legal para seu desenvolvimento e uso.
O impacto desse projeto foi imediato e multifacetado. Por exemplo, empresas de tecnologia brasileiras começaram a incorporar considerações éticas em seus algoritmos de IA, enquanto universidades e instituições de pesquisa intensificaram a discussão sobre o impacto social e econômico sobre a mesma. Além disso, o projeto impulsionou um diálogo mais amplo entre o setor público, privado e a sociedade civil, sobre como a IA pode ser usada para promover o bem-estar social, ao mesmo tempo em que se protegem os direitos individuais.
Incidentes de Segurança da Informação
O ano de 2023 tem se destacado pelos inúmeros incidentes significativos de segurança da informação no Brasil, muitos dos quais tornam evidente a necessidade crítica de proteção de dados na era da IA, como no caso ocorrido no Colégio Santo Agostinho, localizado na Barra da Tijuca, Rio de Janeiro. Alunos do colégio utilizaram ferramentas de inteligência artificial para criar montagens de fotos íntimas de colegas do sexo feminino, sem o consentimento delas.
Este abuso da tecnologia de IA levantou questões sérias sobre a ética e a responsabilidade no seu uso, bem como sobre a segurança de dados pessoais sensíveis. A Polícia Civil foi acionada e o caso está sendo investigado pela Delegacia de Proteção à Criança e ao Adolescente (DPCA). Este caso serve como um lembrete contundente da necessidade de políticas robustas de segurança de dados e ética no uso de tecnologias de IA, especialmente em aplicações que lidam com dados pessoais.
Projeto de Lei para regulamentar IA no Brasil
O Brasil está avançando significativamente na regulamentação da Inteligência Artificial (IA), especialmente na interseção com a proteção de dados pessoais. A ANPD publicou uma análise preliminar do Projeto de Lei nº 2338/2023, que se concentra nas diretrizes para o uso da IA. Este projeto é um passo importante, já que lida com questões de sobreposição e conflitos com a LGPD, particularmente em ambientes de IA de alto risco.
Comparativamente, na União Europeia, a criação de uma lei abrangente para regular o desenvolvimento e aplicações comerciais da IA está avançado com a proposta do AI Act, que visa garantir que os sistemas de IA, especialmente aqueles de alto risco, estejam em conformidade com as normas de segurança e direitos fundamentais.
Nos EUA, apesar de vários estados e municípios perseguirem formas variadas de regulamentação da IA, não houve uma pressão tão dramática por uma legislação nacional abrangente sobre o tema. A abordagem dos EUA para a regulamentação futura da IA considerará a inovação significativa na área que ocorre no país, operando dentro dos limites de frameworks existentes, como o AI Risk Management Framework do National Institute of Standards and Technology. A comparação com as iniciativas na União Europeia e nos EUA ilustra a diversidade de abordagens na regulamentação da IA e proteção de dados.
Tendências e desafios para 2024 e além
À medida que nos aproximamos de 2024, o Brasil, juntamente com o mundo, está mergulhado em um panorama dinâmico, onde temas como a IA, segurança da informação e a proteção de dados pessoais estão intimamente entrelaçadas.
Mesmo que de maneira um tanto quanto mais lenta que os avanços da IA, leis e regulamentações também têm evoluído, e estão ganhando impulso cada vez mais forte, com um foco crescente na proteção dos dados pessoais cobertos por leis modernas de privacidade.
A IA tem o potencial de impulsionar inovações em essencialmente todos os setores, promover o bem-estar social e melhorar a eficiência em processos e serviços. No entanto, esses benefícios só podem ser realizados se a tecnologia for usada com uma consideração cuidadosa pela ética, pela privacidade e pelos direitos dos indivíduos.
O Brasil, seguindo os passos de outras nações, está se posicionando como um líder atento no diálogo global sobre a IA e a proteção de dados. A colaboração entre governos, setor privado, academia e sociedade civil será crucial para moldar um futuro em que a tecnologia e a privacidade coexistam harmoniosamente.
Em nossa jornada neste cenário em constante evolução, é vital que mantenhamos um compromisso contínuo com a vigilância, a adaptabilidade e a inovação responsável. Ao fazer isso, podemos assegurar que a IA seja uma força para o progresso e a proteção, e não um vetor de riscos incontroláveis. A jornada é complexa, mas as recompensas de um equilíbrio bem-sucedido entre a inovação tecnológica e a proteção de dados são inestimáveis para a sociedade como um todo.
*Cláudio Dodt é Sócio e Líder de Prática na Daryus Consultoria, sendo responsável pelos times de consultores de Segurança da Informação, Cibersegurança, Privacidade & Proteção de Dados.
Sobre a Daryus Consultoria
O Grupo Daryus possui mais de 17 anos no mercado nacional, é referência em consultoria e educação no tema. A Daryus Consultoria, atua em Continuidade de Negócios, Gestão de Riscos, Segurança e Privacidade da Informação e Cibersegurança, para empresas nacionais e multinacionais líderes em vários segmentos. Para mais informações, acesse: https://www.daryus.com.br/consultoria
Este conteúdo foi distribuído pela plataforma SALA DA NOTÍCIA e elaborado/criado pelo Assessor(a):
U | U
U