Na era da inteligência artificial, como fica a segurança de dados?

17/05/2024

As empresas de computação em nuvem chocaram o mundo com as inteligências artificiais lançadas no ano de 2023, em especial a OpenAI, com o ChatGPT e a DALL-E. Muitos se maravilharam com o mundo de possibilidades que esses programas inteligentes abriram. Já outros se chocaram com as implicações na área da segurança, direito autoral e na capacidade de distorção da realidade factual que as ferramentas novas proporcionam, e o debate pela regulamentação do uso segue em curso nas casas legislativas de diversos países.

Contudo, como explica o pesquisador Routo Terada, doutor em Ciência da Computação e mestre em Matemática pelo Instituto de Matemática e Estatística da USP, as inteligências artificiais não são tão novas assim: “Inteligência artificial é um termo antigo, existe desde a década de 60. Na época, o termo foi mais usado em ambiente acadêmico, nas universidades etc. Eu, por exemplo, estudei naquela época”, conta Terada.

Segundo o pesquisador, o que possibilitou o novo boom das inteligências artificiais foi a capacidade de processamento dos computadores atuais, principalmente a computação em nuvem e o aprimoramento na computação paralela.

Duas zonas de perigo

Conforme explica Fabio Gagliardi Cozman, professor da Escola Politécnica da Universidade de São Paulo, as ferramentas de inteligência artificial abrem novos perigos na área de segurança de dados em dois fronts diferentes. O primeiro deles está na encriptação e desencriptação dos dados.

“Existe de fato uma briga entre os que querem guardar informação de forma segura e os que querem abrir essa informação para decifrar. Existem algoritmos clássicos que fazem isso e que podem ser melhorados com técnicas de inteligência artificial.
Em particular, técnicas de aprendizado de máquina, aquelas que usam observações, experimentos, experiências para melhorar o desempenho de algoritmos”, explica o professor Gagliardi.

A outra batalha é travada no meio da engenharia social, ou seja, os usuários mal-intencionados exploram as vulnerabilidades humanas de outros usuários para obter materiais confidenciais, como senhas bancárias, dados de navegação e outras informações de cunho particular.

“As vulnerabilidades podem acontecer na medida em que você tem sistemas artificiais interagindo com os seres humanos. Você pode ter sistemas que, na interação com o usuário, obtêm informações inadvertidamente. Aí, o usuário é levado a revelar informações. Pode haver sistemas que também são feitos para interagir com o usuário de forma adequada, mas tem alguma falha. O usuário pode ser enganado e revelar essas contas para um outro agente inadequado”, conta Gagliardi.

Routo Terada também concorda que o maior risco de segurança que as IAs abrem está na capacidade de simulação dessas ferramentas. A OpenAI divulgou vídeos de demonstração da DALL-E 3, a nova versão do software de criação audiovisual, em que as imagens criadas são preocupantemente realistas. “A inteligência artificial consegue, com as velhas técnicas, simular situações da vida real. E, nesse sentido, a coisa ficou feia, um cidadão não consegue mais distinguir entre o artificial e o natural e pode ser enganado pela imagem e pela voz. Tudo que é simulado passa a ser quase natural para um cidadão comum.”

E qual é a solução?

O professor Terada ministra aulas de autenticação de dados, ou seja, algoritmos matemáticos que servem para verificar se uma informação apresentada é verídica ou não. “Autenticação seria pegar o conteúdo digital e gerar uma sequência de bits com uma chave que só o autor daquele documento possa gerar e essa assinatura é enviada junto com o arquivo digital.”

Técnicas de autenticação de imagens e documentos podem auxiliar os usuários a não serem enganados com o uso da inteligência artificial. A DALL-E, por exemplo, já coloca marcas d’água em todos os vídeos que a ferramenta produz, outra maneira de impedir o uso malicioso da IA generativa. E, é claro, crimes cibernéticos também são crimes e também é papel da Justiça agir nesses casos para punir os criminosos: “Os crimes de falsificação ficam mais fáceis com esses processadores mais potentes. É simulada alguma coisa verdadeira, mas quem é que programa esse simuladores? São pessoas hábeis, com talento para programar, mas é sempre um ser humano por trás”, conclui o professor.

Fonte: jornal.usp.br

Categorias: Artigos,LGPD,

Voltar