OpenAI é atingida com reclamação de privacidade na Áustria por potencial violação da lei da UE

31/05/2024

A desenvolvedora proeminente de inteligência artificial (IA) OpenAI foi colocada no centro de uma nova denúncia de privacidade lançada por um grupo de defesa dos direitos de dados na Áustria.

Em 29 de abril, a Noyb abriu a denúncia alegando que a OpenAI não corrigiu informações falsas fornecidas por seu chatbot de IA generativa ChatGPT. O grupo disse que essas ações, ou a falta delas, poderiam violar as regras de privacidade na União Europeia.

De acordo com o grupo, o denunciante do caso, uma figura pública não identificada, pediu informações sobre si mesmo ao chatbot da OpenAI e recebeu consistentemente informações incorretas.

A OpenAI supostamente recusou o pedido da figura pública para corrigir ou apagar os dados, alegando que não era possível. Também recusou revelar informações sobre seus dados de treinamento e de onde foram originados.

Maartje de Graaf, advogada de proteção de dados da Noyb, comentou sobre o caso em um comunicado:

“Se um sistema não pode produzir resultados precisos e transparentes, não pode ser usado para gerar dados sobre indivíduos. A tecnologia deve seguir os requisitos legais, não o contrário.”

A Noyb levou sua denúncia à autoridade de proteção de dados austríaca, solicitando que investigue o processamento de dados da OpenAI e como garante a precisão dos dados pessoais que seus modelos de linguagem processam.

De Graaf disse “está claro que as empresas atualmente não conseguem fazer chatbots como o ChatGPT cumprir a lei da UE ao processar dados sobre indivíduos.”

A Noyb, também conhecida como Centro Europeu para Direitos Digitais, opera a partir de Viena, Áustria, com o objetivo de lançar “processos judiciais estratégicos e iniciativas de mídia” que apoiam as leis de Regulamentação Geral de Proteção de Dados europeias.

Esta não é a primeira vez que chatbots são chamados à atenção na Europa por ativistas ou pesquisadores.

Em dezembro de 2023, um estudo de duas organizações sem fins lucrativos europeias revelou que o chatbot de IA Bing da Microsoft, rebatizado para Copilot, estava fornecendo informações enganosas ou incorretas sobre eleições locais em eleições políticas na Alemanha e na Suíça.

O chatbot forneceu respostas incorretas sobre informações de candidatos, pesquisas, escândalos e votação, enquanto citava incorretamente suas fontes.

Outra instância, embora não especificamente na UE, foi vista com o chatbot de IA Gemini do Google, que estava fornecendo imagens “politicamente corretas” e incorretas em seu gerador de imagens. O Google emitiu um pedido de desculpas pelo incidente e disse que estaria atualizando seu modelo.

Fonte: br.cointelegraph

Categorias: LGPD,Notícias,

Voltar