
Artigos

Inteligência artificial generativa no Poder Judiciário sob a perspectiva da LGPD
29/11/2024
A Lei nº 13.709/2018, conhecida como LGPD (Lei Geral de Proteção de Dados), orienta, nos meios físicos ou digitais, as atividades com dados pessoais, realizadas por pessoa natural com fins econômicos ou por pessoa jurídica de direito público ou privado, de modo a garantir, entre outros, os direitos fundamentais à liberdade, à privacidade e ao livre desenvolvimento da personalidade da pessoa natural, concomitantemente ao desenvolvimento econômico e tecnológico, bem como à inovação. Por essa razão, uma de suas principais características é ter conceitos amplos, que permitam sua aplicação nas mais diversas áreas que podem fazer uso de informações das pessoas naturais.
O exemplo prático que atinge todos são os e-mails de marketing. Hoje uma empresa com uma boa equipe de análise de dados coleta rapidamente várias informações pessoais, a partir de acesso a sites, tempos de visualização ou likes e pode ser muito assertiva nas suas campanhas promocionais, direcionando-as ao perfil de cada consumidor que recebe um e-mail com o exato produto que queria comprar e por um preço melhor. Nesse caso, temos as duas partes da cadeia satisfeitas com o uso de dados pessoais.
Da mesma forma que a iniciativa privada deve ter esse cuidado, sob pena de ser responsabilizada administrativamente, perante a Autoridade Nacional de Proteção de Dados, ou judicialmente, perante o Poder Judiciário, toda a administração pública e seus órgãos devem estar adequados à legislação, realizando avaliações e implementações internas, sob pena de, igualmente, de responsabilização.
Panorama do uso da IA no Judiciário sob a perspectiva da LGPD
Nesse aspecto, o Poder Judiciário ganha um enfoque ainda maior, pois, conforme citado acima, ele é responsável por decidir litígios envolvendo o uso de dados pessoais, ao mesmo tempo em que todas as suas atividades devem estar adequadas à LGPD, inclusive a própria prestação jurisdicional. Assim, há uma cobrança social implícita de que, a forma como o Poder Judiciário aplica a lei internamente, refletirá na forma que ele exigirá das partes no processo judicial. Consequentemente, tem-se a importância de refletir sobre a inteligência artificial no Poder Judiciário sob a perspectiva da Lei Geral de Proteção de Dados.
No Brasil, desde 2020 [1], o Conselho Nacional de Justiça (CNJ) já regulamenta o uso da IA pelos órgãos judiciários e existem diversas situações de uso, por exemplo, o “Robô VitórIA”, utilizado pelo STF e que tem por objetivo “ampliar o conhecimento sobre o perfil dos processos recebidos no STF e permitir o tratamento conjunto de temas repetidos ou similares” [2].
É inequívoco que a inteligência artificial veio para romper barreiras, otimizar processos, liberar pessoas de realizar serviços mecânicos, inclusive desburocratizar atividades jurisdicionais, ainda mais considerando as metas que precisam ser cumpridas em um ambiente com um alto volume de serviços, tal como é a realidade do Poder Judiciário, entretanto, esse uso deve ser consciente.
Primeiramente, deve-se compreender que quando se insere o processo judicial ou parte dele em uma ferramenta para auxiliar em atividades como resumos de processos [3], minutas de sentenças, cálculos trabalhistas ou identificação se existiu trabalho aos domingos e feriados, enfim, qualquer atividade com o processo que contenha informações de pessoas naturais, o magistrado ou o servidor público estará tratando dados pessoais.
Especificamente, estará compartilhando os dados pessoais internamente, se a plataforma for desenvolvida pelo tribunal, ou compartilhando externamente, se for uma plataforma de desenvolvedor externo ao órgão. Neste último aspecto, aumenta-se a complexidade do tratamento quando se fala em inteligência artificial generativa [4] em que as informações passam a alimentar a ferramenta e a serem armazenadas na base de dados da IA.
Quando a plataforma é desenvolvida pelo tribunal, deve-se pensar em privacy by design, ou seja, garantir a privacidade e proteção de dados desde a sua concepção. Enquanto, se for utilizar uma plataforma já existente no mercado, como “ChatGPT” (OpenAI), “Gemini” (Google) ou “Copilot” (Microsoft), é imprescindível diligenciar a conformidade à LGPD e às Políticas Internas aprovadas no Órgão, tanto para mapear os riscos, como se eximir de responsabilidades, aplicando-se o privacy by default (privacidade por padrão).
Isto, pois, existe o risco de expor os titulares dos dados a atividades incompatíveis com as inicialmente pretendidas, por exemplo, listas discriminatórias de litigantes trabalhistas ou as partes serem vítimas de golpes. Além de situações, como o fato a soberania do país ficar exposta ao se realizar o compartilhamento e armazenamento de dados de dentro da administração pública — que envolvem, na maioria, cidadãos brasileiros — se os data centers dos desenvolvedores externos estiverem localizados em países que não atendem às diretrizes da LGPD e ao regulamento da ANPD [5] sobre transferência internacional de dados.
Para ler o artigo na íntegra, acesse aqui.
Fonte: Conjur