ÉTICA E IA NO PODER JUDICIÁRIO
Dierle Nunes, Fernanda Bragança e Renata Braga
Desde 2019, o Centro de Inovação, Administração e Pesquisa do Judiciário da FGV (Fundação Getulio Vargas), sob a coordenação do ministro Luis Felipe Salomão, faz o levantamento inédito das iniciativas de inteligência artificial nos tribunais brasileiros por meio da pesquisa “Inteligência Artificial: Tecnologia aplicada à gestão dos conflitos no âmbito do Poder Judiciário brasileiro” [1].
A 1ª edição, de 2020, buscou verificar o estado da arte da inteligência artificial (IA) nas Cortes brasileiras a partir da apuração de variáveis como a situação atual da ferramenta, os problemas que busca solucionar e os resultados obtidos e esperados com o emprego da tecnologia. Nesta edição, a pesquisa mapeou que 47 tribunais empregavam a IA em alguma atividade, além da Plataforma Sinapses do CNJ (Conselho Nacional de Justiça).
Em 2021, na 2ª edição da pesquisa[2], o levantamento foi replicado nos tribunais brasileiros, tendo em vista a dinamicidade dos dados, e encontrou 64 ferramentas de inteligência artificial. Esta edição ampliou o mapeamento das tecnologias utilizadas, as quais passaram a englobar a inteligência computacional/inteligência artificial e analytics/business intelligence.
O referido mapeamento incluiu informações sobre a equipe responsável; aspectos técnicos; base de dados; avaliação e monitoramento. A amostra dos tribunais pesquisados se manteve a mesma da 1ª edição e a metodologia incluiu um formulário mais abrangente, com maior número de variáveis para investigação.
Com o objetivo de aprofundar, de forma mais prática, sobre alguns dos sistemas de IA utilizados pelos tribunais do país, em 2022, o Centro do Judiciário deu sequência à terceira fase da pesquisa. Nesta 3ª etapa do estudo, foram analisadas de forma mais aprofundada as ferramentas de IA disponíveis no STF, STJ, TST, TRF 1ª Região e TJ-DF[3]. A investigação buscou trazer um fluxo do funcionamento da aplicação dessa tecnologia, bem como analisou a adequação da IA aos aspectos éticos elencados pelo CNJ na Resolução N°. 332 de 2020.
No entanto, aqui precisamos entender claramente a diferença entre regras morais e pontos de vista éticos. As regras morais são como leis universais que devem ser seguidas por todos. Já os pontos de vista éticos são mais sobre crenças e valores que as pessoas ou grupos particulares possuem[4].
Pense em questões éticas como aquelas que afetam “nós”, ou seja, o que uma comunidade específica acredita serem os critérios ou valores que devem guiar suas vidas. Isso se relaciona com a ideia de uma vida boa ou, pelo menos, uma vida que seja bem-sucedida.
Mas aqui está a parte importante: as questões éticas não exigem que as pessoas se desvinculem de seus próprios interesses ou da sociedade. Elas estão ligadas ao que é melhor para o grupo.
Habermas[5], por exemplo, fala sobre a diferença entre o que é “justo” (moral) e o que é “bom” (ético). O “bom” é o que um grupo de pessoas quer, baseado em um valor compartilhado. Mas o “justo” vai além, lidando com o que é correto e os direitos que todos têm.
No mundo moderno, o Direito mudou. Não é mais apenas uma extensão da moral, mas algo que complementa, com suas próprias regras. Isso é feito através da ideia de soberania popular (ou autonomia pública) e direitos humanos (ou autonomia privada).
A partir desse ponto de vista, a ética intervém antes e ao lado da lei com o objetivo de servir de parâmetro para delimitação do “bom” para a comunidade, entre o que é ou não tolerável, entre o que beneficia ou prejudica um grupo, entre o que contribui ou não para o bem comum.
Em matéria de IA, a noção da ética tenta se concentrar sobre as problemáticas normativas ligadas à concepção, desenvolvimento, implantação e utilização dos modelos de IA, mas sempre com um grande dilema de seu nível de obrigatoriedade sistêmica, ou seja, de enforcement. Em um contexto [6] caracterizado por constantes avanços tecnológicos e por fortes incertezas de quanto à amplitude e conteúdo da regulação desse tema, a ética se apresenta como uma diretriz fundante, que porém, no plano regulatório, ainda pode carecer da força necessária para dirimir os dilemas e complexidades atinentes ao uso de uma tecnologia que se tornou de propósito geral e ubíqua em todos os sistemas sociais.
É notável que grande parte dos comitês e relatórios relacionados à ética da IA possuem um conteúdo bastante repetitivo, essencialmente voltado à proteção da vida privada e dos dados pessoais. De fato, esses valores éticos relacionados a essa ferramenta formam um suposto consenso retórico que mascara uma série de desafios que a IA submete ao indivíduo e à sociedade.
Como a IA é uma ferramenta que se expande em diversos aspectos da vida humana, é importante garantir que ela sirva ao Homem e, portanto, não lhe cause prejuízo[7]. A discussão ética sobre IA está no centro do debate mundial e de todos os setores econômicos. Essa tecnologia é aplicada, majoritariamente, por multinacionais e no setor privado, que têm criado grupos específicos para o estudo do tema. Assim, a Meta (antigo Facebook)[8] criou em 2018 uma equipe voltada especificamente à questão, enquanto o DeepMind[9] implementou um departamento de pesquisa em ética e sociedade. De forma coletiva, 50 grandes empresas de tecnologia, organizações não governamentais e centros de pesquisa [10] firmaram uma parceria tendo em vista beneficiar o indivíduo e a sociedade.
As iniciativas nesse sentido se multiplicam e congregam as mais variadas instituições. Assim, o Vaticano anunciou uma parceria com a Microsoft e a IBM para criar um prêmio universitário destinado a promover a ética no domínio da IA, de acordo com os valores antropológicos cristãos. Essa associação resultou na publicação “Rome call for AI Ethic”[11].
O debate sobre a ética, ao mesmo tempo em que avança nas discussões acadêmicas e institucionais, apresenta alguns pontos de atenção. O destaque é que a onipresença desse tema nos discursos comerciais serve de uma vitrine publicitária que encobre uma estratégia agressiva da indústria no sentido de ganhar credibilidade junto ao público, aos governos e órgãos potenciais de regulação, sem representar reais preocupações de se garantir o combate à (v.g) discriminação algorítmica, opacidade (etc.) e que garanta realmente FTA (Fainess, transparency e accountability).
Na prática, chama atenção que CEOs de grandes empresas criem recursos tecnológicos cada vez mais intrusivos no comportamento humano, ao mesmo tempo desaconselham seus familiares a utilizarem essas ferramentas[12].
Em 2020, um levantamento estimou a existência de mais de 200[13] documentos com o objetivo de estabelecer diretrizes éticas sobre o uso da IA. Um grupo de trabalho fez uma cartografia da maior parte desse material, sobretudo os elaborados no âmbito dos Estados-membros da União Europeia, América do Norte e Ásia, e verificou que esses instrumentos convergem no que concerne aos princípios, porém, nas recomendações, o cenário é marcado por uma forte diversidade de propostas. No momento atual, a mobilização consiste em colocar em prática esses conteúdos.
Neste contexto, uma constatação parece irrefutável: a IA modificou, sobremaneira, nosso cotidiano. Para a Comissão Europeia[14], se trata de uma transformação tão disruptiva quanto àquela provocada pela Revolução Industrial. Sobretudo pela perspectiva econômica, o homem teve sua importância concentrada nos seus dados e a IA é, na atualidade, a mais importante ferramenta para tratamento dessas informações.
A razão pela qual a IA enfrenta uma série de desafios éticos se deve ao seu modo de funcionamento, que tem como premissa a coleta e o tratamento de uma quantidade massiva de dados (que, por vezes, têm natureza pessoal).
Diversos países criaram sua legislação de proteção de dados pessoais com base no regulamento europeu[15]. Esse papel de referência mundial fez com que a UE buscasse reforçar a sua liderança em matéria ética e de regulação da IA. Contudo, outras nações também concorrem para servir de parâmetro nesse campo; o que faz da ética um problema geopolítico[16].
O protagonismo europeu ganha impulso com as parcerias de instituições e organizações internacionais, a exemplo da OCDE, do G20 e da ONU. Ainda que o mercado tecnológico esteja mais concentrado nos Estados Unidos e na China, é notável que a ética se tornou um instrumento econômico relevante. A ética compõe um aspecto da estratégia em termos de concorrência e serve de contrapeso [17] para a competitividade europeia.
As normas brasileiras têm se inspirado nas normativas europeias quanto aos aspectos éticos. Assim, o CNJ editou a Resolução n° 332 de 2020[18], a qual dispôs sobre a ética, a transparência e a governança na produção e no uso da IA no Poder Judiciário, a partir da Carta europeia de ética sobre o uso da IA em sistemas judiciais e seu ambiente[19].
A Resolução n° 332 de 2020 trata sobre os seguintes aspectos: respeito aos direitos fundamentais, não discriminação, publicidade e transparência, governança e qualidade, segurança, controle do usuário, pesquisa, desenvolvimento e implantação, prestação de contas e responsabilização.
De fato, a ideação de uma parte considerável das ferramentas de IA em uso pelos tribunais foi feita em um momento prévio à elaboração da Resolução n° 332 do CNJ, o que impõe maiores desafios de adaptação.
Ela foi determinante para atual etapa de nossa pesquisa de monitoramento das iniciativas de IA em nosso Judiciário.
A rigor, foi constatada na pesquisa a necessidade de adequação nos pontos de publicidade e transparência, governança e qualidade, segurança e controle do usuário. Nesse sentido, o relatório apresentou, fundamentalmente, as seguintes proposições:
– Atualização online do painel do CNJ sobre os sistemas de IA dos tribunais, de modo a dar continuidade a um mapeamento contínuo dessas ferramentas em âmbito judiciário;
– É válido o investimento em segurança da informação, de modo a garantir a integridade das bases de dados utilizadas para o treinamento da IA;
– Com relação aos quesitos de publicidade e transparência, averiguou-se a necessidade de divulgação pelos Tribunais de relatórios periódicos sobre os sistemas de IA em produção ou desenvolvimento, de modo a contemplar as exigências de transparência do artigo 8º da Resolução CNJ nº 332/2020;
– No que se refere ao controle do usuário, a pesquisa destacou a importância da capacitação dos servidores e magistrados (usuários internos das ferramentas) sobre o funcionamento e conceitos gerais da IA no Judiciário, a fim de evitar qualquer espécie de vinculação à solução apresentada por essa tecnologia. Em relação aos usuários externos, seria importante que os tribunais abrissem no respectivo site uma aba específica sobre essas ferramentas, com explicação sobre o seu funcionamento em linguagem clara e simples.
O Centro do Judiciário da FGV, com sua equipe de pesquisadores e rede interinstitucional de pesquisa, continuam a monitorar os documentos éticos nacionais e internacionais publicados sobre a ética e a IA e a se preocupar em sondar diversas modalidades regulatórias hábeis a dimensionar a pluralidade de desafios trazidos pelos modelos de IA analíticas e, agora, generativas.
[1] Na 1ª fase, o estudo fez um mapeamento e análises inéditos sobre o uso da IA nos tribunais brasileiros e abrangeu o STF, STJ, TST, tribunais regionais federais, tribunais estaduais e tribunais regionais do trabalho. O relatório mapeou que 47 tribunais empregavam a IA em alguma atividade, além da Plataforma Sinapse do Conselho Nacional de Justiça.
Cf. SALOMÃO, Luis Felipe et al. Inteligência Artificial: Tecnologia aplicada à gestão dos conflitos no âmbito do Poder Judiciário brasileiro. Rio de Janeiro: FGV, 2020. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/estudos_e_pesquisas_ia_1afase.pdf. Acesso em: 14 ago. 2023.
[2] SALOMÃO, Luis Felipe et al. Inteligência Artificial: Tecnologia aplicada à gestão dos conflitos no âmbito do Poder Judiciário brasileiro. Rio de Janeiro: FGV, 2021. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/relatorio_ia_2fase.pdf. Acesso em 14 ago 2023.
[3] SALOMÃO, Luis Felipe et al. Inteligência Artificial: Tecnologia aplicada à gestão dos conflitos no âmbito do Poder Judiciário brasileiro. Rio de Janeiro: FGV, 2023. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/relatorio_ia_3a_edicao_0.pdf. Acesso em: 14 ago. 2023.
[4] PEDRON, Flávio Quinaud et al. O controle judicial de constitucionalidade como mecanismo assecuratório do princípio contramajoritário para compleição da democracia constitucional. Revista Jurídica (FURB), v. 24, nº. 55, set./dez. 2020, p.5.
[5] HABERMAS, Jürgen. A inclusão do outro: estudos de teoria política. Trad. George Speiber e Paulo Astor Soethe. São Paulo: Loyola, 2002. p. 41.
[6] Ibid.,p. 12.
[7] Cf. NEVEJANS, Nathalie. Traité de droit et d’ étique de la robotique civile. LEH éditions, coolection Science, 2017.
[8] Cf. Facebook forms a special ethics team to prevent bias in its A.I. software. CNBC, 3 mai. 2018. Disponível em: https://www.cnbc.com/2018/05/03/facebook-ethics-team-prevents-bias-in-ai-software.html. Acesso em: 04 ago. 2023.
[9] Cf. Why we launched DeepMind Ethics & Society. Google DeepMind, 03 out. 2017. Disponível em: https://www.deepmind.com/blog/why-we-launched-deepmind-ethics-society. Acesso em: 04 ago. 2023.
[10] Partnership on AI is bringing together diverse voices from across the Ai community. Disponível em: https://partnershiponai.org/. Acesso em 04 ago. 2023.
[11] Cf. Rome call for AI Ethic, 2020. Disponível em: https://www.romecall.org/wp-content/uploads/2022/03/RomeCall_Paper_web.pdf. Acesso em: 06 ago. 2023.
[12] Cf. Bill Gates limita o acesso dos filhos à tecnologia – e não é o único. Época Negócios, tecnologia, 16 jan. 2018. Disponível em: https://epocanegocios.globo.com/Tecnologia/noticia/2018/01/por-que-bill-gates-acredita-que-o-acesso-de-criancas-tecnologia-deve-ser-limitado.html#:~:text=Pode%20parecer%20ir%C3%B4nico%2C%20mas%20Bill,disse%20em%20entrevista%20ao%20Mirror. Acesso em 07 ago. 2023.
[13] BARRAUD, Boris. Étique de l’intelligence artificielle. Ob. Cit., pp. 22-23.
[14] COMMISSION EUROPÉENNE. Livre blanc – intelligence artificielle: une approche européenne axée sur l’excellence et la confiance. Bruxelles, 2020, p. 12. Disponível em: https://op.europa.eu/fr/publication-detail/-/publication/ac957f13-53c6-11ea-aece-01aa75ed71a1. Acesso em: 13 ago. 2023.
[15] Cf. Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho, de 23 de outubro de 2018, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas instituições e pelos órgãos e organismos da União e à livre circulação desses dados, e que revoga o Regulamento (CE) n°. 45/2001 e a Decisão n°. 1247/2002/CE (Texto relevante para efeitos do EEE.). Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/?qid=1552577087456&uri=CELEX:32018R1725. Acesso em: 14 ago. 2023.
[16] BARRAUD, Boris. Étique de l’intelligence artificielle. Ob. Cit., p. 33.
[17] BARRAUD, Boris. Étique de l’intelligence artificielle. Ob. Cit., p. 35.
[18] CONSELHO NACIONAL DE JUSTIÇA. Resolução N°. 332 de 2020. Dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário e dá outras providências. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 13 ago. 2023.
[19] Cepej. Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seu ambiente adotada pela Cepej na sua 31ª reunião plenária. (Estrasburgo, 3 e 4 dez. 2018). Disponível em: https://rm.coe.int/carta-etica-traduzida-para-portugues-revista/168093b7e0. Acesso em: 13 ago. 2023.