QUAL DEVE SER O REGIME DE RESPONSABILIDADE CIVIL APLICÁVEL À INTELIGENCIA ARTIFICIAL NO BRASIL?
Marcos Ehrhardt Júnior
Milton Pereira De França Netto
A inteligência artificial constitui um dos principais elementos catalisadores da inovação na modernidade. Presente nas ferramentas de personalização de conteúdo das grandes plataformas sociais, nos sistemas de gerenciamento de trânsito das smart cities e até mesmo na realização de operações cirúrgicas robóticas, tal advento disruptivo expande-se rapidamente pelas esferas particular e governamental.
Figurando na 39ª posição do “Índice Global de IA 2021”[1], fornecido pela agência de notícias britânica Tortoise Media, e liderando o “Índice de Contratação em IA 2021”[2], divulgado pela Universidade de Stamford, o Brasil constitui um fértil terreno ao desenvolvimento do setor.
Como (reflexo desse diagnóstico, emergem as primeiras tentativas nacionais de regulação da matéria, por intermédio a) da Estratégia Brasileira de Inteligência Artificial (EBIA)[3], instituída pela Portaria nº 4.617/2021 do Ministério da Ciência, Tecnologia e Inovações (MCTI), e, mais notadamente, b) do Projeto de Lei nº 21/2020[4], recentemente aprovado pela Câmara dos Deputados.
As intensas controvérsias acerca do norteamento imposto à área da responsabilidade civil centralizam os debates acerca de tal proposição legislativa, sobretudo quando ponderadas as contemporâneas tendências de multifuncionalização do instituto e de consagração de um modelo objetivo baseado no elemento do risco.
A estruturação de um ambiente propício ao desenvolvimento de soluções de inteligência artificial reclama alicerces incentivadores da inovação, permeados nas garantias alusivas à propriedade e aos contratos, que atraem e resguardam investimentos direcionados ao setor.
Por outro lado, também envolve fundações protetivas em relação aos usuários, consumidores e terceiros afetados. Elas atuam como verdadeiras barreiras perante os potenciais riscos trazidos por essa tecnologia disruptiva, revestindo uma função preventiva/precaucional, também sob a forma de mecanismos ressarcitórios efetivos, que consagram o princípio da reparação integral e aproximam a vítima do estágio prévio, nos casos em que o dano não pode ser evitado.
Visto que a presente análise circunda tais bases, a obtenção de um melhor entendimento do panorama brasileiro de regulação da matéria perpassa, a princípio, a compreensão das discussões empreendidas no Velho Continente[5], de onde se pode destacar a preocupação com a construção de uma perspectiva poli funcional da responsabilidade civil, buscando trazer segurança jurídica a todos os atores que orbitam os sistemas de IA, pela harmonização entre a adequada tutela da vítima e a preparação de uma atmosfera convidativa a inovações voltada, sobretudo, às pequenas e médias empresas. Almeja-se, portanto, conciliar a reparação integral do dano à proporcional responsabilização desses players, escudando-os de impactos econômicos excessivos e capazes de obstruir o surgimento de inovações futuras.
Caso devidamente adaptadas às idiossincrasias locais, as lições fornecidas pelos documentos europeus mostrar-se-iam extremamente enriquecedoras aos legisladores brasileiros dados as recentes pressões por uma mobilização regulatória da área da inteligência artificial. No entanto, a realidade nacional falha na assimilação desses ensinamentos, levantando fundadas preocupações em relação à mitigação da esfera protetiva.
Ainda que contemporâneas às orientações estrangeiras, as tentativas nacionais de disciplinamento da matéria não poderiam parecer mais assíncronas. Executadas por intermédio da Estratégia Brasileira de Inteligência Artificial (EBIA) e do Projeto de Lei nº 21/2020, elas vêm traçando um futuro incerto para a responsabilidade civil, que se revela extremamente gravoso para as potenciais vítimas de danos ligados aos sistemas de IA.
A Estratégia Brasileira de Inteligência Artificial (EBIA), instituída pela Portaria nº 4.617/2021 do Ministério da Ciência, Tecnologia e Inovações (MCTI)[6], representa uma política pública de inovação que busca definir uma estrutura para o fomento da área no Brasil e as diretrizes éticas que balizam a sua implementação.
Confeccionada a partir da percepção técnica especializada, aliada ao intercâmbio de experiências nacionais e estrangeiras, e complementada pelas contribuições online fornecidas pela sociedade, ela divide a temática em três eixos transversais: a) legislação, regulação e uso ético; b) governança da IA; c) aspectos internacionais.
Ao estabelecer as nuances de seu primeiro eixo transversal (legislação, regulação e uso ético), a “Estratégia” salienta, à luz do firmado na proposta europeia, que as atuais discussões prezam, além do binômio inovação-proteção, pela segurança jurídica. A consolidação desta, por sua vez, decorreria da estruturação de efetivos instrumentos de responsabilização, aplicáveis aos envolvidas nas variadas atividades associadas aos sistemas de IA autônomos[7].
Desse modo, aproxima-se de uma abordagem concreta da responsabilidade civil, quando estabelece uma conexão entre a função reparatória e o instituto da revisão humana. Nesse sentido, sugere a exclusiva aplicação dele aos casos de decisões automatizadas dotadas de um maior potencial lesivo, a exemplo daquelas proferidas em ambientes alfandegários e de embarque em aeroportos[8].
Eventuais falhas em tais cenários ensejariam a simultânea reparação dos prejuízos gerados à vítima. Como contraponto, situações frugais relacionadas à indevida utilização da tecnologia, como a confusão na exibição de anúncios publicitários customizados, não subsidiariam a aplicação desses mecanismos.
Firma-se, de maneira geral, uma cautelosa postura de disciplinamento da inteligência artificial, sob o receio de levantar indesejados obstáculos à inovação. Ao contemplar o clamor pela regulação da área, a “Estratégia” assevera que ela “deve ser desenvolvida com ponderação e com tempo suficiente para permitir que várias partes identifiquem, articulem e programem os principais princípios e melhores práticas”[9].
Em que pesem as deficiências do documento, como o caráter genérico de suas normas, a insuficiência do diagnóstico que fornece e a sua configuração como um mecanismo de soft law de aplicabilidade reduzida, a política acerta ao ligar a responsabilidade ao elemento do risco e às situações concretas, ao enfatizar a importância da feição preventiva e ao alertar acerca da paciência indispensável à formulação de um diploma específico sobre a IA.
Inobstante a expressividade da advertência, a proposição de um marco legal da inteligência artificial permeia o Poder Legislativo. Com a ratificação de sua tramitação em regime de urgência, o Projeto de Lei nº 21/2020 foi recentemente aprovado pela Câmara.
As vozes críticas ao instrumento, em uníssono, repudiam a celeridade imposta à sua apreciação. As significativas repercussões sobre os variados recortes da sociedade demandam, em qualquer tentativa de normatização da área, a conjugação de uma criteriosa avaliação técnica à democrática oitiva dos setores impactados, quase inexistente nos diminutos debates empreendidos até aquI[10].
De forma geral, as avaliações da doutrina civilista sobre o projeto mostram-se pessimistas. Ao explorar o seu potencial fragmentador, Anderson Schreiber percebe uma indesejada dualidade em seu conteúdo, em que normas descontextualizadas convivem com novidades importadas, desvirtuando a noção de coesão jurídica[11].
Perspectiva análoga é firmada por Laura Schertel Mendes ao explicitar a “crise de identidade” que assola o documento[12]. A indecisão acerca de sua configuração como uma mera carta de valores, desprovida de imperatividade e especificidade, ou como um sólido instrumento norteador do uso da inteligência artificial, acaba por macular a sua recepção e as prospecções de sua aplicação futura.
A comparação das redações originária e atual do PL 21/2020 permite a verificação de pontuais melhorias, particularmente quanto ao aprimoramento do linguajar técnico empregado em seus dispositivos iniciais[13]. O projeto oferece algumas bem-vindas simplificações às descrições e complementações às lacunas, que modificam o seu primeiro esboço. Nessa senda, a conceituação do que representa um sistema de inteligência artificial é expandida, exigindo-se dele a capacidade de aprender a perceber, interpretar e interagir com o ambiente externo.
Itens enumeradores de suas técnicas e de sua aptidão classificatória também são acrescentados (art. 2º, caput, e parágrafo único).
Outrossim, tem-se uma aproximação ao campo da responsabilidade quando indicadas as máximas de “segurança e prevenção” e “inovação responsável” (art. 5º, VI e VII). As primeiras preconizam a utilização de ferramentas variadas (técnicas, organizacionais e administrativas) para monitorar e atenuar os riscos associados ao manuseio desses sistemas, enquanto a última prevê a responsabilização dos agentes envolvidos nas citadas etapas pelos seus resultados, sopesadas as contribuições individuais, o contexto específico e as tecnologias acessadas. O dispositivo acerta ao atrelar a sua delimitação às circunstâncias fáticas.
Entretanto, o legislador pátrio ruma em direção oposta, ao definir a diretriz específica alusiva à responsabilidade:
Art. 6º […]
VI – responsabilidade: as normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial deverão, salvo disposição legal em contrário, pautar- se na responsabilidade subjetiva e levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar e a forma como esses agentes podem demonstrar adequação às normas aplicáveis, por meio de esforços razoáveis compatíveis com os padrões internacionais e as melhores práticas de mercado. (grifos nossos)
Tal dispositivo motivou a elaboração de uma carta aberta ao Senado Federal, com fundadas críticas e sugestões ao texto acima destacado[14]. Constata-se que a versão original do PL 21/2020 apenas determinava que os agentes de desenvolvimento e operação respondessem, na forma legal e em consonância às funções desempenhadas, pelas decisões tomadas pelos sistemas de IA[15]. Não se delimitava um regime reparatório, assim como não constavam referências à função preventiva ou precaucional.
O tratamento conferido à matéria passava longe do ideal, mas não se mostrava tão preocupante quanto o do presente texto, a começar pela imprecisão dos termos empregados; eles norteiam os vindouros legisladores para a exigência de comprovação do elemento da culpa, a qual, todavia, pode ser facilmente afastada por qualquer norma em sentido adverso[16].
Igualmente, denota-se inexatidão quando o inciso define os agentes que podem ser responsabilizados. Como bem elucida Filipe Medon, a cadeia dos sistemas de IA engloba uma multiplicidade de atores aptos a interferir em seu funcionamento, desde os designers e operadores até os programadores e usuários[17]. Falta uma maior especificidade para a sua melhor identificação, como ocorre na canalização europeia na figura do operador.
A “irresponsabilização generalizada”, suscitado no mencionado documento enviado ao Senado, materializa-se na consolidação de um modelo abstrato subjetivo, em que a avaliação da atuação culposa das cinzentas figuras dos agentes ocorre a partir de parâmetros questionáveis.
Nele, tem-se a apreciação: a) de suas efetivas participações no resultado lesivo – as quais são dificilmente mensuráveis dadas a complexidade inerente aos sistemas de IA; b) do dano que se pretendia evitar ou remediar – ao invés de direcionar o enfoque ao risco; e c) da conformidade dos agentes às normas aplicáveis, consoante padrões internacionais e práticas de mercado.
Como consequência, são construídos insuperáveis obstáculos à figura da vítima, relegada a uma posição de vulnerabilidade informacional[18] que a impossibilita de corretamente identificar os agentes envolvidos e de comprovar os comportamentos desidiosos que contribuíram ao resultado lesivo, ferindo-se, assim, a garantia da reparação integral.
As dificuldades tangenciam as questões: a) da transparência, diante da reduzida divulgação de informações acerca dos meandros dos sistemas de IA ao público-usuário; e b) da explicabilidade, porquanto a exposição inteligível do funcionamento dessas soluções, em uma linguagem acessível a tais destinatários, inexiste na prática. A preocupação com a assimetria de conhecimento técnico destacada na resolução europeia não foi adequadamente contemplada na proposta brasileira.
Sob a ótica da sociedade de riscos contemporânea, constata-se, na multifuncionalidade da responsabilidade civil e na adoção de um modelo reparatório objetivo, possíveis alternativas a tal problemática. A plurivalência do instituto, inicialmente edificada no campo doutrinário a partir da assimilação de experiências estrangeiras, comporta interessantes opções asseguradoras da reparação integral da vítima, influenciada pela releitura conferida pelo Direito de Danos.
Contudo, as escolhas firmadas ao longo da regulação brasileira navegam por um arriscado caminho. Em adição à sua apressada tramitação e à generalidade de seu conteúdo, tem-se na configuração da responsabilidade civil o seu aspecto mais controverso. Embora as disposições iniciais do documento sinalizem a uma análise concreta do instituto, pautada pelo elemento do risco, a infeliz preferência por um modelo abstrato subjetivo (art. 6º, VI) condena a vítima a um cenário de significativa vulnerabilidade. Que a comissão de juristas designada pelo Senado Federal para atuação na elaboração de minuta de substitutivo aos PL 5.051/2019, 21/2020 e 872/2021 possa atuar conferindo a necessária correção de rumo no texto que irá à votação naquela casa legislativa.
REFERÊNCIAS
BRASIL. Câmara dos Deputados. Projeto de Lei nº 21/2020 (Redação do Substitutivo), de 29 de setembro de 2021. Estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil; e dá outras providências. Disponível em: https://www.camara.leg.br/proposicoesweb/prop_mostrarintegra?codteor=2083275. Acesso em: 20 nov. 2021.
BRASIL. Câmara dos Deputados. Projeto de Lei nº 21/2020 (Texto Original), de 4 de fevereiro de 2020. Estabelece princípios, direitos e deveres para o uso da inteligência artificial no Brasil e dá outras providências. Disponível em:
https://www.camara.leg.br/proposicoesweb/prop_mostrarintegra?codteor=1853928. Acesso em: 20 nov. 2021.
BRASIL. Ministério da Ciência, Tecnologia e Inovações. Estratégia Brasileira de Inteligência Artificial (EBIA). Instituída pela Portaria MCTI nº 4.617/2021.
Disponível em: https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/transformacaodigital/arquivosinteligenciaartificial/ebia-diagramacao_4-979_2021.pdf. Acesso em: 20 nov. 2021.
GLOBAL AI INDEX. Intelligence. Global AI. Tortoise Media. Disponível em: https://www.tortoisemedia.com/intelligence/global-ai/. Acesso em: 12 dez. 2021.
IRRESPONSABILIZAÇÃO generalizada: especialistas criticam responsabilidade subjetiva prevista no PL do marco da IA.
MEDON, Felipe. Danos causados por inteligência artificial e a reparação integral posta à prova: por que o Substitutivo ao PL 21/2020 deve ser alterado urgentemente? Migalhas de Responsabilidade Civil. Colunas. Migalhas. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-responsabilidade-civil/351200/danos-causados-por-inteligencia-artificial-e-a-reparacao-posta-a-prova. Acesso em: 1º dez. 2021.
MINISTRO preside comissão de juristas que ajudará Senado a regulamentar IA.
SCHERTEL MENDES, Laura. Projeto de Lei da Inteligência Artificial: armadilhas à vista. Fumus Boni Iuris. Blogs. O Globo. Disponível em: https://blogs.oglobo.globo.com/fumus-boni-iuris/post/laura-schertel-mendes-pl-da-inteligencia-artificial-armadilhas-vista.html. Acesso em: 1º dez. 2021.
SCHREIBER, Anderson. PL da inteligência artificial cria fratura no ordenamento jurídico brasileiro.
UNIÃO EUROPEIA. Parlamento Europeu. Resolução do Parlamento Europeu nº 2020/2014 (INL), de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial. Disponível em: https://www.europarl.europa.eu/doceo/document/ta9-2020-0276_pt.html. Acesso em: 11 nov. 2021.
ZHANG, Daniel et al. AI Hiring Index. The AI Index 2021 Annual Report. Stanford University: Stanford, 2021. Disponível em: https://aiindex.stanford.edu/wp-content/uploads/2021/11/2021-ai-index-report_master.pdf. Acesso em: 11 dez. 2021.
[1] GLOBAL AI INDEX. Intelligence. Global AI. Tortoise Media. Disponível em: https://www.tortoisemedia.com/intelligence/global-ai/. Acesso em: 12 dez. 2021.
[2] ZHANG, Daniel et al. AI Hiring Index. The AI Index 2021 Annual Report. Stanford University: Stanford, 2021. Disponível em: https://aiindex.stanford.edu/wp-content/uploads/2021/11/2021-ai-index report_master.pdf. Acesso em: 11 dez. 2021.
[3] BRASIL. Ministério da Ciência, Tecnologia e Inovações. Estratégia Brasileira de Inteligência Artificial (EBIA). Instituída pela Portaria MCTI nº 4.617/2021. Disponível em: https://www.gov.br/mcti/pt br/acompanhe-omcti/transformacaodigital/arquivosinteligenciaartificial/ebia-diagramacao_4 979_2021.pdf. Acesso em: 20 nov. 2021.
[4] BRASIL. Câmara dos Deputados. Projeto de Lei nº 21/2020 (Redação do Substitutivo), de 29 de setembro de 2021. Estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil; e dá outras providências. Disponível em: https://www.camara.leg.br/proposicoesweb/prop_mostrarintegra?codteor=1853928. Acesso em: 20 nov. 2021.
[5] A Resolução do Parlamento Europeu nº 2020/2014 (INL), de 20 de outubro de 2020, fruto de longevos debates ao longo da última década, traz recomendações destinadas à Comissão Europeia e incorpora uma proposta de regulamento que disciplina, de maneira específica, o regime de responsabilidade civil aplicável à inteligência artificial. Disponível em: https://www.europarl.europa.eu/doceo/document/ta-9-2020-0276_ pt.html. Acesso em: 11 nov. 2021.
[6] BRASIL. Ministério da Ciência, Tecnologia e Inovações. Estratégia Brasileira de Inteligência Artificial (EBIA).
Instituída pela Portaria MCTI nº 4.617/2021. Disponível em: https://www.gov.br/mcti/ptbr/acompanhe-o-mcti/transformacaodigital/arquivosinteligenciaartificial/ebia-diagramacao_4-979_2021.pdf. Acesso em: 20 nov. 2021.
[7] EBIA, p. 17.
[8] EBIA, p. 20-21.
[9] EBIA, p. 22.
[10] SCHREIBER, Anderson. PL da inteligência artificial cria fratura no ordenamento jurídico brasileiro.
[11]SCHREIBER, Anderson. PL da inteligência artificial cria fratura no ordenamento jurídico brasileiro.
[12] SCHERTEL MENDES, Laura. Projeto de Lei da Inteligência Artificial: armadilhas à vista. Fumus Boni Iuris. Blogs. O Globo. Disponível em: https://blogs.oglobo.globo.com/fumus-boni-iuris/post/laura schertel-mendespl-da-inteligencia-artificial-armadilhas-vista.html. Acesso em: 1º dez. 2021.
[13] MEDON, Felipe. Danos causados por inteligência artificial e a reparação integral posta à prova: por que o Substitutivo ao PL 21/2020 deve ser alterado urgentemente? Migalhas de Responsabilidade Civil. Colunas. Migalhas. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-responsabilidade civil/351200/danos-causados-por-inteligencia-artificial-e-a-reparacao-posta-a-prova. Acesso em: 1º dez. 2021.
[14] Irresponsabilização generalizada: especialistas criticam responsabilidade subjetiva prevista no PL do marco da IA.
[15] Art. 9º, V, e parágrafo único, do texto original do PL 21/2020.
[16] SCHREIBER, Anderson. PL da inteligência artificial cria fratura no ordenamento jurídico brasileiro.
[17] MEDON, Felipe. Danos causados por inteligência artificial e a reparação integral posta à prova: por que o Substitutivo ao PL 21/2020 deve ser alterado urgentemente? Migalhas de Responsabilidade Civil. Colunas. Migalhas. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-responsabilidade-civil/351200/danos-causados-por-inteligencia-artificial-e-a-reparacao-posta-a-prova. Acesso em: 1º dez. 2021.
[18] SCHREIBER, Anderson. PL da inteligência artificial cria fratura no ordenamento jurídico brasileiro.