Notícias

Direito 4.0: os prós e contras da tecnologia jurídica

O entusiasmo em torno da inteligência artificial voltada para o mundo jurídico parece esquecer que os algoritmos são programados por humanos nada objetivos. Portanto, os algoritmos carregam toda a subjetividade de seus programadores. Repita-se: demasiadamente humanos.

Na segunda década do século 20, o rádio pôs à disposição de milhões de ouvintes um repertório musical com tal diversidade que seus efeitos só puderam ser avaliados dezenas de anos depois. A euforia provocada pelos aparelhos radioreceptores que rapidamente instalaram-se como fiéis companheiros sonoros nos lares demoraria quase outro século para ser superada, com a oferta ad infinitum de músicas nos aplicativos de celulares.

É prematuro, portanto, e talvez irrazoável, afirmar que a sucessão de novidades tecnológicas que grassam neste início de século, como a automação e a inteligência artificial possam transpor limites paradigmáticos, sepultando profissões ou determinando o domínio da máquina sobre o homem.

A introdução se faz necessária para conter os ânimos daqueles que regozijam-se com as maravilhas da advocacia tecnológica ou com a substituição do direito por uma máquina capaz de escrever petições, analisar casos subjetivamente ou pinçar em um banco de dados jurisprudência afeita ao processo em causa.

Por outro lado, não se trata aqui de dar as costas para as transformações digitais pautadas pelas legaltechs (ou lawtechs) e por ferramentas criadas para proporcionar maior velocidade e efetividade para o sistema jurídico.

A questão a ser transposta remete à demonstração de que mesmo ferramentas matemáticas, pretensamente imparciais, estão imbuídas da subjetividade de seus criadores em formas algorítmicas. Ou seja, mesmo robôs e máquinas não estão imunes a juízos morais, éticos e de valor de seus criadores.

As experiências chamam a atenção. Em artigo publicado em novembro do ano passado na ‘Revista de Processo’, o professor de direito processual da PUC Minas, Dierle Nunes, cita caso em que o sistema de reconhecimento facial criado pelo Google identificou pessoas negras como gorilas e o Tay, mecanismo de Inteligência Artificial lançado pela Microsoft para interagir com usuários do Twitter, passou a reproduzir mensagens racistas, antissemitas e de preconceito contra imigrantes.

O Tay chegou a tuitar em inglês:

“Bush foi o responsável pelo 11 de setembro [de 2001] e Hitler teria feito um trabalho melhor. O macaco que temos agora, Donald Trump, é a única esperança que temos”.

Os mais eufóricos, entretanto, e eles se acumulam no mundo acadêmico e dos negócios, não relutam em afirmar que a sobrevivência do direito como profissão exige uma mudança de paradigma. É o caso de uma professora, doutora em direito internacional pela USP, especialista em negócios pela Harvard Business School.

Recentemente, ela saudou as transformações digitais e a modernização do direito, discorrendo a respeito do novo papel do advogado:

O advogado assumiu o papel de estrategista com a missão de antecipar e identificar riscos para reduzir incidentes e perdas financeiras, seja em um segmento empresarial, para estabelecer os negócios entre as empresas, seja na questão do direito societário para o ‘valuation’ dos ativos, intangívei em uma fusão e aquisição, afirmou.

É difícil perceber lendo apenas o parágrafo acima que a professora da USP esteja tratando do direito e não de uma corporação interessada nos lucros advindos da valorização das ações na bolsa de valores. O termo “valuation” (avaliação em português) demonstra bem o tom do quanto um escritório de advocacia pode sonhar alto se ultrapassar o limite da impessoalidade e atingir o status de marca.

A questão é que o direito parece não se ver contemplado nessa imagem. Tampouco é factível afirmar que a inteligência artificial e a automação no campo da advocacia representem uma quebra de paradigma, uma vez que os computadores de última geração estariam não somente aptos a arquivar dados (como nos primórdios da informática), mas também a relacioná-los e prever resultados.

Em 1995, o jornal “The New York Times” publicou matéria anunciando uma nova invenção: o computador-repórter. A máquina substituiria o jornalista em artigos cujo conteúdo noticioso dependeria apenas do preenchimento de um formulário – um texto-padrão. Uma matéria esportiva ou econômica, assim, poderia ser escrita bastando ao responsável (não exatamente um repórter) incluir números e informações básicas às lacunas em branco. Exemplo: placar dos jogos, nome da cidade, nome do estádio, nome dos jogadores, das empresas, dos investidores, público pagante, volume de ações negociadas, etc.

As startups ou legaltechs empregadas na prestação de serviços jurídicos guardam semelhança inequívoca com o computador-repórter, nascido e vitimado por obsolescência na era pré-internet.

Dizem os professores de direito da Fundação Getúlio Vargas de São Paulo, Marina Feferbaum e Alexandre Pacheco da Silva (veja artigo na página ?) sobre a aplicação de  ferramentas de inteligência artificial na esfera jurídica:

“Nos Estados Unidos e na Europa, especialmente no Reino Unido, já estão disseminados aplicativos e softwares de redação de peças processuais. Esses mecanismos funcionam como um formulário padrão para cada tipo de causa em que o usuário apenas preenche dados nos campos do pedido e, ao final, o próprio aplicativo gera a petição a partir das informações inseridas e protocola no sistema judicial online”.

Em seguida, eles preveem a dispensa da figura do operador de direito:

“As interfaces dos softwares tendem a ser amigáveis e prescindem da linguagem técnica para o usuário. Nesses casos, o advogado se torna redundante: ele não é necessário nem para a redação da peça e tampouco para explicar a linguagem ao ‘cliente’”.

Certamente, como afirmam os autores, a introdução de ferramentas tecnológicas no mundo do direito traz à tona indagações e incertezas acerca do futuro da profissão jurídica. Aparentemente, porém, apenas em seu aspecto mecânico.

Dierle Nunes, por exemplo, não nega que a utilização de máquinas pode trazer diversos benefícios à prática jurídica. Mas limita-as a auxiliares, jamais a protagonistas em funções decisórias.

Ainda mais porque, como afirma Nunes, os algoritmos pretensamente objetivos são, na verdade, subjetivos. O exemplo mais palpável é o caso do COMPAS (Perfil de Gestão Correcional do Delinquente para Penas Alternativas, na sigla em inglês), que avalia o risco de reincidência de detentos nos EUA. Os dados são obtidos para a fixação de sentença dos réus. Em uma pesquisa, verificou-se que o algoritmo utilizado para traçar o perfil do presidiário tende a classificar erroneamente os negros como prováveis reincidentes e os brancos como acusados com baixa probabilidade de voltarem a delinquir.

“A empresa Northpointe, responsável pelo software, não disponibiliza ao público o algoritmo no qual se baseia o índice de reincidência do acusado, mas apenas as perguntas feitas ao indivíduo e utilizadas no cálculo, de modo que o réu não sabe por qual motivo possui um alto ou baixo indicador, tampouco de que forma suas respostas influenciam no resultado final. Vale salientar que não se pergunta a raça do acusado no questionário, porém são feitas perguntas que acabam por selecionar indivíduos pobre e, em sua maioria, negros, como prováveis reincidentes”.

No caso da robótica, o cenário parece mais temerário. Em 2016, a empresa canadense Ross Inteligence criou o primeiro robô-advogado, adaptado para ouvir a linguagem humana com o auxílio da plataforma Watson, da IBM. Desenvolvido a princípio para atuar como assistente de pesquisa, os algoritmos do robô permitiram que, com o tempo, ele considerasse a ideologia do juiz, as partes envolvidas no julgamento e os tribunais de onde vêm os casos, além de interpretar a jurisprudência a partir de casos armazenados em seu banco de dados.

Reportagem da revista ‘Exame’, publicada em maio deste ano, informa a entrada em operação de um juiz-robô na Estônia, um dos países bálticos que fazem fronteira com a Rússia. Ainda em fase de testes, a máquina está programada para julgar pequenas causas envolvendo disputas de menos de 7 mil euros (cerca de 28 mil reais). O software do juiz-robô será alimentado com documentos legais e tomará decisões com base em algoritmos e é aí que parece residir o perigo.

Em primeiro lugar, como afirmou-se anteriormente, o algoritmo está longe de ser objetivo. Muito pelo contrário: carrega toda a subjetividade de seus programadores, evidentemente humanos.

Se considerarmos que ser humano é afeito a vieses cognitivos, que estes são características do ser humano, que o magistrado é humano e que, portanto, está propenso a estes desvios de percepção, teremos mais do que um silogismo. O resultado será que a IA (Inteligência Artificial) é tão impregnada de subjetividade quanto a IH (Inteligência Humana).

É o caso do viés de tomada de decisão, no qual são considerados fatores que não deveriam ser elencados, ainda que de forma inconsciente; do viés de confirmação que tende a favorecer evidências que confirmam a hipótese daquele que julga; o viés social, que forma impressões sobre as pessoas com base no estrato econômico em que se inserem; e do viés de conformidade que tende a evitar o confronto e o dissenso sobre determinado tema e aderir à opinião da maioria.

Em seu ensaio, Dierle Nunes, adverte ainda para duas agravantes presentes no modelos de direito tecnológico propostos: 1) como o algoritmo dos softwares é uma “caixa preta” inviolável, suas decisões tornam-se indiscutíveis por aqueles que desconhecem a programação da máquina, o que inclui advogados, juízes, membros do Ministério Público e os próprios envolvidos no caso (réus e vítimas); 2) A ausência de transparência e a dificuldade de acesso aos programas que transferem atribuição de função decisória às máquinas não leva em conta a subjetividade que permeia o processo; 3) por tudo isso, as decisões tomadas seriam passíveis de nulidade e de ações judiciais contra os fabricantes desenvolvedores de softwares e máquinas, caso as partes assim entendessem.

Repita-se o que se discutiu ao longo dessa reportagem, ecoado que foi também pelos professores e doutrinadores citados: a utilização de máquina na prática jurídica pode trazer diversos benefícios. Mas, num primeiro momento, não é possível vislumbrar que o uso dessas ferramentas, o que são de fato, ultrapasse a linha da pesquisa, da classificação, da organização de informações, da elaboração de contratos e petições, e da vinculação de casos a precedentes. Tomar decisões está (ou deveria estar) fora de sua esfera de atuação.

Em 2015, um grupo de artistas expôs no Museu de Arte Contemporânea da Suíça, um robô, cuja missão era gastar, semanalmente, 100 dólares em um site pirata. Os produtos seriam comprados aleatoriamente, sem restrições de qualquer espécie. A imprensa interessou-se pelo robô. O público também. Então, ocorreu um problema: o robô comprou dez comprimidos de ecstasy e eles foram parar na exibição. Quando a mostra foi encerrada, o robô foi confiscado juntamente com as drogas e levado para a polícia. A prisão do robô, contudo, deixou algumas dúvidas: uma máquina pode ser presa? E um software? O robô pode ser responsabilizado criminalmente? E se ele comprasse, além das drogas, também armas e uma bomba atômica e mandasse tudo para o endereço da lanchonete mais próxima? Poderia ser preso ou condenado? A resposta é não. E, no entanto, garantem alguns entusiastas, eufóricos da inteligência artificial, ele está capacitado para assumir a condição de juiz, advogado, promotor, meirinho, oficial de justiça… Convenhamos, há algo errado com esse algoritmo.

PUBLICADO NA EDIÇÃO 659 DA REVISTA BONIJURIS (Ago/Set 2019).

FOTO FGV

compartilhe

Compartilhar no facebook
Facebook
Compartilhar no twitter
Twitter
Compartilhar no linkedin
LinkedIn
Compartilhar no email
Email

Leia também:

Dura vida de advogado

A mesma Folha de S. Paulo que anunciou, equivocadamente, a morte da monarca da Inglaterra, na manhã de segunda-feira – “Rainha Elizabeth