Grupo de Estudos em Direito e Tecnologia da Universidade Federal de Minas Gerais – DTEC - UFMG
Data: 09/05/2023
Relatores: Amanda Pavanelli, Pedro Pazzini, Vitor Hugo Miranda de Assis
O tema central do debate foi "Processo de Descoberta de Conhecimento em Bases de Dados e Tomada de Decisão". A partir da bibliografia básica, a apresentação foi dividida em 3 partes, igualmente distribuídas entre os relatores.
Para fins de aprendizagem, o grupo decidiu que cada integrante ficaria responsável pelo conteúdo que não tivesse conexão direta com a sua trajetória. Assim, quem tem o perfil mais técnico ficou com um texto de cunho jurídico, assim como o contrário.
Parte 1: Data Science for Business
Dando início às discussões, a relatora Amanda Pavanelli, com apoio dos outros integrantes, trouxe os pontos principais do livro Data Science for Business, em especial dos capítulos 1 e 2. Foram apresentados os seguintes tópicos: 1. A Ubiquidade dos dados; 2. Diferença entre Ciência de Dados e Mineração de Dados; 3. Tarefas da mineração de dados; e, por fim, 4. O processo de mineração de dados.
1. Os dados estão em todos os lugares e de forma massiva. Por isso, empresas de diferentes setores estão focadas em explorá-los para terem vantagem competitiva em relação às suas concorrentes. Paralelamente a isso, computadores e algoritmos se tornaram e estão se tornando ainda mais poderosos e capazes de promover análises de dados amplas e profundas.
A convergência desses fatores deu espaço para uma aplicação mais incisiva da Ciência de Dados e de técnicas de mineração de dados nos negócios.
Mas, qual a diferença entre ambos?
2. A Ciência de Dados, de acordo com o livro, seria um conjunto de princípios fundamentais que orientam a extração de conhecimento de dados. Ao passo que a mineração de dados é a própria extração desse conhecimento, por meio de tecnologias que incorporam esses princípios. Em outras palavras: a Ciência de Dados estaria ligada aos princípios norteadores, enquanto a mineração de dados tem relação direta com a aplicação desses princípios por meio de técnicas.
Para exemplificar a aplicação desses conceitos, o livro traz alguns exemplos, dentre os quais foi levantado o caso do Furacão na Flórida. Resumidamente: um furacão estava a caminho do local e, sabendo disso, o Walmart enxergou a possibilidade de tentar fazer previsões de compras na região, com base em outro furacão que já havia acontecido semanas antes. Apoiados em trilhões de bytes de histórico de compras, a diretora de informações sentiu que a empresa poderia, como a própria colocou, "começar a prever o que vai acontecer, em vez de esperar que aconteça".
Por que a previsão baseada em dados pode ser útil nesse cenário? Porque serve para identificar demandas locais por produtos incomuns e antecipar o estoque para as lojas antes mesmo do furacão acontecer. Nesse cenário, os especialistas fizeram a mineração de dados e descobriram que as lojas precisariam de certos produtos além de água e lanterna. Conclusão: houve o aumento em 7x das compras de Pop-Tarts de morango e o item mais vendido antes do furacão foi cerveja.
Esse exemplo demonstra como a Ciência de Dados e aplicação de suas técnicas pode servir para a melhoria da tomada de decisões, justamente por isso é de interesse direto dos negócios.
3. Dando seguimento à apresentação, foram apresentadas as tarefas de mineração de dados. Essa parte da exposição, embora de cunho mais técnico, gerou alguns comentários interessantes que também serão compartilhados a seguir.
Antes de apresentar as tarefas, foi feita uma observação: a habilidade de decomposição é muito importante de ser desenvolvida quando se fala em análise de dados. Saber decompor um problema maior e complexo em problemas menores colabora para sabermos de que modo cada um desses problemas podem ser solucionados, quais são as ferramentas disponíveis e traz mais efetividade na tomada de decisão. Tarefas apresentadas: a) classificação; b) regressão; c) correspondência; d) agrupamento; e) agrupamento de coocorrência; f) perfilamento; g) predição; h) redução de danos; h) modelagem. Vamos a elas:
a) Classificação: Para uma tarefa de classificação, um procedimento de mineração de dados produz um modelo que, dada uma nova instância, determina a qual classe essa instância pertence.
Exemplo: suponhamos a seguinte questão: "Entre todos os clientes da empresa X, quais são os prováveis a responder a uma determinada oferta?". Nesse exemplo, as duas classes poderiam ser chamadas de 1. responderá e 2. não responderá.
b) Regressão: Um procedimento de regressão produz um modelo que, dada uma instância, estima o valor de variável contínua. Exemplo: "Quanto um dado cliente usará o serviço?"
Mas, então, qual é a diferença entre classificação e regressão? A classificação prevê SE algo vai acontecer, enquanto a regressão prevê QUANTO algo vai acontecer.
Um exemplo de problema de Regressão é a predição do valor estimado de vendas em uma filial de determinada cadeia de lojas. Se esta pergunta for mapeada em um problema de Classificação, as respostas possíveis poderiam ser: Alto/Médio/Baixo. Se mapeada em um problema de Regressão, as respostas poderiam ser valores monetários. Enquanto um é categórico/determinístico, o outro é variável numericamente.
c) Correspondência: A correspondência de similaridade tenta identificar instâncias semelhantes com base nos dados conhecidos sobre eles. Exemplo: A IBM está interessada em encontrar empresas semelhantes aos seus melhores clientes comerciais, com o propósito de direcionar sua equipe de vendas para as melhores oportunidades. Eles então usam a correspondência de similaridade com base em dados que descrevem as características das empresas (porte da empresa, segmento etc), para encontrar justamente as empresas semelhantes aos seus melhores clientes.
d) Agrupamento: O agrupamento tenta, como o próprio nome diz, agrupar instâncias com base em sua similaridade, mas sem ser orientado por um propósito específico (diferente da tarefa anterior). Exemplo: "Nossos clientes formam grupos ou segmentos naturais?"; Que produtos devemos oferecer e desenvolver? Nesse caso, a intenção é identificar se, espontaneamente, há a formação de grupos, para depois pensar o que fazer a respeito em termos de negócio.
e) Agrupamento de co-ocorrência: Essa tarefa tenta encontrar associações entre entidades com base nas transações que as envolvem. Exemplo: "Quais itens são frequentemente comprados juntos?" Enquanto o agrupamento analisa a similaridade entre objetos com base nos atributos dos objetos, o agrupamento de coocorrência considera a similaridade dos objetos com base em sua aparição conjunta em transações.
Para não esquecermos, foi especificada a diferença entre agrupamento e agrupamento de coocorrência: enquanto o agrupamento analisa a similaridade entre objetos com base nos atributos dos objetos, o agrupamento de coocorrência considera a similaridade dos objetos com base em sua aparição conjunta. Por exemplo, analisar registros de compras de um supermercado pode revelar que carne moída é frequentemente comprada junto com molho picante muito mais do que esperaríamos.
Outro exemplo que foi dado para falar sobre agrupamento de coocorrência: quando vamos comprar um livro na Amazon, é comum que apareça uma sugestão de compra conjunta com outro livro, isto porque frequentemente as pessoas que compram esse livro pelo qual você se interessou compram também o outro livro que foi sugerido para você, conforme se observa abaixo:
f) Perfilamento: Tenta caracterizar o comportamento típico de um indivíduo, grupo ou população. Exemplo: "Qual é o uso típico de celular desse segmento de clientes?" O perfilamento é frequentemente usado para estabelecer normas comportamentais em aplicações de detecção de anomalias, como detecção de fraudes e monitoramento de intrusões em sistemas de computador. É a partir do perfilamento, por exemplo, que o banco consegue detectar uma fraude no seu cartão de crédito, pois identifica uma atividade incomum, dado o seu perfil de compra.
g) Predição: A predição de links tenta prever conexões entre itens de dados, geralmente sugerindo que um link deve existir e, possivelmente, também estimando a força desse link. Exemplo: A predição de links é comum em sistemas de redes sociais: "Já que você e Karen têm 10 amigos em comum, talvez você queira ser amigo de Karen".
h) Redução de dados: Tenta pegar um conjunto grande de dados e substituí-lo por um conjunto menor de dados que contenha grande parte das informações importantes do conjunto maior. O conjunto de dados menor pode ser mais fácil de lidar ou processar. Exemplo: um conjunto de dados massivos sobre as preferências de visualização de filmes pelos consumidores pode ser reduzido a um conjunto de dados muito menor que revela as preferências de gênero do consumidor que estão latentes nos dados de visualização.
A redução de dados é conhecida também como redução de dimensionalidade e, na prática, é utilizada para a visualização de dados de alta dimensionalidade e para a melhora na acurácia de alguns modelos. Assim, um conjunto de dados que contém informações de pessoas, como gênero, idade, escolaridade, local de residência, renda, profissão etc pode ser reduzido para duas ou três variáveis para que se possa visualizar os dados. Caso o conjunto de dados seja reduzido para duas variáveis, é possível plotar os dados em um gráfico x, y, onde cada pessoa será representada por um ponto no espaço. Por sua vez, caso os dados sejam reduzidos para três dimensões, cada pessoa será representada por uma projeção x,y,z. Independentemente da dimensão escolhida para projetar os dados de alta dimensionalidade, é esperado que pessoas que possuam características similares tenham pontos próximos na projeção escolhida.
i) Modelagem: A modelagem causal tenta nos ajudar a entender quais eventos ou ações realmente influenciam outros eventos. Exemplo: Consideremos o uso de modelagem preditiva para direcionar anúncios a consumidores e observamos que, de fato, os consumidores direcionados compram com uma taxa mais alta após terem sido alvo dos anúncios. Isso ocorreu porque os anúncios influenciaram os consumidores a fazer a compra? Ou os modelos preditivos simplesmente identificaram bem aqueles consumidores que teriam comprado de qualquer maneira?
Nessa tarefa foi retomado um ponto importante: Correlação não implica causalidade! (Dica: dê uma olhada na bibliografia complementar, onde colocamos um link que um colega compartilhou no chat durante essa discussão e que evidencia bem a ideia de maneira humorada).
Após a apresentação das tarefas, foi colocada a seguinte questão: Uma parte vital nas etapas iniciais do processo de mineração de dados é decidir se a abordagem será (i) supervisionada ou não supervisionada e (ii) se for supervisionada, fornecer uma definição precisa de uma variável alvo.
No aprendizado supervisionado, sempre é necessário no seu conjunto de dados que eles se encontrem rotulados, e a natureza do rótulo irá determinar se o problema a ser resolvido é um problema de classificação ou de regressão. Caso o rótulo seja um número que varia dentro de um intervalo, está-se diante de um problema de regressão.
Por outro lado, caso o rótulo seja uma categoria, ou um conjunto finito de possibilidades, está-se diante de um problema de classificação. Assim, caso exista uma base de dados de processos judiciais contendo informações como: texto da petição inicial, identificação da vara, identificação do tribunal, o valor da causa, o tempo decorrido desde a petição inicial até o trânsito em julgado, da natureza da causa (civil, criminal, administrativo, empresarial, tributário, etc), além da decisão final (procedente, improcedente, parcialmente procedente), o problema que se procura resolver com essa base de dados é que irá determinar o rótulo, bem como a natureza desse problema.
Nesse contexto, caso seja pedido para o cientista de dados que ele crie um modelo de aprendizado de máquina que preveja a decisão final do magistrado para um novo processo, estar-se-ia diante de um problema de classificação e o rótulo seria o campo que contém a decisão final em cada processo (procedente, improcedente e parcialmente improcedente). Note que neste caso existem somente 3 possibilidades, ou três classes a serem previstas pelo modelo.
O mesmo poderia ser dito caso o Cientista de Dados fosse desafiado a criar um modelo de aprendizado de máquina que iria classificar as petições iniciais com base em sua natureza para distribuições nas varas. Neste caso, somente o texto, corpo da petição inicial seria utilizado e o rótulo seria o campo natureza (civil, administrativo, tributário, etc).
Contudo, caso seja pedido para o Cientista de Dados prever o tempo de duração de um processo, este estará diante de um modelo de regressão, já que o tempo é uma variável contínua definida dentro de um intervalo. Em outras palavras, o tempo de um processo, em dias, pode variar de alguns poucos dias até, talvez, trinta mil dias. Neste caso, o campo “tempo entre a petição inicial e o trânsito em julgado” é o rótulo da base de dados.
No aprendizado supervisionado, a identificação da natureza do problema, isto é, se ele é um problema de classificação ou de regressão é fundamental não só para a definição do rótulo, mas, também, para a escolha dos modelos de aprendizado de máquina bem como das métricas escolhidas que auxiliarão o Cientista de Dados na criação do modelo preditivo.
4. Por fim, tivemos a apresentação do processo de mineração de dados, a partir da seguinte imagem:
Inicialmente, é muito importante compreender o problema do negócio a ser resolvido. Apesar de parecer evidente, o livro observa que raramente os problemas de mineração de dados são claros e inequívocos, daí a importância de um olhar atento. É comum, inclusive, reformular o problema e projetar uma solução inúmeras vezes, por se tratar de um processo de descoberta iterativo.
Na etapa de compreensão dos dados, a matéria-prima (os dados) precisa ser analisada com cautela. É necessário entender as limitações dos dados, como adquiri-los (se é preciso comprá-los, se é preciso coletá-los etc). Nessa etapa também exige um esforço de entender se esses dados disponíveis têm uma correspondência com o problema que será solucionado.
A preparação dos dados está intimamente ligada à etapa anterior, considerando o fato de que é necessário olhar para eles novamente, mas agora de um ponto de vista mais técnico. A ideia é de fato prepará-los para a modelagem, seja convertendo seu formato, fazendo a limpeza da base de dados, etc.
Na modelagem, temos a aplicação das técnicas de mineração de dados de forma mais incisiva, é onde será construído o modelo que será posteriormente implantado e a partir do qual se espera solucionar o problema de negócio trazido anteriormente.
O objetivo da etapa de avaliação é justamente avaliar rigorosamente os resultados da mineração de dados e obter confiança de que são válidos antes de prosseguir para a implantação. Essa etapa também serve para ajudar a garantir que o modelo atenda aos objetivos comerciais originais.
Por fim, na etapa de implantação, os resultados da mineração de dados são colocados em uso real para obter retorno sobre o investimento.
Um ponto super importante: esse processo de mineração de dados é iterativo, ou seja, se repete à medida que vai acontecendo na prática. Muitas vezes as etapas são realizadas cumulativamente ou temos o retorno às etapas anteriores quando se percebe que é preciso fazer a alteração, por exemplo, do problema inicial, ou se os dados com os quais a equipe está trabalhando não fazem sentido para a construção do modelo.
Processo de ajuste dos modelos de aprendizado de máquina
Um conceito importante que foi levantado na apresentação foi sobre o processo de ajuste dos modelos de aprendizado de máquina e, por isso, merece alguns comentários aqui.
Todos os modelos de aprendizado de máquina possuem alguns parâmetros internos que se ajustam às bases de dados para que possam realizar, posteriormente, previsões apoiadas nos dados que lhe foram apresentados. Contudo, no contexto de aprendizado supervisionado, até que um modelo esteja pronto para realizar previsões há uma série de experimentos que são realizados para garantir que o modelo realmente se ajusta aos dados e se encontra apto a realizar previsões assertivas.
Este processo se inicia com a divisão da base de dados em dois conjuntos disjuntos: o conjunto de teste e o conjunto de treinamento. Frequentemente, o conjunto de teste representa de 20% a 30% do conjunto de dados inicial, e o restante dos dados iniciais compõem o conjunto de treinamento.
A partir de então o modelo é apresentado ao conjunto de dados de treino para que este se ajuste aos dados de treinamento. Faz-se então, uma avaliação inicial do modelo no qual os próprios dados apresentados são previstos e, como se sabe o valor correto de cada dado previsto (já que no contexto de aprendizado supervisionado o conjunto de dados se encontra rotulado), é possível avaliar por meio de métricas a qualidade do modelo. Se essa métrica no conjunto de dados é ruim, diz-se que o modelo se encontra sub-ajustado (underfitting no inglês). Ou seja, o modelo não está apto a realizar previsões para novos dados. Diz-se, também, que este modelo possui um alto viés. Em uma analogia, o modelo seria uma criança que acaba de começar a aprender a tabuada e comete muitos erros ao tentar prever o resultado das operações matemáticas que lhe foram apresentadas.
Para corrigir este problema o Cientista de Dados deve adotar algumas estratégias como: alterar alguns hiperparâmetros do modelo (frequentemente aqueles que aumentam a sua complexidade), apresentar mais dados para o modelo (se possível) e até mesmo, testar outros modelos para realizar o ajuste do modelo. Frequentemente este é um processo iterativo no qual o Cientista de Dados testa muitas abordagens, assim como a combinação simultânea de algumas delas, e a cada teste, ou experimento, ele mensura novamente a qualidade do modelo no conjunto de treinamento.
Uma vez que ele encontra um valor que considera aceitável para a métrica, é fundamental que ele faça um teste final, para avaliar se a capacidade do modelo realizar previsões para dados novos, isto é, dados que até então não haviam sido apresentados para o modelo no processo de ajustamento (também conhecido como processo de treinamento do modelo). Neste momento, enfim, o conjunto de teste é utilizado. Faz-se então a previsão dos dados de teste e novamente, se avalia a qualidade das previsões pela mesma métrica utilizada no conjunto de treinamento.
Caso a métrica no conjunto de teste seja muito inferior à métrica do conjunto de treinamento, conclui-se que o modelo se encontra super ajustado aos dados de treinamento (overfitting do inglês). Diz-se que o modelo apresenta uma alta variância, ou seja, ele se especializou em prever os dados do conjunto de treinamento, mas é incapaz de prever novos dados e por isso não apresentou a generalização desejada. Na analogia da criança que está aprendendo a tabuada, é o mesmo caso da criança que decorou algumas das operações que lhe foram apresentadas mas não consegue fornecer respostas corretas para outras que não contemplam a tabuada.
Neste cenário, o Cientista de Dados deve reduzir a complexidade do modelo (pelo ajuste dos seus hiperparâmetros ou por algumas outras técnicas) e por meio da mensuração das métricas nos conjuntos de treinamento e teste encontrar o ponto ideal de ajuste do modelo que é evidenciado quando as métricas nos conjuntos de treinamento e teste estão próximas. Diz-se então que o modelo se encontra ajustado (fitted no inglês) e possui capacidade de generalização, isto é, consegue fazer previsões assertivas para novos dados. Caso o valor das métricas não seja satisfatório para a aplicação, uma boa solução é procurar obter mais dados rotulados para que o modelo obtenha mais exemplos para que ele faça o ajuste dos seus parâmetros na etapa de treinamento.
Parte 2: Is Law Computable?
Foreword
Dando continuidade, o relator Pedro Pazzini apresentou sobre o livro “Is Law Computable”, um compilado de textos que, como Frank Pasquale afirma no prefácio, busca responder à 3 perguntas fundamentais:
Os processos legais atuais são computáveis?
Eles devem se tornar mais computáveis?
Os profissionais de computação devem desenvolver softwares que possuem a mesma performance que os profissionais do Direito?
O autor cita o exemplo de modelos preditivos de aprendizado de máquina que, com base nas peças processuais, nos precedentes e nas decisões pretéritas de determinado magistrado, qual será a decisão deste em um caso específico. Em seguida, ele cita que especialistas em tecnologia e direito afirmam que é muito difícil que seja construído um sistema de aprendizado de máquina que possua uma precisão satisfatória e mesmo que o apresentasse, seria muito difícil que ele se adapte às mudanças dos valores sociais que guiam as decisões jurídicas.
Além disso, o autor cita que a modelagem dos fenômenos sociais e, consequentemente dos legais, é demasiadamente complexa quando comparada à modelagem dos fenômenos sociais. Ele chama essa corrente de pensamento de não-naturalismo. Para exemplificar, ele cita que nas ciências naturais é factível que um geologista, ou engenheiro, calcule a vazão d’água de um poço a ser perfurado, contudo, o mesmo é exigido de economistas em processos de fusão de empresas que pretendem calcular a “satisfação” do consumidor após o processo de concentração, dentro do direito concorrencial.
Por fim, o autor nega a possibilidade de um dia existir um ordenamento jurídico 100% automatizado ou robotizado. Ele afirma isso basicamente por considerar essencial as interações humanas para que ocorra a prática jurídica.
Not a Single Singularity, Lyria Bennett Moses
O texto trata de analisar quais tarefas podem e não podem ser substituídas por sistemas especialistas ou sistemas de aprendizado de máquina. A autora afirma que não existirá uma única singularidade no direito, ou seja, não será construído um sistema que aprende sozinho e que supera consideravelmente toda e qualquer ação humana no ordenamento jurídico a ponto de torná-la dispensável. Ela afirma que é possível que existam sistemas que superam os humanos em tarefas específicas e que assim os tornam dispensáveis apenas nestas tarefas e não em todas as tarefas.
A autora menciona um experimento feito na Nova Zelândia que buscou tornar as leis computáveis, de forma que um programa de computador conseguisse tomar decisões conforme à lei. Eles perceberam que somente alguns dispositivos puderam ser codificados, sendo aqueles que não têm nenhuma ambiguidade, vagueza ou flexibilidade no seu texto.
Em seguida, Moses defende que os avanços tecnológicos não devem ser vistos como uma corrida, ou uma competição, entre homem e máquina, mas sim como uma oportunidade de complementaridade na qual cada um atua na sua especialidade para que o sistema jurídico funcione cada vez melhor.
Para analisar o quão próximo o momento e avanço tecnológico se encontra próximo à uma(s) singularidade(s) a autora propõe analisar a questão sob três aspectos: disponibilidade, capacidade e legitimidade.
Em termos de disponibilidade, Moses ressalta que existe um número cada vez maior de ferramentas que procuram automatizar ou facilitar tarefas que até então eram feitas por pessoas. Além disso, o surgimento dessas aplicações vêm acelerando nos últimos anos. As aplicações consistem em ferramentas que classificam textos legais, analisam dados jurídicos para fazer previsões de custos legais, além de ferramentas que auxiliam na gestão de documentos e na colaboração entre operadores do direito.
Contudo, a autora ressalta que nem todas as aplicações vingam. Não é incomum que aplicações que não resolvam um problema específico do judiciário, ou que sejam difíceis de se utilizar, ou apresentem muitos erros, ou até mesmo que não tenham um bom marketing, acabam fracassando e sejam descontinuadas.
No que diz respeito a capacidade, a autora salienta que os sistemas de aprendizado de máquina procuram prever quais serão os resultados das decisões judiciais. Portanto, no momento, apenas por esse fato, não podem substituir a atuação de especialistas, já que eles podem tomar decisões equivocadas.
Ademais, ressalta a autora que, pelo fato desses sistemas que prevêem a decisão judicial serem construídos com base em dados históricos, eles tendem a repetir as decisões judiciais pretéritas e serem refratários às decisões judiciais que inovam no ordenamento jurídico. Por fim, conclui que os sistemas devem ser utilizados como ferramentas que auxiliam os operadores do direito e que, aqueles operadores que possuem uma senioridade mais elevada têm que supervisionar constantemente as decisões e a operação das ferramentas tecnológicas que são utilizadas para a automação das atividades jurídicas.
Por fim, Moses discute em seu texto acerca do último aspecto: a legitimidade. Ela advoga que mesmo que um sistema de aprendizado de máquina automatize tarefas jurídicas com uma precisão impressionante, seria desejável em alguns casos que a decisão final seja tomada por humano, isto é, que o humano não seja substituído pela máquina. Um trecho interessante que suporta essa visão é:
Kerr and Mathen conclude ‘Legal reasoning also requires being a member of the community, understand- ing its history, its moral convictions, having a point of view about its current character and having a stake in its future’ .P. 75
Discute-se se os juízes podem ser substituídos por sistemas decisórios 100% automatizados. A autora mostra que a Estônia, de forma pioneira, está analisando a possibilidade para causas de menor relevância, cujo valor é menor que 7k Euros, é possível que as partes obtenham a solução da lide a partir de um sistema 100% automatizado caso acordem que tal solução poderá ser data por esse sistema automatizado. Esse cenário é similar ao cenário quando as partes concordam em obter a solução do litígio por meio da arbitragem, isto é, por meio de uma sistema judicial não tradicional, contudo, que é reconhecido pelo ordenamento jurídico.
Um ponto interessante, segundo a autora, é levantado por Brennar-Marquez e por Henderson: “aqueles a quem é confiada a tarefa de realizar decisões judiciais devem ser suscetíveis ao impacto das suas próprias decisões”.
Parte 3: Personalized Law
Na sequência, o relator Vitor Hugo Miranda de Assis, com o auxílio dos demais integrantes, deu continuidade à apresentação. Na ocasião, tratou do tema “ What is Personalized Law”, referente ao segundo capítulo do livro “Personalized Law” de Omri Ben-Shahar.
O capítulo começa com uma citação a Hipócrates: “É mais importante saber quais pessoas tem uma doença, do que qual doença aflige uma pessoa”. Ao trabalhar o conceito de “Personalized Law” no capítulo 2, Omri Ben-Shahar opta por citar aquele conhecido como o “pai da medicina”, um homem que viveu no ano de 377 a.C., para introduzir um conceito que pode revolucionar profundamente o processo de tratamento de dados relacionado ao mundo do direito. Ainda assim, o conceito e a citação se relacionam perfeitamente.
Imaginem um caso de duas pessoas, uma delas com 40 anos, sendo destes 20 anos com sua carteira de habilitação. A outra, um jovem por volta dos 18 a 21 anos, que recentemente adquiriu sua habilitação de condutor. Em uma situação onde ambos estão dirigindo em uma mesma pista, qual deles transmite maior confiança caso dirija acima do limite estabelecido?
A resposta da questão para a questão, sobre a visão da Personalized Law é: não foram mostrados dados suficientes para se definir. A personalização depende de uma gama muito maior de dados, e a própria escolha de quais dados são usados assim como quais leis podem, e como é feita personalização destas é alvo de grande discussão. O motorista com mais experiência pode já ter infringido diversas leis de trânsito, ter condições cognitivas de atenção menos aguçadas ou ter uma rotina mais cansativa que afeta sua velocidade de reação.
Por outro lado, o jovem pode ter diversas características que pensariam ao seu favor. Personalized Law - regras que variam de pessoa para pessoa - pode representar uma profunda revolução no futuro do processo de tratamento de Big Data’s.
Uma norma legal que visa pela generalidade pode ser substituída por múltiplos comandos personalizados para atender às características de cada pessoa. Motoristas mais experientes teriam a possibilidade de dirigir mais rápido em uma mesma via. Consumidores classificados como de “risco” receberiam proteções mais elaboradas; restrições etárias não seriam uniformes, por exemplo, pelas características de um indivíduo, recolhidas e analisadas por um processo de “data science” se diria se um jovem pode estar apto a dirigir antes ou depois da idade mínima habitual. “Personalized Law”, teria uma tradução direta para Lei Personalizada, porém é possível uma discussão de qual seria o melhor termo em português. Por serem leis que podem ser adequadas de pessoa para pessoa com base em uma gama de dados que fundamente um tratamento diferente para o indivíduo.
As leis com critérios de restrição etária para atividades como firmar um contrato, comprar bebidas alcoólicas ou dirigir, que garantem que as pessoas atinjam um nível de competência física e maturidade cognitiva, são baseadas na premissa muito plausível de que a idade é um bom indicador de tal prontidão. Elas são uniformes, definindo uma idade de corte para todos. Esse limite pode ser ótimo em média para a população, mas sub-ótimo em muitos casos individuais. A lei personalizada variaria a idade de corte entre as pessoas, com base em informações que incluem comportamento passado, hábitos, atributos físicos, habilidades cognitivas, ativos financeiros, estrutura familiar, emprego e muito mais.
“Personalized Law” poderia trazer benefícios sociais enormes, mas carrega consigo também discussões fundamentais quando vistas sobre o âmbito da igualdade, segurança jurídica, manipulação de dados e pessoas, e do poder que os dados teriam se implementados em tal caso.
As leis atuais, no texto tratadas como “Old Precision Law” são aquelas que pregam pelos princípios da generalidade e da abstração. Gerais porque não são prescritas para um indivíduo específico, mas para todos os que se enquadrem na regra; e abstratas porque aplicáveis a todas as situações que se subsumem à norma, e não apenas a um específico caso concreto. O adjetivo de “velha” se deve a serem essas características comuns desde tempos muito antigos quando se tratava da criação de normas.
A precisão que é referida varia entre os objetos tratados pelo autor. A precisão das velhas leis se fazia externamente ao indivíduo, isto é, se observava a história, os costumes, práticas e características de um grupo e baseado nessas informações se regia uma lei capaz de regrar sobre determinado bem. Ou seja, a “precisão” se fazia em um âmbito externo ao ser. Na nova “precisão” essas leis iriam ser variáveis conforme a individualidade.
O livro trata da personalização de fato da regra legal: devemos usar mais fatos conhecidos sobre as pessoas para adaptar comandos mais precisos. Não se trata de como Big Data poderia revisar o objetivo da lei ou os valores que as regras pretendem promover. As máquinas implementarão a vontade e os planos dos humanos. Por exemplo, quando um tribunal tem que avaliar o caráter do réu para calibrar uma sanção criminal, em vez de confiar em depoimentos de testemunhas, ele receberia uma pontuação com base na análise de numerosos dados. Da mesma forma, ao alertar as pessoas sobre os riscos do uso de um produto, em vez de fornecer listas completas uniformes de perigos, a mensagem poderia ser projetada para alertar cada pessoa apenas sobre o risco relevante para ela.
Existem duas dimensões para a lei personalizada, são elas:
Dimensão intensiva da lei personalizada - quantos fatores (ENTRADAS/INPUTS) são usados como entrada para cada comando legal.
Dimensão extensiva, determinando quantos comandos (SAÍDAS/OUTPUTS) estão sujeitos à personalização.
Outra divisão da lei personalizada poderia ser feita ao longo da interface direito/dever. A personalização de deveres pode apresentar desafios diferentes da personalização de direitos. Certamente, todo direito é respaldado por deveres e obrigações, mas a dimensão da personalização poderia se concentrar apenas nos atributos do detentor do direito. Por exemplo, os danos personalizados devem refletir as características das vítimas, não dos causadores do dano, apenas para facilitar a implementação.
As vítimas têm o incentivo de fornecer as informações necessárias, pois sem tais informações, nenhum dano seria concedido. Por isso, provavelmente, que o direito de reparação atualmente personalize apenas a compensação financeira, com duas pessoas que sofrem um mesmo dano recebendo indenizações ou compensações diferentes.
A lei personalizada é um modelo que pode ser escalonado para maiores graus, e qualquer implementação seria inicialmente realizada com cautela, em áreas onde seu teor é mais direto e onde o tratamento diferencial não gera tanta preocupação. Na frente intensiva, certas características pessoais podem ser excluídas se levantarem preocupações únicas. No reino extensivo, áreas inteiras do direito podem ser isentas (direitos constitucionais ou regras de formação de contratos - cada uma por uma razão diferente). Em contextos onde o tratamento diferencial é mais difícil de explicar e de conseguir apoio, a implementação teria que ser mais lenta e grosseira. Os indivíduos poderiam optar por sair da lei personalizada e voltar ao tratamento uniforme. Por exemplo, alguém poderia escolher se reger por normas ordinárias comuns e uniformes ao invés de personalizadas, e essa escolha poderia ser feita como um todo ou regra por regra segmentada.
O texto conclui dizendo que a lei personalizada junta o antigo e o novo. As leis há muito tempo são personificadas com base em aspectos gerais da sociedade, características externas ao ser, porém internas ao coletivo. Essa herança histórica é usada como referência para um direito personalizado e afinado. A lei personalizada também é inteiramente nova, porque a mudança da personalização intuitiva para a baseada em dados e a ampliação de seu escopo, redefiniria o que significa tratar pessoas diferentes diferentemente.
Depois de uma volta completa, voltamos ao conceito inicial. A primeira frase, uma citação, apresentada no capítulo. “É mais importante saber quais pessoas têm uma doença, do que qual doença aflige uma pessoa”. No nosso caso, leis personalizadas se preocuparam com qual doença tem uma pessoa, além de todos os pormenores que fazem aquela doença atacar especificamente aquela doença. É claro, essa expressão e exemplo seriam traduzidos para o mundo jurídico, e ao invés de doenças, teríamos direitos, deveres e obrigações.
Bibliografia Base
PROVOST, Foster. Data Science for Business. Capítulos 1 e 2.
BEN-SHAHAR, Omri. Personalized Law. Capítulo 2.
DEAKIN, Simon. Is Law Computable? Foreword, Capítulos 3 e 9.
Bibliografia Complementar
Spurious correlations. Disponível em: https://www.tylervigen.com/spurious-correlations
O DTec UFMG (Grupo de Estudos em Direito & Tecnologia da Faculdade de Direito da UFMG) é um grupo de estudos registrado junto à Faculdade de Direito da UFMG e ao NIEPE/FDUFMG. O DTec realiza encontros quinzenais remotos para debater temas afetos à sua área e o DTIBR cede espaço no site e nas suas redes sociais para divulgar as atas de reuniões e editais de processo seletivo do grupo de estudos.
Por outro lado, o Centro de Pesquisa em Direito, Tecnologia e Inovação - DTIBR é uma associação civil de direito privado, dotada de personalidade jurídica própria e sem finalidade econômica. Não possui vínculo com a UFMG e, por isso, participantes do grupo de estudos DTec não são membros do DTIBR. Para maiores informações, acesse nosso FAQ.
Comments