top of page

InteligĂȘncia Artificial e Responsabilidade Civil (PARTE 02)

  • Foto do escritor: Tarik Alves
    Tarik Alves
  • 18 de jan. de 2021
  • 9 min de leitura


Por Giovana Figueiredo Peluso Lopes



Quando um agente artificial autĂŽnomo causar um dano atravĂ©s de açÔes nĂŁo diretamente rastreĂĄveis a uma pessoa, uma abordagem possĂ­vel para solucionar a lacuna da responsabilidade seria a inferĂȘncia de um defeito, baseando-se na teoria de que o acidente em si jĂĄ constituiria prova da sua existĂȘncia.[1]


Um defeito pode ser razoavelmente presumido quando, ocorrendo uma falha em determinado produto, ainda que seus engenheiros nĂŁo sejam aptos a identificar aquilo que a causou, esta mesma falha pode ser vislumbrada com certa frequĂȘncia, seguindo um padrĂŁo comum tambĂ©m em outros produtos. Nessas circunstĂąncias, aplica-se rotineiramente a teoria res ipsa loquitor, concluindo que deve haver um defeito no produto, e nĂŁo na atuação do usuĂĄrio ou da vĂ­tima.[2]


Um exemplo recente diz respeito aos inĂșmeros casos envolvendo a Toyota em que se alegou que alguns veĂ­culos fabricados pela marca estariam propensos a acelerar subitamente, sem nenhuma ação correspondente do motorista, e sem a possibilidade de interrupção dessa aceleração por ele, desengatando o pedal do acelerador ou aplicando os freios.[3]


NĂŁo obstante a extensiva investigação realizada, os engenheiros da marca foram incapazes de identificar com precisĂŁo qualquer defeito que causasse a aceleração repentina. Ainda assim, devido ao nĂșmero substancial de reclamaçÔes e Ă s caracterĂ­sticas comuns entre elas, a Toyota decidiu nĂŁo contestar a sua responsabilidade pelos danos causados, pagando o equivalente a U$1.3 bilhĂ”es de dĂłlares aos proprietĂĄrios dos veĂ­culos afetados.[4]


Para Vladeck, o exemplo da empresa Toyota deixa claro que o regime de responsabilidade objetiva aplicado Ă s relaçÔes de consumo Ă© adequado para lidar com casos em que as evidĂȘncias sugerem fortemente um defeito, mas a tecnologia existente nĂŁo Ă© capaz de determinar a sua causa.[5]


Entretanto, na hipĂłtese de um agente artificial autĂŽnomo causar um dano como resultado de sua atuação normal, dentro daquilo para o qual foi programado a fazer, nĂŁo Ă© possĂ­vel falar na existĂȘncia de um defeito ou de presunção de um defeito. Uma vez que esses agentes tĂȘm como caracterĂ­sticas essenciais a autonomia e a capacidade de autoaprendizagem com base em suas experiĂȘncias, seria virtualmente impossĂ­vel distinguir uma ação gerada por uma falha daquela decorrente do prĂłprio processo de aprendizado[6].


Nos casos em que danos sejam causados sem que seja possível atribuí-los diretamente a um comportamento humano, caberå ao ordenamento jurídico optar pela resposta que melhor atenda aos interesses coletivos das partes afetadas. Nesse sentido, a adoção de um regime de responsabilidade objetiva, desacoplado de noçÔes de falhas ou defeitos do produto, parece ser a alternativa mais viåvel.


Nesse contexto, David Vladeck destaca argumentos favorĂĄveis Ă  adoção de um regime de responsabilidade civil objetiva para casos em que danos sejam causados por uma inteligĂȘncia artificial autĂŽnoma. Em primeiro lugar, o autor destaca que garantir a reparação para pessoas que sofrem um dano sem ter tido qualquer contribuição para a sua ocorrĂȘncia Ă©, por si sĂł, um valor fundamental. A ideia de que pessoas devam arcar com danos e perdas que simplesmente lhe ocorrem, mesmo que seja impossĂ­vel explicar causalmente uma falha ou defeito, contraria noçÔes bĂĄsicas de justiça compensatĂłria e distribuição de riscos entre a sociedade.[7]


Poder-se-ia, claro, permitir o desenvolvimento e a aplicação de agentes artificiais autĂŽnomos e simplesmente aceitar os riscos e custos a nĂ­vel social, sem desenvolver uma estrutura mais adequada para regular a sua autonomia. Essa abordagem permissiva permitiria, em um primeiro momento, muitas aplicaçÔes benĂ©ficas de IAs avançadas, mas tambĂ©m muitas outras prejudiciais, incluindo-se inĂșmeros danos pelos quais ninguĂ©m poderia ser responsabilizado, e cujas vĂ­timas restariam sem qualquer tipo de compensação. Como efeito secundĂĄrio, porĂ©m, provavelmente haveria uma reação geral contra tais usos avançados da tecnologia, vez que ela passaria a ser vista como prejudicial e oferecendo poucas opçÔes para a restituição em caso de acidentes.[8]


O segundo argumento favorĂĄvel a um regime de responsabilidade objetiva consiste no fato de que, ao contrĂĄrio da parte lesada, os desenvolvedores da inteligĂȘncia artificial estĂŁo em melhor posição de prevenir a ocorrĂȘncia de danos e de absorver os custos associados, redistribuindo o ĂŽnus da perda atravĂ©s da definição do preço do produto. Afinal, Ă© apenas razoĂĄvel que os custos de acidentes inexplicĂĄveis sejam suportados, ao menos em parte, por aqueles que se beneficiam de inovaçÔes redutoras de risco.[9]


Finalmente, um esquema de responsabilidade que garanta a previsibilidade pode ser melhor em estimular a inovação do que um sistema menos previsível e dependente de uma anålise detalhada para posterior atribuição de culpa. O sistema de responsabilidade civil adotado para agentes artificiais autÎnomos não deverå ser um empecilho à inovação, mas sim incentivar o seu desenvolvimento de maneira responsåvel. A estabilidade fornecida por um regime de responsabilidade civil objetiva, juntamente com uma abordagem de disseminação de custos, serviria a esse objetivo melhor do que um sistema de responsabilidade incerto baseado na anålise de elementos subjetivos.[10]


Similarmente, Turner destaca que, do ponto de vista dos desenvolvedores e fornecedores de uma inteligĂȘncia artificial, a certeza da sua responsabilização na ocorrĂȘncia de um dano poderia representar uma vantagem, pois permitiria a realização de cĂĄlculos atuariais mais precisos. O risco de danos poderia, desse modo, ser precificado no custo final dos produtos, bem como antecipado nas previsĂ”es contĂĄbeis das empresas e na divulgação, aos investidores, como um fator de risco em determinado prospecto.[11]


Em um regime de responsabilidade civil subjetiva, por outro lado, como o ofensor apenas responde se agir culposamente, o Înus do dano necessariamente recairå sobre a vítima. Ou seja, o incentivo para que as vítimas adotem níveis de precaução é maior, pois, caso venham a sofrer algum tipo de prejuízo, elas mesmas deverão suportå-los.[12]


Nesse ponto, Steven Shavell aponta para a dificuldade de se valer de um padrĂŁo de negligĂȘncia (“negligence rule”) quando os tribunais desconhecem o que efetivamente caracterizaria a culpa em razĂŁo da natureza tĂ©cnica da atividade. Assim, acabam por estabelecer padrĂ”es de comportamento errĂŽneos, permitindo que as vĂ­timas permaneçam sem a devida reparação.[13]


Por fim, cumpre ressaltar que, embora Ă  primeira vista o comportamento imprevisĂ­vel de um agente autĂŽnomo de IA possa sugerir a aplicabilidade de responsabilidade objetiva em sua versĂŁo agravada[14], isto Ă©, fundamentando-se apenas na anĂĄlise de ocorrĂȘncia do dano, com a eliminação do requisito do nexo causal, existem empecilhos a serem considerados para a qualificação de um agente artificial autĂŽnomo como atividade de risco.


Na responsabilidade objetiva agravada, para que haja a imputação, exige-se que o dano possua estreita conexão com a atividade exercida pelo responsåvel, devendo este ser considerado inerente, característico ou típico daquela. Ainda, tal modalidade exige que o dano ocorrido afete a integridade física ou psíquica de uma pessoa, não bastando, para que haja o agravamento, que o evento danoso tenha atingido apenas objetos ou bens.[15]


A responsabilidade agravada justifica-se pelo objetivo econĂŽmico da atividade normalmente desenvolvida. Em outras palavras, aquele que se beneficia de uma atividade lĂ­cita e que seja potencialmente perigosa adquire o ĂŽnus de arcar com as eventuais consequĂȘncias danosas inerentes ao processo produtivo ou distributivo.


AtravĂ©s da definição, em lei, de atividades consideradas intrinsecamente de risco, impĂ”e-se a responsabilidade objetiva agravada Ă s atividades que nĂŁo podem ser prevenidas, de maneira viĂĄvel, pelo cuidado do ator ou por possĂ­veis alteraçÔes comportamentais das vĂ­timas. Isso porque, segundo Posner, novas atividades tendem a ser perigosas por haver pouca experiĂȘncia em lidar com quaisquer riscos que elas apresentem, implicando, por vez, que existem bons substitutos para elas. O melhor mĂ©todo de controle de acidentes, nesse caso, encontrar-se-ia na redução de escala da atividade em questĂŁo.[16]


Entretanto, a qualificação da pesquisa e desenvolvimento de agentes de inteligĂȘncia artificial autĂŽnomos como atividade inerentemente de risco Ă©, no mĂ­nimo, problemĂĄtico, pelo simples fato de que na grande maioria das vezes eles desempenharĂŁo suas tarefas de forma mais segura do que seus correspondentes humanos, e serĂŁo menos perigosos do que os produtos que virĂŁo a substituir.


Além disso, o agravamento da responsabilidade objetiva impediria, em qualquer instùncia, a possibilidade de que desenvolvedores dessa tecnologia pudessem se eximir de arcar com qualquer dano ocorrido, alegando, por exemplo, a culpa exclusiva da vítima ainda que ela fizesse uso de maneira completamente inapropriada do agente, ou fortuito externo.

Uma vez que determinado ordenamento jurídico opte pela adoção de um regime de responsabilidade civil baseado em elementos objetivos, o principal questionamento passa a ser quem deve arcar com os custos. O Înus da responsabilidade deve recair sobre o desenvolvedor, o distribuidor, o operador, o usuårio ou, ainda, todos eles?


A mera imputação da responsabilidade ao fabricante da IA, permitindo-lhe, posteriormente, buscar a compensação das outras partes potencialmente responsåveis, pode constituir em nada mais do que um gesto vazio. Se de fato for impossível identificar a causa do acidente, o fabricante provavelmente não terå argumentos razoåveis para fundamentar uma ação de regresso, ficando, desse modo, incumbido de arcar inteiramente com os custos de reparação à vítima.


Tal alternativa faz apenas sentido caso o fabricante esteja na melhor posição para suportar as perdas. Caso contrårio, a opção mais justa pode ser a partilha da responsabilidade entre todas as partes que participaram da criação e manutenção do agente artificial, sob a justificativa de que os custos associados ao dano são melhor distribuídos entre todas as partes potencialmente responsåveis ou entre as partes que poderiam, de maneira mais eficiente, arcar com ou segurar as perdas.[17]


Nesse ponto, Ă© interessante a abordagem pela teoria deep pocket (literalmente, “bolso profundo”), conforme a denominação cunhada no direito norte-americano. Segundo ela, toda pessoa envolvida em atividades que apresentam riscos, mas que, ao mesmo tempo, sĂŁo lucrativas e Ășteis para a sociedade, tem a obrigação de compensar os danos causados, como uma espĂ©cie de moeda de troca pelo lucro obtido.


Seja o criador da IA, o fabricante de produtos que empregam IA, uma empresa ou profissional faz uso dela em sua atividade, mesmo nĂŁo estando diretamente inserido na cadeia produtiva (como as empresas que utilizam robot traders para otimizar transaçÔes na bolsa de valores). Em suma: aquele que tem o “bolso profundo” e aproveita os lucros dessa nova tecnologia deve ser o garantidor dos riscos inerentes Ă  sua atividade[18].


Regimes existentes de responsabilidade solidåria objetiva permitem, com base nessa teoria, que os prejudicados obtenham indenizaçÔes nos bolsos mais profundos entre as partes que compartilham uma parcela da responsabilidade, sobretudo em se tratando de uma grande corporação ou do governo, que possuem capacidade para arcar especialmente com danos de valor elevado.[19]


Similarmente, David Vladeck levanta a possibilidade de aplicação da “common enterprise liability”, teoria segundo a qual cada entidade dentro de um conjunto de empresas interconectadas pode ser responsabilizada objetiva e solidariamente pelas açÔes de outras empresas integrantes do grupo. A aplicação da teoria, porĂ©m, exigiria algumas adaptaçÔes, como a nĂŁo exigĂȘncia de que as empresas funcionassem, necessariamente, em conjunto, mas tendo como requisito apenas que elas trabalhem rumo a um objetivo comum – no caso, projetar, programar e fabricar uma inteligĂȘncia artificial autĂŽnoma e seus vĂĄrios componentes.[20]


AlĂ©m disso, a teoria da forma como Ă© comumente aplicada serve para garantir que, uma vez estabelecida a responsabilidade, todos os transgressores sejam responsabilizados, porĂ©m nĂŁo seria possĂ­vel falar em uma transgressĂŁo, no sentido de culpabilidade, na hipĂłtese tratada. Em vez disso, haveria uma inferĂȘncia de responsabilidade operacionalizada normativamente para resguardar uma parte inocente (a vĂ­tima), fazendo com que outras pessoas suportem os custos do dano.


O ponto principal, inobstante, permaneceria o mesmo: a “common enterprise liability” permite que a lei imponha uma responsabilidade conjunta sem ter que lidar com os detalhes de analisar e atribuir todos os aspectos do ocorrido a uma parte envolvida ou outra, sendo suficiente que, no esforço para alcançar um objetivo comum, as partes tenham ocasionado um dano.


Tal princĂ­pio poderia, segundo o autor, ser incorporado em um novo regime de responsabilidade objetiva para lidar com os danos que podem ser incutidos aos seres humanos por agentes autĂŽnomos de IA, quando Ă© impossĂ­vel ou impraticĂĄvel atribuir falhas a uma pessoa especĂ­fica. Da maneira por ele vislumbrada, essa responsabilidade comum serviria como uma forma de seguro obrigatĂłrio imposto pelos tribunais: o grupo indenizaria conjuntamente eventuais vĂ­timas na impossibilidade de se determinar, ou menos ainda partilhar, falhas ocorridas.[21]


ReferĂȘncias

[1] VLADECK, David C. Machines Without Principles: Liability Rules and Artificial Intelligence. Washington Law Review, v. 89, n. 01, p. 117-150, 2014.

[2] Id., p. 142.

[3] CARTY, Sharon. Toyota’s Sudden Acceleration Problem May Have Been Triggered By Tin Whiskers. Huffpost, jan. 2012. Disponível em: https://www.huffpostbrasil.com/entry/toyota-sudden-acceleration-tin-whiskers_n_1221076?ri18n=true. Acesso em: 20 dez. 2020.

[4] DYE, Jessica. Toyota Acceleration Case Settlement Gets Final OK. Insurance Journal, jul. 2013. DisponĂ­vel em: https://www.insurancejournal.com/news/national/2013/07/22/299154.htm. Acesso em: 20 dez. 2020.

[5] VLADECK, David. Op. cit., p. 143.

[6] ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by artificial intelligence. Computer Law & Security Review, v. 31, n. 3, 2015, p. 376-389.

[7] VLADECK, David. Op. cit., p. 146.

[8] ASARO, Peter M. The Liability Problem for Autonomous Artificial Agents. AAAI Spring Symposium Series, 2016. DisponĂ­vel em: https://www.aaai.org/ocs/index.php/SSS/SSS16/paper/view/12699. Acesso em: 28 dez. 2020.

[9] VLADECK, David. Op. cit., p. 146-147.

[10] Idem.

[11] TURNER, Jacob. Robot Rules: Regulating Artificial Intelligence. Nova York: Palgrave Macmillan, 2019, p. 95.

[12] MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael. Novas Perspectivas sobre Ética e Responsabilidade de InteligĂȘncia Artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (Orgs.). InteligĂȘncia Artificial e Direito: Ética, regulação e responsabilidade. SĂŁo Paulo: Thomson Reuters Brasil, 2019, p. 119-120.

[13] SHAVELL, Steven. Foundations of Economic Analysis of Law. Cambridge: Harvard University Press, 2004.

[14] No CĂłdigo Civil brasileira, a responsabilidade objetiva agravada estĂĄ preceituada na parte final do parĂĄgrafo Ășnico do artigo 927: HaverĂĄ obrigação de reparar o dano, independentemente de culpa, nos casos especificados em lei, ou quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem (BRASIL, 2002).

[15] NORONHA, Fernando. Responsabilidade Civil: Uma tentativa de ressistematização. Revista de Direito Civil, Imobiliårio, Agrårio e Empresarial. São Paulo, ano 17, n. 64, abr./jun. 1993, p. 7-47.

[16] POSNER, Richard. Economic analysis of law. New York: Wolters Kluwer Law and Business, 2014, p. 180.

[17] VLADECK, David. Op. cit., p. 128-129.

[18] PIRES, Thatiane. Op. cit., p. 251.

[19] ASARO, Peter. Op. cit., p. 193. Para o autor, uma possĂ­vel consequĂȘncia negativa da aplicação da teoria seria que os fabricantes de tecnologias de inteligĂȘncia artificial que provavelmente teriam que arcar com o ĂŽnus da responsabilidade buscariam formas de limitar a capacidade dos consumidores e usuĂĄrios de modificar, adaptar ou personalizar seus produtos, a fim de manter maior controle sobre como eles sĂŁo utilizados. Isso tambĂ©m desaceleraria o processo de inovação proveniente de comunidades de hackers, cĂłdigo aberto e DIY. Estas, embora sejam uma fonte poderosa de inovação, teriam meios limitados para compensar indivĂ­duos prejudicados por seus produtos, nĂŁo apenas aqueles que optaram por fazer uso dos mesmos.

[20] VLADECK, David. Op. cit., p. 149.

[21] Idem.


bottom of page