InteligĂȘncia Artificial e Responsabilidade Civil (PARTE 02)
- Tarik Alves
- 18 de jan. de 2021
- 9 min de leitura

Por Giovana Figueiredo Peluso Lopes
Quando um agente artificial autĂŽnomo causar um dano atravĂ©s de açÔes nĂŁo diretamente rastreĂĄveis a uma pessoa, uma abordagem possĂvel para solucionar a lacuna da responsabilidade seria a inferĂȘncia de um defeito, baseando-se na teoria de que o acidente em si jĂĄ constituiria prova da sua existĂȘncia.[1]
Um defeito pode ser razoavelmente presumido quando, ocorrendo uma falha em determinado produto, ainda que seus engenheiros nĂŁo sejam aptos a identificar aquilo que a causou, esta mesma falha pode ser vislumbrada com certa frequĂȘncia, seguindo um padrĂŁo comum tambĂ©m em outros produtos. Nessas circunstĂąncias, aplica-se rotineiramente a teoria res ipsa loquitor, concluindo que deve haver um defeito no produto, e nĂŁo na atuação do usuĂĄrio ou da vĂtima.[2]
Um exemplo recente diz respeito aos inĂșmeros casos envolvendo a Toyota em que se alegou que alguns veĂculos fabricados pela marca estariam propensos a acelerar subitamente, sem nenhuma ação correspondente do motorista, e sem a possibilidade de interrupção dessa aceleração por ele, desengatando o pedal do acelerador ou aplicando os freios.[3]
NĂŁo obstante a extensiva investigação realizada, os engenheiros da marca foram incapazes de identificar com precisĂŁo qualquer defeito que causasse a aceleração repentina. Ainda assim, devido ao nĂșmero substancial de reclamaçÔes e Ă s caracterĂsticas comuns entre elas, a Toyota decidiu nĂŁo contestar a sua responsabilidade pelos danos causados, pagando o equivalente a U$1.3 bilhĂ”es de dĂłlares aos proprietĂĄrios dos veĂculos afetados.[4]
Para Vladeck, o exemplo da empresa Toyota deixa claro que o regime de responsabilidade objetiva aplicado Ă s relaçÔes de consumo Ă© adequado para lidar com casos em que as evidĂȘncias sugerem fortemente um defeito, mas a tecnologia existente nĂŁo Ă© capaz de determinar a sua causa.[5]
Entretanto, na hipĂłtese de um agente artificial autĂŽnomo causar um dano como resultado de sua atuação normal, dentro daquilo para o qual foi programado a fazer, nĂŁo Ă© possĂvel falar na existĂȘncia de um defeito ou de presunção de um defeito. Uma vez que esses agentes tĂȘm como caracterĂsticas essenciais a autonomia e a capacidade de autoaprendizagem com base em suas experiĂȘncias, seria virtualmente impossĂvel distinguir uma ação gerada por uma falha daquela decorrente do prĂłprio processo de aprendizado[6].
Nos casos em que danos sejam causados sem que seja possĂvel atribuĂ-los diretamente a um comportamento humano, caberĂĄ ao ordenamento jurĂdico optar pela resposta que melhor atenda aos interesses coletivos das partes afetadas. Nesse sentido, a adoção de um regime de responsabilidade objetiva, desacoplado de noçÔes de falhas ou defeitos do produto, parece ser a alternativa mais viĂĄvel.
Nesse contexto, David Vladeck destaca argumentos favorĂĄveis Ă adoção de um regime de responsabilidade civil objetiva para casos em que danos sejam causados por uma inteligĂȘncia artificial autĂŽnoma. Em primeiro lugar, o autor destaca que garantir a reparação para pessoas que sofrem um dano sem ter tido qualquer contribuição para a sua ocorrĂȘncia Ă©, por si sĂł, um valor fundamental. A ideia de que pessoas devam arcar com danos e perdas que simplesmente lhe ocorrem, mesmo que seja impossĂvel explicar causalmente uma falha ou defeito, contraria noçÔes bĂĄsicas de justiça compensatĂłria e distribuição de riscos entre a sociedade.[7]
Poder-se-ia, claro, permitir o desenvolvimento e a aplicação de agentes artificiais autĂŽnomos e simplesmente aceitar os riscos e custos a nĂvel social, sem desenvolver uma estrutura mais adequada para regular a sua autonomia. Essa abordagem permissiva permitiria, em um primeiro momento, muitas aplicaçÔes benĂ©ficas de IAs avançadas, mas tambĂ©m muitas outras prejudiciais, incluindo-se inĂșmeros danos pelos quais ninguĂ©m poderia ser responsabilizado, e cujas vĂtimas restariam sem qualquer tipo de compensação. Como efeito secundĂĄrio, porĂ©m, provavelmente haveria uma reação geral contra tais usos avançados da tecnologia, vez que ela passaria a ser vista como prejudicial e oferecendo poucas opçÔes para a restituição em caso de acidentes.[8]
O segundo argumento favorĂĄvel a um regime de responsabilidade objetiva consiste no fato de que, ao contrĂĄrio da parte lesada, os desenvolvedores da inteligĂȘncia artificial estĂŁo em melhor posição de prevenir a ocorrĂȘncia de danos e de absorver os custos associados, redistribuindo o ĂŽnus da perda atravĂ©s da definição do preço do produto. Afinal, Ă© apenas razoĂĄvel que os custos de acidentes inexplicĂĄveis sejam suportados, ao menos em parte, por aqueles que se beneficiam de inovaçÔes redutoras de risco.[9]
Finalmente, um esquema de responsabilidade que garanta a previsibilidade pode ser melhor em estimular a inovação do que um sistema menos previsĂvel e dependente de uma anĂĄlise detalhada para posterior atribuição de culpa. O sistema de responsabilidade civil adotado para agentes artificiais autĂŽnomos nĂŁo deverĂĄ ser um empecilho Ă inovação, mas sim incentivar o seu desenvolvimento de maneira responsĂĄvel. A estabilidade fornecida por um regime de responsabilidade civil objetiva, juntamente com uma abordagem de disseminação de custos, serviria a esse objetivo melhor do que um sistema de responsabilidade incerto baseado na anĂĄlise de elementos subjetivos.[10]
Similarmente, Turner destaca que, do ponto de vista dos desenvolvedores e fornecedores de uma inteligĂȘncia artificial, a certeza da sua responsabilização na ocorrĂȘncia de um dano poderia representar uma vantagem, pois permitiria a realização de cĂĄlculos atuariais mais precisos. O risco de danos poderia, desse modo, ser precificado no custo final dos produtos, bem como antecipado nas previsĂ”es contĂĄbeis das empresas e na divulgação, aos investidores, como um fator de risco em determinado prospecto.[11]
Em um regime de responsabilidade civil subjetiva, por outro lado, como o ofensor apenas responde se agir culposamente, o ĂŽnus do dano necessariamente recairĂĄ sobre a vĂtima. Ou seja, o incentivo para que as vĂtimas adotem nĂveis de precaução Ă© maior, pois, caso venham a sofrer algum tipo de prejuĂzo, elas mesmas deverĂŁo suportĂĄ-los.[12]
Nesse ponto, Steven Shavell aponta para a dificuldade de se valer de um padrĂŁo de negligĂȘncia (ânegligence ruleâ) quando os tribunais desconhecem o que efetivamente caracterizaria a culpa em razĂŁo da natureza tĂ©cnica da atividade. Assim, acabam por estabelecer padrĂ”es de comportamento errĂŽneos, permitindo que as vĂtimas permaneçam sem a devida reparação.[13]
Por fim, cumpre ressaltar que, embora Ă primeira vista o comportamento imprevisĂvel de um agente autĂŽnomo de IA possa sugerir a aplicabilidade de responsabilidade objetiva em sua versĂŁo agravada[14], isto Ă©, fundamentando-se apenas na anĂĄlise de ocorrĂȘncia do dano, com a eliminação do requisito do nexo causal, existem empecilhos a serem considerados para a qualificação de um agente artificial autĂŽnomo como atividade de risco.
Na responsabilidade objetiva agravada, para que haja a imputação, exige-se que o dano possua estreita conexĂŁo com a atividade exercida pelo responsĂĄvel, devendo este ser considerado inerente, caracterĂstico ou tĂpico daquela. Ainda, tal modalidade exige que o dano ocorrido afete a integridade fĂsica ou psĂquica de uma pessoa, nĂŁo bastando, para que haja o agravamento, que o evento danoso tenha atingido apenas objetos ou bens.[15]
A responsabilidade agravada justifica-se pelo objetivo econĂŽmico da atividade normalmente desenvolvida. Em outras palavras, aquele que se beneficia de uma atividade lĂcita e que seja potencialmente perigosa adquire o ĂŽnus de arcar com as eventuais consequĂȘncias danosas inerentes ao processo produtivo ou distributivo.
AtravĂ©s da definição, em lei, de atividades consideradas intrinsecamente de risco, impĂ”e-se a responsabilidade objetiva agravada Ă s atividades que nĂŁo podem ser prevenidas, de maneira viĂĄvel, pelo cuidado do ator ou por possĂveis alteraçÔes comportamentais das vĂtimas. Isso porque, segundo Posner, novas atividades tendem a ser perigosas por haver pouca experiĂȘncia em lidar com quaisquer riscos que elas apresentem, implicando, por vez, que existem bons substitutos para elas. O melhor mĂ©todo de controle de acidentes, nesse caso, encontrar-se-ia na redução de escala da atividade em questĂŁo.[16]
Entretanto, a qualificação da pesquisa e desenvolvimento de agentes de inteligĂȘncia artificial autĂŽnomos como atividade inerentemente de risco Ă©, no mĂnimo, problemĂĄtico, pelo simples fato de que na grande maioria das vezes eles desempenharĂŁo suas tarefas de forma mais segura do que seus correspondentes humanos, e serĂŁo menos perigosos do que os produtos que virĂŁo a substituir.
AlĂ©m disso, o agravamento da responsabilidade objetiva impediria, em qualquer instĂąncia, a possibilidade de que desenvolvedores dessa tecnologia pudessem se eximir de arcar com qualquer dano ocorrido, alegando, por exemplo, a culpa exclusiva da vĂtima ainda que ela fizesse uso de maneira completamente inapropriada do agente, ou fortuito externo.
Uma vez que determinado ordenamento jurĂdico opte pela adoção de um regime de responsabilidade civil baseado em elementos objetivos, o principal questionamento passa a ser quem deve arcar com os custos. O ĂŽnus da responsabilidade deve recair sobre o desenvolvedor, o distribuidor, o operador, o usuĂĄrio ou, ainda, todos eles?
A mera imputação da responsabilidade ao fabricante da IA, permitindo-lhe, posteriormente, buscar a compensação das outras partes potencialmente responsĂĄveis, pode constituir em nada mais do que um gesto vazio. Se de fato for impossĂvel identificar a causa do acidente, o fabricante provavelmente nĂŁo terĂĄ argumentos razoĂĄveis para fundamentar uma ação de regresso, ficando, desse modo, incumbido de arcar inteiramente com os custos de reparação Ă vĂtima.
Tal alternativa faz apenas sentido caso o fabricante esteja na melhor posição para suportar as perdas. Caso contrĂĄrio, a opção mais justa pode ser a partilha da responsabilidade entre todas as partes que participaram da criação e manutenção do agente artificial, sob a justificativa de que os custos associados ao dano sĂŁo melhor distribuĂdos entre todas as partes potencialmente responsĂĄveis ou entre as partes que poderiam, de maneira mais eficiente, arcar com ou segurar as perdas.[17]
Nesse ponto, Ă© interessante a abordagem pela teoria deep pocket (literalmente, âbolso profundoâ), conforme a denominação cunhada no direito norte-americano. Segundo ela, toda pessoa envolvida em atividades que apresentam riscos, mas que, ao mesmo tempo, sĂŁo lucrativas e Ășteis para a sociedade, tem a obrigação de compensar os danos causados, como uma espĂ©cie de moeda de troca pelo lucro obtido.
Seja o criador da IA, o fabricante de produtos que empregam IA, uma empresa ou profissional faz uso dela em sua atividade, mesmo nĂŁo estando diretamente inserido na cadeia produtiva (como as empresas que utilizam robot traders para otimizar transaçÔes na bolsa de valores). Em suma: aquele que tem o âbolso profundoâ e aproveita os lucros dessa nova tecnologia deve ser o garantidor dos riscos inerentes Ă sua atividade[18].
Regimes existentes de responsabilidade solidåria objetiva permitem, com base nessa teoria, que os prejudicados obtenham indenizaçÔes nos bolsos mais profundos entre as partes que compartilham uma parcela da responsabilidade, sobretudo em se tratando de uma grande corporação ou do governo, que possuem capacidade para arcar especialmente com danos de valor elevado.[19]
Similarmente, David Vladeck levanta a possibilidade de aplicação da âcommon enterprise liabilityâ, teoria segundo a qual cada entidade dentro de um conjunto de empresas interconectadas pode ser responsabilizada objetiva e solidariamente pelas açÔes de outras empresas integrantes do grupo. A aplicação da teoria, porĂ©m, exigiria algumas adaptaçÔes, como a nĂŁo exigĂȘncia de que as empresas funcionassem, necessariamente, em conjunto, mas tendo como requisito apenas que elas trabalhem rumo a um objetivo comum â no caso, projetar, programar e fabricar uma inteligĂȘncia artificial autĂŽnoma e seus vĂĄrios componentes.[20]
AlĂ©m disso, a teoria da forma como Ă© comumente aplicada serve para garantir que, uma vez estabelecida a responsabilidade, todos os transgressores sejam responsabilizados, porĂ©m nĂŁo seria possĂvel falar em uma transgressĂŁo, no sentido de culpabilidade, na hipĂłtese tratada. Em vez disso, haveria uma inferĂȘncia de responsabilidade operacionalizada normativamente para resguardar uma parte inocente (a vĂtima), fazendo com que outras pessoas suportem os custos do dano.
O ponto principal, inobstante, permaneceria o mesmo: a âcommon enterprise liabilityâ permite que a lei imponha uma responsabilidade conjunta sem ter que lidar com os detalhes de analisar e atribuir todos os aspectos do ocorrido a uma parte envolvida ou outra, sendo suficiente que, no esforço para alcançar um objetivo comum, as partes tenham ocasionado um dano.
Tal princĂpio poderia, segundo o autor, ser incorporado em um novo regime de responsabilidade objetiva para lidar com os danos que podem ser incutidos aos seres humanos por agentes autĂŽnomos de IA, quando Ă© impossĂvel ou impraticĂĄvel atribuir falhas a uma pessoa especĂfica. Da maneira por ele vislumbrada, essa responsabilidade comum serviria como uma forma de seguro obrigatĂłrio imposto pelos tribunais: o grupo indenizaria conjuntamente eventuais vĂtimas na impossibilidade de se determinar, ou menos ainda partilhar, falhas ocorridas.[21]
ReferĂȘncias
[1] VLADECK, David C. Machines Without Principles: Liability Rules and Artificial Intelligence. Washington Law Review, v. 89, n. 01, p. 117-150, 2014.
[2] Id., p. 142.
[3] CARTY, Sharon. Toyotaâs Sudden Acceleration Problem May Have Been Triggered By Tin Whiskers. Huffpost, jan. 2012. DisponĂvel em: https://www.huffpostbrasil.com/entry/toyota-sudden-acceleration-tin-whiskers_n_1221076?ri18n=true. Acesso em: 20 dez. 2020.
[4] DYE, Jessica. Toyota Acceleration Case Settlement Gets Final OK. Insurance Journal, jul. 2013. DisponĂvel em: https://www.insurancejournal.com/news/national/2013/07/22/299154.htm. Acesso em: 20 dez. 2020.
[5] VLADECK, David. Op. cit., p. 143.
[6] ÄERKA, Paulius; GRIGIENÄ, Jurgita; SIRBIKYTÄ, GintarÄ. Liability for damages caused by artificial intelligence. Computer Law & Security Review, v. 31, n. 3, 2015, p. 376-389.
[7] VLADECK, David. Op. cit., p. 146.
[8] ASARO, Peter M. The Liability Problem for Autonomous Artificial Agents. AAAI Spring Symposium Series, 2016. DisponĂvel em: https://www.aaai.org/ocs/index.php/SSS/SSS16/paper/view/12699. Acesso em: 28 dez. 2020.
[9] VLADECK, David. Op. cit., p. 146-147.
[10] Idem.
[11] TURNER, Jacob. Robot Rules: Regulating Artificial Intelligence. Nova York: Palgrave Macmillan, 2019, p. 95.
[12] MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael. Novas Perspectivas sobre Ătica e Responsabilidade de InteligĂȘncia Artificial. In: FRAZĂO, Ana; MULHOLLAND, Caitlin (Orgs.). InteligĂȘncia Artificial e Direito: Ătica, regulação e responsabilidade. SĂŁo Paulo: Thomson Reuters Brasil, 2019, p. 119-120.
[13] SHAVELL, Steven. Foundations of Economic Analysis of Law. Cambridge: Harvard University Press, 2004.
[14] No CĂłdigo Civil brasileira, a responsabilidade objetiva agravada estĂĄ preceituada na parte final do parĂĄgrafo Ășnico do artigo 927: HaverĂĄ obrigação de reparar o dano, independentemente de culpa, nos casos especificados em lei, ou quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem (BRASIL, 2002).
[15] NORONHA, Fernando. Responsabilidade Civil: Uma tentativa de ressistematização. Revista de Direito Civil, Imobiliårio, Agrårio e Empresarial. São Paulo, ano 17, n. 64, abr./jun. 1993, p. 7-47.
[16] POSNER, Richard. Economic analysis of law. New York: Wolters Kluwer Law and Business, 2014, p. 180.
[17] VLADECK, David. Op. cit., p. 128-129.
[18] PIRES, Thatiane. Op. cit., p. 251.
[19] ASARO, Peter. Op. cit., p. 193. Para o autor, uma possĂvel consequĂȘncia negativa da aplicação da teoria seria que os fabricantes de tecnologias de inteligĂȘncia artificial que provavelmente teriam que arcar com o ĂŽnus da responsabilidade buscariam formas de limitar a capacidade dos consumidores e usuĂĄrios de modificar, adaptar ou personalizar seus produtos, a fim de manter maior controle sobre como eles sĂŁo utilizados. Isso tambĂ©m desaceleraria o processo de inovação proveniente de comunidades de hackers, cĂłdigo aberto e DIY. Estas, embora sejam uma fonte poderosa de inovação, teriam meios limitados para compensar indivĂduos prejudicados por seus produtos, nĂŁo apenas aqueles que optaram por fazer uso dos mesmos.
[20] VLADECK, David. Op. cit., p. 149.
[21] Idem.