top of page

InteligĂȘncia Artificial e Responsabilidade Civil (PARTE 01)

  • Foto do escritor: Tarik Alves
    Tarik Alves
  • 11 de jan. de 2021
  • 8 min de leitura


Por Giovana Figueiredo Peluso Lopes


A responsabilidade civil extracontratual tem por objetivo colocar a pessoa prejudicada na posição em que estaria se a violação do dever geral de nĂŁo causar danos a outros nĂŁo tivesse ocorrido. É possĂ­vel, portanto, que o dever de reparação surja tambĂ©m em favor de indivĂ­duos prejudicados por suas interaçÔes com um agente artificial.


No que diz respeito Ă  imputação em casos de danos causados por agentes autĂŽnomos de inteligĂȘncia artificial, duas peculiaridades fazem com que a aplicação das teorias tradicionais sobre responsabilidade civil seja dificultada: a imprevisibilidade de suas açÔes e a existĂȘncia de agĂȘncia causal sem uma correspondente agĂȘncia legal[1] - pelo menos atĂ© o presente momento, em que nĂŁo sĂŁo considerados como sujeitos pelo ordenamento jurĂ­dico. Significa dizer, em linhas gerais, que tais agentes sĂŁo capazes de produzir açÔes danosas sem que, correspondentemente, sejam responsabilizados por elas.


A potencialidade dos danos causados por uma inteligĂȘncia artificial nĂŁo Ă© trivial. Como exemplos particularmente alarmantes tĂȘm-se os sistemas de controle de baterias de mĂ­sseis, pilotos automĂĄticos, sistemas de controle de trens e softwares de controle de medicina nuclear, que podem causar mortes e ferimentos graves se operarem incorretamente. Na esfera econĂŽmica, quebras de sistemas de negociação e aconselhamento equivocados de sistemas especialistas podem causar perdas significativas para seus usuĂĄrios.[2]

A anĂĄlise da responsabilidade civil por danos causados por uma inteligĂȘncia artificial perpassa, ainda, duas questĂ”es relevantes. A primeira delas diz respeito Ă s hipĂłteses em que o dano causado pela IA seja resultado direto de um erro humano, ou seja, atravĂ©s de um comportamento negligente, por falha de um dever de cuidado, de um defeito de fabricação ou manutenção, do fornecimento inadequado ou insuficiente de orientaçÔes sobre o seu uso seguro e apropriado.


Atualmente, por mais sofisticados e inovadores que sejam, a grande maioria das tecnologias de inteligĂȘncia artificial possui um caracterĂ­stica comum fundamental para a anĂĄlise da responsabilidade: Ă© possĂ­vel identificar, por trĂĄs de seu agir, as diretivas humanas responsĂĄveis por determinado funcionamento ou tomada de decisĂŁo, rastreando-a diretamente de volta Ă  programação do software, design da mĂĄquina, ou dados que lhe foram alimentados ao longo do processo de aprendizagem.[3]


Onde o envolvimento humano na tomada de decisĂŁo Ă© evidente, nĂŁo hĂĄ necessidade de se reexaminar modelos existentes de responsabilidade. Qualquer ser humano (ou entidade personificada) que tem um papel no desenvolvimento da inteligĂȘncia artificial e ajuda a mapear sua tomada de decisĂŁo Ă© potencialmente responsĂĄvel por atos ilĂ­citos - negligentes ou intencionais - cometidos ou envolvendo a IA.


Nesses casos, a aplicação de modalidades jĂĄ existentes de responsabilidade civil pode ser feita a uma inteligĂȘncia artificial autĂŽnoma da mesma forma como o Ă© para outra mĂĄquina ou ferramenta utilizada por um ser humano, talvez com a exceção de se considerar um padrĂŁo mais elevado de cuidado quando da anĂĄlise de um dano.[4]


Na medida em que sistemas artificiais passem a ser capazes de atuar de maneira verdadeiramente autĂŽnoma, independentemente de um input humano direto e baseando-se em informaçÔes que o prĂłprio sistema adquire e analisa, serĂĄ possĂ­vel que eles executem determinadas açÔes nĂŁo antecipadas por seus criadores, muitas delas com consequĂȘncias danosas.


Assim, a segunda questĂŁo adquire relevĂąncia se, e somente se, uma IA totalmente autĂŽnoma causar danos de maneiras impassĂ­veis de serem rastreadas ou atribuĂ­das a um ser humano.


Nessas hipĂłteses, questiona-se qual deveria ser o regime de responsabilidade adotado, especialmente quando se tem em mente que, baseados no princĂ­pio da solidariedade, grande parte dos sistemas de responsabilidade civil nĂŁo estĂĄ disposta a deixar que uma pessoa que sofreu um dano sem ter contribuĂ­do para o mesmo tenha que suportar sozinha o fardo que lhe foi imposto. A pergunta, entĂŁo, passa a ser quem deverĂĄ arcar com os custos associados a um incidente envolvendo um agente artificial autĂŽnomo[5].

Em geral, os usuĂĄrios e operadores de uma inteligĂȘncia artificial tĂȘm o dever de empregar um certo grau de cuidado para impedir que ela cause danos a outros indivĂ­duos ou suas propriedades. O padrĂŁo de conduta exigido Ă© aquele que um homem mĂ©dio, ou seja, um indivĂ­duo diligente, teria nas mesmas circunstĂąncias, e proporcional ao perigo envolvido na atividade.


Esse entendimento Ă© atualmente aplicado a robĂŽs industriais com mobilidade limitada, e que se comportam de maneiras relativamente previsĂ­veis. Devido Ă  sua potencialidade lesiva Ă© que tais mĂĄquinas costumam ter suas proximidades intransponĂ­veis aos demais operĂĄrios, de modo a evitar a responsabilidade de seus operadores por falhas em manter os demais fora de perigo.[6]


Agentes artificiais tambĂ©m podem ser manuseados de forma descuidada ou perigosa; um operador pode nĂŁo tomar o devido cuidado ao programar ou configurar um agente antes de disponibilizĂĄ-lo aos usuĂĄrios em uma rede pĂșblica.[7] É possĂ­vel ainda que usuĂĄrios empreguem uma IA como meio de cometer açÔes danosas a terceiros, ou entĂŁo que alimentem um sistema de aprendizado de mĂĄquina com conteĂșdo inapropriado, gerando, por exemplo outputs racistas.[8] Ademais, conforme destacado por Kurki, os programadores e/ou proprietĂĄrios podem tambĂ©m ser responsabilizados caso tenham intencionalmente criado uma inteligĂȘncia artificial com o intuito de cometer ilĂ­citos.[9]


Uma IA para certa finalidade especĂ­fica pode, ademais, causar danos ao tentar alcançå-la, atravĂ©s de algum desenvolvimento imprevisĂ­vel. Nesse sentido, ilustra-se a hipĂłtese com o exemplo de uma torradeira inteligente que queima a casa em busca de otimizar seus resultados[10], ou entĂŁo com o famoso experimento mental proposto por Nick Bostrom de uma mĂĄquina cujo objetivo Ă© produzir o maior nĂșmero possĂ­vel de clipes de papel (“paperclip maximizer”).


Em contextos como esse, Ryan Abbot propÔe que, caso o desenvolvedor de uma IA consiga demonstrar que a mesma é efetivamente mais segura do que um homem médio, o mesmo deveria ser responsabilizado de forma subjetiva, e não objetiva, pelos danos por ela causados, ainda que no ùmbito de uma relação de consumo.[11]


A anĂĄlise da negligĂȘncia, contudo, fundamenta-se no conceito de previsibilidade, e levanta questĂ”es como: “era possĂ­vel antever o dano?” e “quais tipos de danos eram de fato previsĂ­veis?”. Conforme bem destaca Turner, Ă© extremamente provĂĄvel que as açÔes de uma IA irĂŁo se tornar cada vez mais imprevisĂ­veis. Como consequĂȘncia, responsabilizar um ser humano por toda e qualquer ação da IA mudaria o foco da culpa do agente para um sistema de responsabilidade objetiva.[12]


Nesse contexto enquadra-se a teoria que compreende que a inteligĂȘncia artificial constitui mera ferramenta ou instrumentalidade nas mĂŁos de seres humanos (“AI-as-tool”), podendo representar apenas uma fonte de responsabilidade para outros agentes, seguindo a regra geral de que o operador de uma ferramenta Ă© responsĂĄvel pelos resultados obtidos pelo seu uso, vez que a mesma nĂŁo possui volição independente prĂłpria.[13] Segundo Pagallo, tal teoria implica na atribuição objetiva de responsabilidade Ă  pessoa fĂ­sica ou jurĂ­dica em nome de quem ela age, independentemente de seu comportamento ter sido planejado ou antevisto[14].


A teoria da inteligĂȘncia artificial como ferramenta traça um paralelo com a chamada responsabilidade vicĂĄria, utilizada no sistema contemporĂąneo de responsabilidade extracontratual na common law, e que designa a responsabilidade do superior hierĂĄrquico pelos atos dos seus subordinados ou, em um sentido mais amplo, a responsabilidade de qualquer pessoa que tenha o dever de vigilĂąncia ou de controle pelos atos ilĂ­citos praticados pelas pessoas a quem deveriam vigiar [15].


No ordenamento påtrio, seriam os casos de responsabilidade pelo fato de terceiro, derivada de um dever de guarda, vigilùncia e cuidado, nos termos do art. 932 do Código Civil, e a responsabilidade dos pais pelos atos dos filhos menores que estiverem sob o seu poder e em sua companhia; do tutor e curador pelos pupilos e curatelados; e do patrão pelos atos dos seus empregados.[16] Assim, para que reste configurada, deve haver uma relação entre o agente causador do dano e o indivíduo a quem o mesmo serå imputado, dentro das categorias reconhecidas, e o ato ilícito deve ocorrer dentro do escopo desse relacionamento.[17]


Para Chopra e White, haveria uma justificativa para se imputar a responsabilidade objetiva aos proprietĂĄrios e usuĂĄrios de uma IA, sob o fundamento de que ela poderia representar riscos a terceiros. Assim, esse regime de responsabilidade incentivaria os indivĂ­duos que empregassem agentes artificiais em suas atividades a apenas fazĂȘ-lo quando os benefĂ­cios superassem os custos sociais.[18]


O fato de que a responsabilidade vicåria é normalmente limitada a determinada esfera de atividades realizadas pelo agente representa tanto uma vantagem quanto uma desvantagem. Isso porque nem todo ato de uma IA seria necessariamente atribuível ao seu proprietårio ou operador, de tal modo que, quanto mais o seu comportamento desviasse da sua gama de tarefas delineadas, maior a probabilidade de haver uma lacuna de responsabilidade. No curto a médio prazo, porém, em se tratando de agentes que continuam operando dentro de faixas muito limitadas (narrow AI), essa preocupação é menos premente[19].


Similarmente Ă  hipĂłtese de responsabilidade objetiva por ato de terceiros, Ă© possĂ­vel vislumbrar tambĂ©m a responsabilidade objetiva dos usuĂĄrios ou operadores de uma IA em analogia Ă  responsabilidade do dono do animal pelo fato deste. Neste caso, quando um agente artificial for potencialmente perigoso e seja provĂĄvel que um dano ocorra caso ele escape de seus limites fĂ­sicos ou virtuais, a pessoa em custĂłdia do agente poderia ser responsabilizada, mesmo na ausĂȘncia de negligĂȘncia comprovada.[20]


A escolha de responsabilizar o usuårio ou o operador de um agente de IA dependeria do nível relativo de controle exercido por cada um deles, sendo, a princípio, o operador a pessoa mais adequada a prevenir danos na maioria dos casos. A falta de conhecimento do potencial de perigo apresentado por um agente artificial poderia também ser relevante no caso de agentes altamente sofisticados, cujo funcionamento interno não é transparente para seus guardiÔes ou quando o agente exibir um comportamento inesperado, seja como resultado de seu aprendizado ou de algum defeito[21].


Em Ășltima instĂąncia, porĂ©m, a responsabilização do proprietĂĄrio ou usuĂĄrio de uma IA nĂŁo representa uma solução ideal, uma vez que eles seriam as vĂ­timas mais provĂĄveis de danos nĂŁo antecipados e porque os fabricantes estariam, em princĂ­pio, na melhor posição para aprimorar a segurança do produto e pesar os riscos e benefĂ­cios da criação e disponibilização de novas tecnologias.[22]


Verifica-se, portanto, que, a depender do caso, os danos causados por uma inteligĂȘncia artificial poderĂŁo atrair as disposiçÔes sobre a responsabilidade pelo produto, sobretudo se o fabricante nĂŁo informar suficientemente o consumidor acerca dos riscos associados ao uso da tecnologia em questĂŁo, ou se os sistemas de segurança desta forem deficientes a ponto de nĂŁo oferecerem a segurança esperada.


Desse modo, a recuperação pelo dano pode ser inviabilizada ou reduzida caso ele tenha sido integral ou parcialmente causado pelo modo de utilização do agente, em especial pelo usuårio: ignorando os avisos ou instruçÔes do fornecedor, usando o agente em um contexto novo ou inesperado, imputando-lhe dados ou lhe dando instruçÔes inadequados, ou deixando de exercer discrição ao depender fielmente do output apresentado.[23]

Čerka et. al chamam atenção para o fato de que, na maioria dos casos, seria difĂ­cil a aplicação da responsabilidade pelo fato do produto, pois o ĂŽnus da prova seria extremamente gravoso a quem incumbisse, tendo em vista a dificuldade em se provar um defeito na fabricação da IA e, principalmente, que esse defeito jĂĄ existia quando ela deixou as mĂŁos dos desenvolvedores. Como um sistema de autoaprendizagem, pode ser impossĂ­vel traçar a linha tĂȘnue entre os danos resultantes desse fato e o defeito preexistente de fabricação do produto.[24]


ReferĂȘncias

[1] ASARO, Peter M. The Liability Problem for Autonomous Artificial Agents. AAAI Spring Symposium Series, 2016. DisponĂ­vel em: https://www.aaai.org/ocs/index.php/SSS/SSS16/paper/view/12699. Acesso em: 09 abr. 2020.

[2] Por todos, ver CHOPRA, Samir; LAWRENCE, White. A Legal Theory for Artificial Autonomous Agents. Ann Arbor: University of Michigan Press, 2011, p. 119.

[3] VLADECK, David C. Machines Without Principles: Liability Rules and Artificial Intelligence. Washington Law Review, v. 89, n. 01, p. 117-150, 2014.

[4] Id., p. 127.

[5] Id., p. 128.

[6] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory 
 Op. cit., p. 126.

[7] Id., p. 127.

[8] Idem.

[9] KURKI, Visa A. J. A Theory of Legal Personhood. Oxford: Oxford University Press, 2019, p. 181.

[10] TURNER, Jacob. Robot Rules: Regulating Artificial Intelligence. Nova York: Palgrave Macmillan, 2019.

[11] ABBOTT, Ryan. The Reasonable Computer: Disrupting the paradigm of tort liability. The George Washington Law Review, v. 86, n. 1, 2018, p. 1-45.

[12] TURNER, Jacob. Op. cit., p. 90-91.


[13] ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by artificial intelligence. Computer Law & Security Review, v. 31, n. 3, 2015, p. 376-389.


[14] PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013.

[15] PIRES, Thatiane; SILVA, Rafael. A Responsabilidade Civil pelos Atos AutĂŽnomos da InteligĂȘncia Artificial: Notas iniciais sobre a resolução do Parlamento Europeu. Revista Brasileira de PolĂ­ticas PĂșblicas, v. 7, n. 3, 2017, p. 239-254.

[16] Id., p. 248.

[17] Idem.

[18] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory 
 Op. cit., p. 129.

[19] Turner, p. 101.

[20] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory 
 Op. cit., p. 130.

[21] Id., p. 131.

[22] ABBOTT, Ryan. Op. cit., p. 31.

[23] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory 
 Op. cit., p. 138.

[24] ČERKA, Paulius. Op. cit., p. 386.


bottom of page