InteligĂȘncia Artificial e Responsabilidade Civil (PARTE 01)
- Tarik Alves
- 11 de jan. de 2021
- 8 min de leitura

Por Giovana Figueiredo Peluso Lopes
A responsabilidade civil extracontratual tem por objetivo colocar a pessoa prejudicada na posição em que estaria se a violação do dever geral de nĂŁo causar danos a outros nĂŁo tivesse ocorrido. Ă possĂvel, portanto, que o dever de reparação surja tambĂ©m em favor de indivĂduos prejudicados por suas interaçÔes com um agente artificial.
No que diz respeito Ă imputação em casos de danos causados por agentes autĂŽnomos de inteligĂȘncia artificial, duas peculiaridades fazem com que a aplicação das teorias tradicionais sobre responsabilidade civil seja dificultada: a imprevisibilidade de suas açÔes e a existĂȘncia de agĂȘncia causal sem uma correspondente agĂȘncia legal[1] - pelo menos atĂ© o presente momento, em que nĂŁo sĂŁo considerados como sujeitos pelo ordenamento jurĂdico. Significa dizer, em linhas gerais, que tais agentes sĂŁo capazes de produzir açÔes danosas sem que, correspondentemente, sejam responsabilizados por elas.
A potencialidade dos danos causados por uma inteligĂȘncia artificial nĂŁo Ă© trivial. Como exemplos particularmente alarmantes tĂȘm-se os sistemas de controle de baterias de mĂsseis, pilotos automĂĄticos, sistemas de controle de trens e softwares de controle de medicina nuclear, que podem causar mortes e ferimentos graves se operarem incorretamente. Na esfera econĂŽmica, quebras de sistemas de negociação e aconselhamento equivocados de sistemas especialistas podem causar perdas significativas para seus usuĂĄrios.[2]
A anĂĄlise da responsabilidade civil por danos causados por uma inteligĂȘncia artificial perpassa, ainda, duas questĂ”es relevantes. A primeira delas diz respeito Ă s hipĂłteses em que o dano causado pela IA seja resultado direto de um erro humano, ou seja, atravĂ©s de um comportamento negligente, por falha de um dever de cuidado, de um defeito de fabricação ou manutenção, do fornecimento inadequado ou insuficiente de orientaçÔes sobre o seu uso seguro e apropriado.
Atualmente, por mais sofisticados e inovadores que sejam, a grande maioria das tecnologias de inteligĂȘncia artificial possui um caracterĂstica comum fundamental para a anĂĄlise da responsabilidade: Ă© possĂvel identificar, por trĂĄs de seu agir, as diretivas humanas responsĂĄveis por determinado funcionamento ou tomada de decisĂŁo, rastreando-a diretamente de volta Ă programação do software, design da mĂĄquina, ou dados que lhe foram alimentados ao longo do processo de aprendizagem.[3]
Onde o envolvimento humano na tomada de decisĂŁo Ă© evidente, nĂŁo hĂĄ necessidade de se reexaminar modelos existentes de responsabilidade. Qualquer ser humano (ou entidade personificada) que tem um papel no desenvolvimento da inteligĂȘncia artificial e ajuda a mapear sua tomada de decisĂŁo Ă© potencialmente responsĂĄvel por atos ilĂcitos - negligentes ou intencionais - cometidos ou envolvendo a IA.
Nesses casos, a aplicação de modalidades jĂĄ existentes de responsabilidade civil pode ser feita a uma inteligĂȘncia artificial autĂŽnoma da mesma forma como o Ă© para outra mĂĄquina ou ferramenta utilizada por um ser humano, talvez com a exceção de se considerar um padrĂŁo mais elevado de cuidado quando da anĂĄlise de um dano.[4]
Na medida em que sistemas artificiais passem a ser capazes de atuar de maneira verdadeiramente autĂŽnoma, independentemente de um input humano direto e baseando-se em informaçÔes que o prĂłprio sistema adquire e analisa, serĂĄ possĂvel que eles executem determinadas açÔes nĂŁo antecipadas por seus criadores, muitas delas com consequĂȘncias danosas.
Assim, a segunda questĂŁo adquire relevĂąncia se, e somente se, uma IA totalmente autĂŽnoma causar danos de maneiras impassĂveis de serem rastreadas ou atribuĂdas a um ser humano.
Nessas hipĂłteses, questiona-se qual deveria ser o regime de responsabilidade adotado, especialmente quando se tem em mente que, baseados no princĂpio da solidariedade, grande parte dos sistemas de responsabilidade civil nĂŁo estĂĄ disposta a deixar que uma pessoa que sofreu um dano sem ter contribuĂdo para o mesmo tenha que suportar sozinha o fardo que lhe foi imposto. A pergunta, entĂŁo, passa a ser quem deverĂĄ arcar com os custos associados a um incidente envolvendo um agente artificial autĂŽnomo[5].
Em geral, os usuĂĄrios e operadores de uma inteligĂȘncia artificial tĂȘm o dever de empregar um certo grau de cuidado para impedir que ela cause danos a outros indivĂduos ou suas propriedades. O padrĂŁo de conduta exigido Ă© aquele que um homem mĂ©dio, ou seja, um indivĂduo diligente, teria nas mesmas circunstĂąncias, e proporcional ao perigo envolvido na atividade.
Esse entendimento Ă© atualmente aplicado a robĂŽs industriais com mobilidade limitada, e que se comportam de maneiras relativamente previsĂveis. Devido Ă sua potencialidade lesiva Ă© que tais mĂĄquinas costumam ter suas proximidades intransponĂveis aos demais operĂĄrios, de modo a evitar a responsabilidade de seus operadores por falhas em manter os demais fora de perigo.[6]
Agentes artificiais tambĂ©m podem ser manuseados de forma descuidada ou perigosa; um operador pode nĂŁo tomar o devido cuidado ao programar ou configurar um agente antes de disponibilizĂĄ-lo aos usuĂĄrios em uma rede pĂșblica.[7] Ă possĂvel ainda que usuĂĄrios empreguem uma IA como meio de cometer açÔes danosas a terceiros, ou entĂŁo que alimentem um sistema de aprendizado de mĂĄquina com conteĂșdo inapropriado, gerando, por exemplo outputs racistas.[8] Ademais, conforme destacado por Kurki, os programadores e/ou proprietĂĄrios podem tambĂ©m ser responsabilizados caso tenham intencionalmente criado uma inteligĂȘncia artificial com o intuito de cometer ilĂcitos.[9]
Uma IA para certa finalidade especĂfica pode, ademais, causar danos ao tentar alcançå-la, atravĂ©s de algum desenvolvimento imprevisĂvel. Nesse sentido, ilustra-se a hipĂłtese com o exemplo de uma torradeira inteligente que queima a casa em busca de otimizar seus resultados[10], ou entĂŁo com o famoso experimento mental proposto por Nick Bostrom de uma mĂĄquina cujo objetivo Ă© produzir o maior nĂșmero possĂvel de clipes de papel (âpaperclip maximizerâ).
Em contextos como esse, Ryan Abbot propÔe que, caso o desenvolvedor de uma IA consiga demonstrar que a mesma é efetivamente mais segura do que um homem médio, o mesmo deveria ser responsabilizado de forma subjetiva, e não objetiva, pelos danos por ela causados, ainda que no ùmbito de uma relação de consumo.[11]
A anĂĄlise da negligĂȘncia, contudo, fundamenta-se no conceito de previsibilidade, e levanta questĂ”es como: âera possĂvel antever o dano?â e âquais tipos de danos eram de fato previsĂveis?â. Conforme bem destaca Turner, Ă© extremamente provĂĄvel que as açÔes de uma IA irĂŁo se tornar cada vez mais imprevisĂveis. Como consequĂȘncia, responsabilizar um ser humano por toda e qualquer ação da IA mudaria o foco da culpa do agente para um sistema de responsabilidade objetiva.[12]
Nesse contexto enquadra-se a teoria que compreende que a inteligĂȘncia artificial constitui mera ferramenta ou instrumentalidade nas mĂŁos de seres humanos (âAI-as-toolâ), podendo representar apenas uma fonte de responsabilidade para outros agentes, seguindo a regra geral de que o operador de uma ferramenta Ă© responsĂĄvel pelos resultados obtidos pelo seu uso, vez que a mesma nĂŁo possui volição independente prĂłpria.[13] Segundo Pagallo, tal teoria implica na atribuição objetiva de responsabilidade Ă pessoa fĂsica ou jurĂdica em nome de quem ela age, independentemente de seu comportamento ter sido planejado ou antevisto[14].
A teoria da inteligĂȘncia artificial como ferramenta traça um paralelo com a chamada responsabilidade vicĂĄria, utilizada no sistema contemporĂąneo de responsabilidade extracontratual na common law, e que designa a responsabilidade do superior hierĂĄrquico pelos atos dos seus subordinados ou, em um sentido mais amplo, a responsabilidade de qualquer pessoa que tenha o dever de vigilĂąncia ou de controle pelos atos ilĂcitos praticados pelas pessoas a quem deveriam vigiar [15].
No ordenamento pĂĄtrio, seriam os casos de responsabilidade pelo fato de terceiro, derivada de um dever de guarda, vigilĂąncia e cuidado, nos termos do art. 932 do CĂłdigo Civil, e a responsabilidade dos pais pelos atos dos filhos menores que estiverem sob o seu poder e em sua companhia; do tutor e curador pelos pupilos e curatelados; e do patrĂŁo pelos atos dos seus empregados.[16] Assim, para que reste configurada, deve haver uma relação entre o agente causador do dano e o indivĂduo a quem o mesmo serĂĄ imputado, dentro das categorias reconhecidas, e o ato ilĂcito deve ocorrer dentro do escopo desse relacionamento.[17]
Para Chopra e White, haveria uma justificativa para se imputar a responsabilidade objetiva aos proprietĂĄrios e usuĂĄrios de uma IA, sob o fundamento de que ela poderia representar riscos a terceiros. Assim, esse regime de responsabilidade incentivaria os indivĂduos que empregassem agentes artificiais em suas atividades a apenas fazĂȘ-lo quando os benefĂcios superassem os custos sociais.[18]
O fato de que a responsabilidade vicĂĄria Ă© normalmente limitada a determinada esfera de atividades realizadas pelo agente representa tanto uma vantagem quanto uma desvantagem. Isso porque nem todo ato de uma IA seria necessariamente atribuĂvel ao seu proprietĂĄrio ou operador, de tal modo que, quanto mais o seu comportamento desviasse da sua gama de tarefas delineadas, maior a probabilidade de haver uma lacuna de responsabilidade. No curto a mĂ©dio prazo, porĂ©m, em se tratando de agentes que continuam operando dentro de faixas muito limitadas (narrow AI), essa preocupação Ă© menos premente[19].
Similarmente Ă hipĂłtese de responsabilidade objetiva por ato de terceiros, Ă© possĂvel vislumbrar tambĂ©m a responsabilidade objetiva dos usuĂĄrios ou operadores de uma IA em analogia Ă responsabilidade do dono do animal pelo fato deste. Neste caso, quando um agente artificial for potencialmente perigoso e seja provĂĄvel que um dano ocorra caso ele escape de seus limites fĂsicos ou virtuais, a pessoa em custĂłdia do agente poderia ser responsabilizada, mesmo na ausĂȘncia de negligĂȘncia comprovada.[20]
A escolha de responsabilizar o usuĂĄrio ou o operador de um agente de IA dependeria do nĂvel relativo de controle exercido por cada um deles, sendo, a princĂpio, o operador a pessoa mais adequada a prevenir danos na maioria dos casos. A falta de conhecimento do potencial de perigo apresentado por um agente artificial poderia tambĂ©m ser relevante no caso de agentes altamente sofisticados, cujo funcionamento interno nĂŁo Ă© transparente para seus guardiĂ”es ou quando o agente exibir um comportamento inesperado, seja como resultado de seu aprendizado ou de algum defeito[21].
Em Ășltima instĂąncia, porĂ©m, a responsabilização do proprietĂĄrio ou usuĂĄrio de uma IA nĂŁo representa uma solução ideal, uma vez que eles seriam as vĂtimas mais provĂĄveis de danos nĂŁo antecipados e porque os fabricantes estariam, em princĂpio, na melhor posição para aprimorar a segurança do produto e pesar os riscos e benefĂcios da criação e disponibilização de novas tecnologias.[22]
Verifica-se, portanto, que, a depender do caso, os danos causados por uma inteligĂȘncia artificial poderĂŁo atrair as disposiçÔes sobre a responsabilidade pelo produto, sobretudo se o fabricante nĂŁo informar suficientemente o consumidor acerca dos riscos associados ao uso da tecnologia em questĂŁo, ou se os sistemas de segurança desta forem deficientes a ponto de nĂŁo oferecerem a segurança esperada.
Desse modo, a recuperação pelo dano pode ser inviabilizada ou reduzida caso ele tenha sido integral ou parcialmente causado pelo modo de utilização do agente, em especial pelo usuårio: ignorando os avisos ou instruçÔes do fornecedor, usando o agente em um contexto novo ou inesperado, imputando-lhe dados ou lhe dando instruçÔes inadequados, ou deixando de exercer discrição ao depender fielmente do output apresentado.[23]
Äerka et. al chamam atenção para o fato de que, na maioria dos casos, seria difĂcil a aplicação da responsabilidade pelo fato do produto, pois o ĂŽnus da prova seria extremamente gravoso a quem incumbisse, tendo em vista a dificuldade em se provar um defeito na fabricação da IA e, principalmente, que esse defeito jĂĄ existia quando ela deixou as mĂŁos dos desenvolvedores. Como um sistema de autoaprendizagem, pode ser impossĂvel traçar a linha tĂȘnue entre os danos resultantes desse fato e o defeito preexistente de fabricação do produto.[24]
ReferĂȘncias
[1] ASARO, Peter M. The Liability Problem for Autonomous Artificial Agents. AAAI Spring Symposium Series, 2016. DisponĂvel em: https://www.aaai.org/ocs/index.php/SSS/SSS16/paper/view/12699. Acesso em: 09 abr. 2020.
[2] Por todos, ver CHOPRA, Samir; LAWRENCE, White. A Legal Theory for Artificial Autonomous Agents. Ann Arbor: University of Michigan Press, 2011, p. 119.
[3] VLADECK, David C. Machines Without Principles: Liability Rules and Artificial Intelligence. Washington Law Review, v. 89, n. 01, p. 117-150, 2014.
[4] Id., p. 127.
[5] Id., p. 128.
[6] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory ⊠Op. cit., p. 126.
[7] Id., p. 127.
[8] Idem.
[9] KURKI, Visa A. J. A Theory of Legal Personhood. Oxford: Oxford University Press, 2019, p. 181.
[10] TURNER, Jacob. Robot Rules: Regulating Artificial Intelligence. Nova York: Palgrave Macmillan, 2019.
[11] ABBOTT, Ryan. The Reasonable Computer: Disrupting the paradigm of tort liability. The George Washington Law Review, v. 86, n. 1, 2018, p. 1-45.
[12] TURNER, Jacob. Op. cit., p. 90-91.
[13] ÄERKA, Paulius; GRIGIENÄ, Jurgita; SIRBIKYTÄ, GintarÄ. Liability for damages caused by artificial intelligence. Computer Law & Security Review, v. 31, n. 3, 2015, p. 376-389.
[14] PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013.
[15] PIRES, Thatiane; SILVA, Rafael. A Responsabilidade Civil pelos Atos AutĂŽnomos da InteligĂȘncia Artificial: Notas iniciais sobre a resolução do Parlamento Europeu. Revista Brasileira de PolĂticas PĂșblicas, v. 7, n. 3, 2017, p. 239-254.
[16] Id., p. 248.
[17] Idem.
[18] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory ⊠Op. cit., p. 129.
[19] Turner, p. 101.
[20] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory ⊠Op. cit., p. 130.
[21] Id., p. 131.
[22] ABBOTT, Ryan. Op. cit., p. 31.
[23] CHOPRA, Samir; WHITE, Lawrence. A Legal Theory ⊠Op. cit., p. 138.
[24] ÄERKA, Paulius. Op. cit., p. 386.