A regulação da Inteligência Artificial é tema novo e ainda sem uma diretriz de como deve funcionar. Grande parte da mobilização para que ela acontece rapidamente vem do medo do desconhecido, e do despreparo da sociedade para compreender o que exatamente essa nova tecnologia oferece. No entanto, apesar da enorme variedade de inovações que surgem a cada dia, a IA apresenta desafios próprios que ultrapassam o fator “novidade”, e fazem com que a criação de uma regulação a seu respeito seja ainda mais complexa.
Importante ressaltar que o termo regulação alude às regras como um todo, ou seja, ao controle exercido sobre determinado tema, mas não necessariamente se restringindo a regras jurídicas. Assim, entram também no conceito a criação de regulamentos, de agências reguladoras e de diversas outras espécies de limitação, inclusive não governamental.
Feita essa ressalva, passemos então a abordar os motivos pelos quais regular a IA é mais difícil do que o comum.
As pesquisas nesse campo são ainda iniciais e grande parte do que se pensa a respeito do tema é apenas hipóteses, ainda não comprovadas ou testadas por falta de meios técnicos para isso. Falta até mesmo – e principalmente – uma definição clara e precisa do que é a IA, sem a qual é impossível definir qualquer tipo de regra a seu respeito. Não existe meios no ordenamento jurídico para criar uma regulação sem objeto, o que é o caso em questão. Antes de qualquer coisa, é essencial estabelecer os limites do que estaria sujeito às regras eventualmente promulgadas, para que só então seja possível analisar as demandas existentes e trabalhar tendo-as como ponto de partida.
Há o problema do desenvolvimento. A produção de uma IA depende de muito pouca estrutura física, e pode ser feita apenas a partir de um computador com uma potência mínima. Geograficamente, pode ser tão difusa quanto desejado, não se restringindo a qualquer limitação de fronteira. Portanto, a título de exemplo, se um país tem uma regulação muito rígida a respeito do tema, a produção pode facilmente ser transferida, sem que haja nenhum prejuízo e baixíssimos custos. Fugir das regras é fácil. A realidade, no entanto, é que mesmo que um programador esteja violando os limites impostos, dificilmente será possível tomar medidas contra ele, já que a possibilidade de ser descoberto é mínima. Como a criação de uma IA não depende de estrutura física, fiscalizar o desenvolvimento é um obstáculo ainda não superado, e não se pode esperar que uma regulação que não seja imposta através de algum tipo de coerção (seja do Estado, do mercado, ou do próprio grupo de fornecedores) seja obedecida pelos destinatários. A impossibilidade de realização de engenharia reversa na IA pronta torna o desafio da regulação ainda maior, já que se conhece apenas o início e o resultado do processo, mas não as etapas através das quais se chegou a esse fim, podendo elas ser legais ou não.
Existem ainda problemas oriundos da dispersão da produção que não dependem necessariamente da má-fé dos programadores. Existem diversas bibliotecas online que fornecem partes de códigos para criação de inteligência artificial, e que estão disponíveis para toda uma gama de interessados com diversos objetivos. A produção pode, portanto, ser dispersa também no tempo. Uma linha de código disponibilidade online hoje provavelmente estará disponível por um período indeterminado de tempo, especialmente considerando a possibilidade de ser copiada para diferentes bibliotecas e se espalhar pela internet. Assim, um dano causado pela IA pode ter ocorrido em razão da incompatibilidade entre as diferentes partes, ou pelo uso de determinado código com função ainda que ligeiramente diversa daquela para qual foi criado, o que seria em grande medida imprevisível tanto para o programador que primeiro criou o código quanto para o que desenvolveu a IA. Mesmo quando os desenvolvedores de partes separadas do código conhecem a intenção de uni-los em um programa único, dificilmente têm a compreensão do todo para que possam adaptar seu trabalho e evitar ao máximo que falhas ocorram.
As ditas bibliotecas online têm ainda o problema darem a seus usuários a possibilidade do anonimato. Dificilmente qualquer ação online é realmente anônima, já que deixamos diversos rastros ao longo da conexão, mas pode ser um processo extremamente complexo e nem sempre proveitoso encontrar os responsáveis por uma modificação específica no código. Esse anonimato é proveitoso para o desenvolvimento da inteligência artificial, mas é mais um fator que entrava a fiscalização de regras que eventualmente estejam em vigor.
Outra questão problemática para eventual regulação da inteligência artificial é a questão da autonomia. IA são criadas para trabalhar com previsões independentemente de qualquer intervenção humana que não alimentá-la com dados no primeiro momento do processo. A forma como essas informações são processadas para chegar ao resultado final pode permanecer incógnita inclusive para os responsáveis pela programação do sistema, já que não estão sujeitas a engenharia reversa ou outras formas de análise que explicitem os meios pelos quais se chegou ao resultado final. Assim, se só é possível conhecer o primeiro passo do processo, dificilmente seria viável responsabilizar alguém pelo resultado final, se as etapas pelas quais se passa foram definidas pelo próprio sistema tendo como referência uma base de dados que pode ser tão vasta quanto a própria internet.
Já existem IA que agem sem a guia ou mesmo a supervisão de um ser humano. Fica, então, uma lacuna na responsabilização. Sendo o desenvolvedor conhecido, é possível trabalhar com a hipótese de responsabilizá-lo quando a IA causa dano agindo dentro do escopo para o qual foi programada, mas, se ela apresenta qualquer variação, faltam meios jurídicos de responsabilizar o programador que inicialmente a elaborou. Diretamente ligada à autonomia, resta ainda a questão da previsibilidade. Ações que saem do escopo de programação da IA ainda são extremamente limitadas pelo próprio estágio de desenvolvimento em que essa tecnologia se encontra, mas a forma como qual uma inteligência artificial chega a um resultado difere completamente do raciocínio humano, e o fato de ocorrer dentro de uma caixa preta faz com que compreendê-la seja extremamente complexo, se é que possível. Portanto, dadas as informações iniciais, não podemos saber com precisão qual será o resultado final entregue pelo sistema. A título de exemplo, vide a inteligência artificial criada pela Microsoft para interagir com usuários do Twitter, Tay. O problema, foi uma base de dados viciada, mas os responsáveis pelo direcionamento não foram a empresa que criou a IA, mas terceiros que nenhuma relação tinham com o desenvolvimento do sistema.
A principal lição que o caso Tay traz para o estudo da inteligência artificial é que o desenvolvimento não está completo no momento em que o programador termina o código do sistema. A construção da IA depende também do pós-design, e da possibilidade de aprendizado contínuo através de bases de dados cada vez maiores.
Existe ainda a possibilidade de perda de controle da IA. Essa falha pode ocorrer por inúmeros motivos, inclusive, mas não restrito, a falhas no design. As teorias a respeito do tema em geral consideram a existência de duas formas de controle da inteligência artificial: local control é aquele exercido pelos responsáveis legais pelo sistema, e o general control diz respeito a todo e qualquer ser humano que possa controlá-lo. Ambos podem ser perdidos, e questiona-se então quem seria passível de responsabilização por danos causados pela IA em ambos os cenários. Terceiros que inicialmente não têm responsabilidade pelo sistema, mas que têm a possibilidade e exercer sobre ele algum controle que os responsáveis já não têm podem ser punidos por não evitar um dano causado pela IA? E se considerarmos a possibilidade de o controle ter sido roubado por um determinado grupo, mas que o causador do dano não foi outro que não o próprio sistema, agindo autonomamente? Existe até mesmo quem defenda que IAs avançadas vão resistir a toda forma de controle humano.
Matthew Scherer defende que os problemas existentes na regulação de IA são, em geral, fruto de lacunas no sistema jurídico, e que são comuns a diversos outros temas novos ao direito. Como tal, devem ser resolvidos através do preenchimento dessas lacunas, o que ele sugere que seja feito não através de leis stricto sensu, mas de agências reguladoras especializadas. Entre as soluções por ele apresentadas, merece destaque o incentivo para que os desenvolvedores divulguem o código das IA criadas por eles, seja através da criação de obrigação impositiva ou de incentivos tributários, além de especificar qual o escopo esperado para a atuação do sistema e quais os problemas mais prováveis devem ser esperados.
O autor destaca, ainda, que a legislação não é o meio adequado para regular a IA, pela menos não no nosso contexto atual. O processo de criação e modificação de leis é muito rígido para acompanhar o desenvolvimento das novas tecnologias, que acontece cada vez mais rápido e se retroalimenta. É também muito pouco especializado, já que poucos especialistas são ouvidos por uma comissão seleta de legisladores, a quem então incumbe repassar as informações para o restante do plenário através de projetos de lei. Ele apresenta, então, uma proposta de regulação através e agência reguladora, a AIDA. Segundo esse regulamento, a IA deveria ser segura, e criada de forma que seus interesses estejam alinhados com os humanos. Deveria haver, então, um sistema de certificação através do qual a responsabilidade do desenvolvedor seria limitada na medida do que foi previsto para atuação do sistema, e apenas uma vez que o código fosse divulgado e analisado para garantir sua segurança. Para aqueles que não fossem certificados, os desenvolvedores seriam ilimitadamente responsáveis pelos danos eventualmente causados, ainda que dentro do escopo de atuação da IA. Caberia a essa agência, ainda, gerir um fundo utilizado para pagamento de indenizações a vítimas nos casos de responsabilidade limitada, e, mais importante, definir o que é IA, e assim quais seus próprios limites de atuação.
Importante ressaltar que atualmente os maiores desenvolvedores de IA são grandes empresas de tecnologia e governos. Apesar de existir a possibilidade de criação de uma inteligência artificial por pessoas sem uma grande estrutura, ainda depende de potência computacional e conhecimentos que poucos têm, mas que estão cada vez mais difundidos. É, portanto, do interesse dessas grandes companhias que haja uma regulação para a IA, já que isso cria uma barreira de mercado que dificulta que pequenos desenvolvedores tenham os meios necessários para atender as exigência e poderem criar suas próprias IAs. Elon Musk, por exemplo, já se mostrou favorável à regulação, e expressou inclusive preocupação com a possibilidade de o desenvolvimento e inteligência artificial significa que a humanidade está “invocando o demônio”. Resta então avaliar quanto desse posicionamento é preocupação real vinda de um empresário com conhecimento aprofundado a respeito do tema, e quanto é alarmismo dedicado a preocupar a população e forçar governos a regularem a área para assim garantir maior controle de mercado.
Bibliografia básica:
SCHERER, Matthew U. Regulating Artificial Intelligence Systems. Harvard Journal of Law and Technology. V. 29, nº 2. 2016.
JUST, N. LATZER, M. Governance by Algorithms: Reality Construction by Algorithmic Selection on the Internet.. Media, Culture & Society. 2016.
PETIT, Nicolas. Law and Regulation of Artificial Intelligence and Robots: Conceptual Framework and Normative Implications. Working Paper. 2017.