top of page

Como Regular a InteligĂȘncia Artificial (por Oren Etzioni)

  • 8 de out. de 2018
  • 4 min de leitura

Em coluna publicada no New York Times, Oren Etzioni, diretor executivo do Instituto Allen de InteligĂȘncia Artificial, apresenta sugestĂ”es de trĂȘs regras bĂĄsicas para regulação de InteligĂȘncia artificial, elucidando contrapontos a visĂ”es alarmistas sobre o impacto dessas tecnologias na sociedade, com foco especial para o contexto norte-americano.


Segue a tradução:

"O empresĂĄrio de tecnologia Elon Musk recentemente incitou governadores a regularem a inteligĂȘncia artificial "antes que seja tarde demais". Musk insiste que a inteligĂȘncia artificial representa uma "ameaça existencial Ă  humanidade", visĂŁo essa alarmista que confunde a ciĂȘncia com a ficção cientĂ­fica. No entanto, mesmo os pesquisadores em I.A. reconhecem que hĂĄ preocupaçÔes vĂĄlidas sobre o seu impacto, como em questĂ”es bĂ©licas, de empregos e de privacidade. É natural perguntar se devemos desenvolvĂȘ-la em absoluto.

Acredito que a resposta seja sim. Mas não deveríamos tomar medidas para, pelo menos, retardar o progresso da I.A., por cautela? O problema é que, se o fizermos, naçÔes como a China nos alcançarão. O cavalo da I.A. jå saiu do celeiro, e nossa melhor aposta é tentar guiå-lo. Ele não deve ser armado, e qualquer I.A. deve ter um "interruptor de desliga" inexpugnåvel. Além disso, devemos regular o impacto tangível da I.A. em determinados sistemas (por exemplo, a segurança de veículos autÎnomos) ao invés de tentar definir e controlar o campo amorfo e de råpido desenvolvimento.

Eu proponho trĂȘs regras para sistemas de inteligĂȘncia artificial que sĂŁo inspiradas, e desenvolvem, as “trĂȘs leis da robĂłtica” que o escritor Isaac Asimov introduziu em 1942: Um robĂŽ nĂŁo pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal; um robĂŽ deve obedecer Ă s ordens dadas por seres humanos, exceto quando tais ordens entrem em conflito com a lei anterior; e um robĂŽ deve proteger sua prĂłpria existĂȘncia, desde que tal proteção nĂŁo entre em conflito com as duas leis anteriores.

Essas trĂȘs leis sĂŁo elegantes, mas ambĂ­guas: o que, exatamente, constitui dano quando se trata de I.A.? Sugiro uma base mais concreta para evitar o dano, baseado em trĂȘs regras minhas.

Primeiro, o sistema deve estar sujeito a toda a gama de leis que se aplicam ao seu operador humano. Essa regra abrangeria sistemas privados, corporativos e governamentais. Nós não queremos que a I.A se envolva em cyberbullying, manipulação de açÔes ou ameaças terroristas; ou que o F.B.I. permita o uso de sistemas que levam as pessoas a cometer crimes. Não queremos veículos autÎnomos que atravessem sinais vermelhos, ou pior, armas que violam tratados internacionais.

Nossa legislação deve ser alterada para que não possamos afirmar que a A.I. fez algo que não pudemos entender ou antecipar. Simplificando, “minha I.A. fez isso" não deve desculpar o comportamento ilegal.

Minha segunda regra é que um sistema de I.A. deve divulgar claramente que não é humano. Como vimos no caso dos bots - programas de computador podem envolver-se em um diålogo cada vez mais sofisticado com pessoas reais - a sociedade precisa de garantias de que esses sistemas são claramente rotulados como tal. Em 2016, um bot conhecido como Jill Watson, que serviu como assistente de ensino para um curso on-line na Georgia Tech, enganou os alunos para pensar que era humano. Um exemplo mais sério é o uso generalizado de bots políticos pró-Trump nas mídias sociais nos dias que antecederam as eleiçÔes de 2016, de acordo com pesquisadores de Oxford.

Minha regra garantiria que as pessoas soubessem quando um bot estå se passando por alguém. Jå vimos, por exemplo, @DeepDrumpf - um bot que personificava com humor Donald Trump no Twitter. Esses sistemas não produzem apenas tweets falsos; produzem também vídeos de notícias falsas. Pesquisadores da Universidade de Washington divulgaram recentemente um vídeo falso do ex-presidente Barack Obama no qual ele, convincentemente, parecia estar falando palavras que haviam sido retiradas de um outro vídeo no qual dizia sobre algo totalmente diferente.

Minha terceira regra Ă© que um sistema de I.A. nĂŁo pode reter ou divulgar informaçÔes confidenciais sem a aprovação explĂ­cita da fonte. Devido Ă  sua capacidade excepcional para extrair automaticamente, gravar e analisar informaçÔes, tais sistemas estĂŁo em uma posição privilegiada para adquirir informaçÔes confidenciais. Pense em todas as conversas que o Amazon Echo - um “alto-falante inteligente” presente em um nĂșmero crescente de residĂȘncias - estĂĄ a par, ou a informação que seu filho pode inadvertidamente divulgar para um brinquedo, como um I.A. Barbie. AtĂ© mesmo robĂŽs aparentemente inofensivos criam mapas de sua casa. Esse Ă© o tipo de informação que vocĂȘ quer ter certeza de controlar.

Minhas trĂȘs regras sĂŁo, creio eu, sĂłlidas, mas longe de serem completas. Eu os apresento aqui como ponto de partida para discussĂŁo. Quer vocĂȘ concorde ou nĂŁo com a visĂŁo do Sr. Musk sobre a taxa de progresso dessas tecnologias e seu impacto final na humanidade (eu nĂŁo), estĂĄ claro que o I.A. estĂĄ vindo e a sociedade precisa se preparar."

Oren Etzioni Ă© o diretor executivo do Instituto Allen de InteligĂȘncia Artificial.

VocĂȘ pode ler o original no link abaixo.

bottom of page