Como Regular a InteligĂȘncia Artificial (por Oren Etzioni)
- 8 de out. de 2018
- 4 min de leitura
Em coluna publicada no New York Times, Oren Etzioni, diretor executivo do Instituto Allen de InteligĂȘncia Artificial, apresenta sugestĂ”es de trĂȘs regras bĂĄsicas para regulação de InteligĂȘncia artificial, elucidando contrapontos a visĂ”es alarmistas sobre o impacto dessas tecnologias na sociedade, com foco especial para o contexto norte-americano.

Segue a tradução:
"O empresĂĄrio de tecnologia Elon Musk recentemente incitou governadores a regularem a inteligĂȘncia artificial "antes que seja tarde demais". Musk insiste que a inteligĂȘncia artificial representa uma "ameaça existencial Ă humanidade", visĂŁo essa alarmista que confunde a ciĂȘncia com a ficção cientĂfica. No entanto, mesmo os pesquisadores em I.A. reconhecem que hĂĄ preocupaçÔes vĂĄlidas sobre o seu impacto, como em questĂ”es bĂ©licas, de empregos e de privacidade. Ă natural perguntar se devemos desenvolvĂȘ-la em absoluto.
Acredito que a resposta seja sim. Mas nĂŁo deverĂamos tomar medidas para, pelo menos, retardar o progresso da I.A., por cautela? O problema Ă© que, se o fizermos, naçÔes como a China nos alcançarĂŁo. O cavalo da I.A. jĂĄ saiu do celeiro, e nossa melhor aposta Ă© tentar guiĂĄ-lo. Ele nĂŁo deve ser armado, e qualquer I.A. deve ter um "interruptor de desliga" inexpugnĂĄvel. AlĂ©m disso, devemos regular o impacto tangĂvel da I.A. em determinados sistemas (por exemplo, a segurança de veĂculos autĂŽnomos) ao invĂ©s de tentar definir e controlar o campo amorfo e de rĂĄpido desenvolvimento.
Eu proponho trĂȘs regras para sistemas de inteligĂȘncia artificial que sĂŁo inspiradas, e desenvolvem, as âtrĂȘs leis da robĂłticaâ que o escritor Isaac Asimov introduziu em 1942: Um robĂŽ nĂŁo pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal; um robĂŽ deve obedecer Ă s ordens dadas por seres humanos, exceto quando tais ordens entrem em conflito com a lei anterior; e um robĂŽ deve proteger sua prĂłpria existĂȘncia, desde que tal proteção nĂŁo entre em conflito com as duas leis anteriores.
Essas trĂȘs leis sĂŁo elegantes, mas ambĂguas: o que, exatamente, constitui dano quando se trata de I.A.? Sugiro uma base mais concreta para evitar o dano, baseado em trĂȘs regras minhas.
Primeiro, o sistema deve estar sujeito a toda a gama de leis que se aplicam ao seu operador humano. Essa regra abrangeria sistemas privados, corporativos e governamentais. NĂłs nĂŁo queremos que a I.A se envolva em cyberbullying, manipulação de açÔes ou ameaças terroristas; ou que o F.B.I. permita o uso de sistemas que levam as pessoas a cometer crimes. NĂŁo queremos veĂculos autĂŽnomos que atravessem sinais vermelhos, ou pior, armas que violam tratados internacionais.
Nossa legislação deve ser alterada para que nĂŁo possamos afirmar que a A.I. fez algo que nĂŁo pudemos entender ou antecipar. Simplificando, âminha I.A. fez isso" nĂŁo deve desculpar o comportamento ilegal.
Minha segunda regra Ă© que um sistema de I.A. deve divulgar claramente que nĂŁo Ă© humano. Como vimos no caso dos bots - programas de computador podem envolver-se em um diĂĄlogo cada vez mais sofisticado com pessoas reais - a sociedade precisa de garantias de que esses sistemas sĂŁo claramente rotulados como tal. Em 2016, um bot conhecido como Jill Watson, que serviu como assistente de ensino para um curso on-line na Georgia Tech, enganou os alunos para pensar que era humano. Um exemplo mais sĂ©rio Ă© o uso generalizado de bots polĂticos prĂł-Trump nas mĂdias sociais nos dias que antecederam as eleiçÔes de 2016, de acordo com pesquisadores de Oxford.
Minha regra garantiria que as pessoas soubessem quando um bot estĂĄ se passando por alguĂ©m. JĂĄ vimos, por exemplo, @DeepDrumpf - um bot que personificava com humor Donald Trump no Twitter. Esses sistemas nĂŁo produzem apenas tweets falsos; produzem tambĂ©m vĂdeos de notĂcias falsas. Pesquisadores da Universidade de Washington divulgaram recentemente um vĂdeo falso do ex-presidente Barack Obama no qual ele, convincentemente, parecia estar falando palavras que haviam sido retiradas de um outro vĂdeo no qual dizia sobre algo totalmente diferente.
Minha terceira regra Ă© que um sistema de I.A. nĂŁo pode reter ou divulgar informaçÔes confidenciais sem a aprovação explĂcita da fonte. Devido Ă sua capacidade excepcional para extrair automaticamente, gravar e analisar informaçÔes, tais sistemas estĂŁo em uma posição privilegiada para adquirir informaçÔes confidenciais. Pense em todas as conversas que o Amazon Echo - um âalto-falante inteligenteâ presente em um nĂșmero crescente de residĂȘncias - estĂĄ a par, ou a informação que seu filho pode inadvertidamente divulgar para um brinquedo, como um I.A. Barbie. AtĂ© mesmo robĂŽs aparentemente inofensivos criam mapas de sua casa. Esse Ă© o tipo de informação que vocĂȘ quer ter certeza de controlar.
Minhas trĂȘs regras sĂŁo, creio eu, sĂłlidas, mas longe de serem completas. Eu os apresento aqui como ponto de partida para discussĂŁo. Quer vocĂȘ concorde ou nĂŁo com a visĂŁo do Sr. Musk sobre a taxa de progresso dessas tecnologias e seu impacto final na humanidade (eu nĂŁo), estĂĄ claro que o I.A. estĂĄ vindo e a sociedade precisa se preparar."
Oren Etzioni Ă© o diretor executivo do Instituto Allen de InteligĂȘncia Artificial.
VocĂȘ pode ler o original no link abaixo.