top of page

Aprendizado de Modelos nas Ciências Sociais


Grupo de Estudos em Direito e Tecnologia da Universidade Federal de Minas Gerais – DTEC - UFMG

Data: 25/04/2023

Relatores: Flávia Dugulin Castro, Nayra Mendonça e Diego Alvarenga


1. Abertura


O encontro iniciou às 11h30min através da plataforma Google Meet. A abertura foi realizada pelo monitor José Faleiros e após breves cumprimentos aos integrantes, as relatoras iniciaram a exposição do tema aos participantes do seguinte tema: Aprendizado de Modelos nas Ciências Sociais: Conexões e desafios.


O primeiro tema tratado foi sobre o texto New Laws of Robotics (Novas Leis da Robótica) do professor Frank Pasquale, que faz um breve relato sobre as Leis da Robótica que Isaac Asimov propôs, que são três regras e/ou princípios. Vejamos:


- 1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.

- 2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.

- 3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.


Professor José Faleiros acrescentou que mais tarde Asimov acrescentou a “Lei Zero”, acima de todas as outras:


- 4ª Lei: Um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.


Chegamos à conclusão de que essas regras/princípios são de difícil aplicabilidade, por serem direcionadas para robôs, e não para humanos que os constroem. O professor Frank Pasquale sugere novas leis da robótica sendo elas:


- Sistemas robóticos e IA devem complementar os profissionais, não substituí-los;

- Sistemas robóticos e IA não devem fingir humanidade;

- Sistemas robóticos e IA não devem intensificar corridas armamentistas;

- Sistemas robóticos e IA devem sempre indicar a identidade de seu(s) criador(es), controlador(es) e proprietário(s);

- Foco em complementaridade entre humanos e robôs.


O segundo tema tratado foi o texto What should we reasonably expect from artificial intelligence? (O que devemos esperar minimamente da inteligência artificial?) do professor Leonardo Parentoni, que discorre muito bem ao dizer que a IA não é um conceito único e monolítico. Abrange ampla variedade de aplicações específicas do setor com diferentes finalidades, precisão e riscos. Existindo diferentes tipos de IA, a incorporada, que temos como exemplo um robô humanoide ou androide e robôs sociais. Já a IA incorpórea que são os robôs sociais.


Professor Parentoni define três níveis de interferência no processo humano de tomada de decisão, sendo eles:


- Sistemas auxiliares de automação de tarefas, que são IAs programadas exatamente para que façam uma certa sequência de comandos determinados pelo ser humano, como por exemplo os robôs de RPA.


- Sistemas consultivos, que são IAs programadas para auxiliar/apoiar a decisão do ser humano, como por exemplo ajudar em um diagnóstico de uma doença.


- Plena tomada de decisão, que são IAs completamente autônomas, como por exemplo carros autônomos.


Também foi discutido como definir a precisão aceitável de um sistema de IA, em cada contexto? Novamente professor Parentoni nos leva a refletir sobre dois níveis. Vejamos:


1. O nível de interferência da IA no processo humano de tomada de decisão

Quanto maior o nível de interferência da IA no processo humano de tomada de decisão, maior tende a ser a necessidade de garantir que a precisão do sistema supere os padrões humanos.


2. Os riscos inerentes à atividade a ser automatizada

Quanto maiores os riscos inerentes à atividade a ser automatizada, menor tende a ser a precisão aceitável do sistema.

Precisão/eficácia – foco excessivo


Sobre a transparência e explicabilidade, é necessário mencionar o conceito de “caixa preta” e o trade-off:


Caixa preta: Seria a dificuldade e não a impossibilidade em entender o motivo exato pelo qual a IA gerou uma determinada saída, o que gera grande preocupação e pode ser prejudicial aos usuários, por exemplo, aumentar a discriminação.

Trade-off: analisando as alternativas para explicar essa “caixa preta” vários autores apontam para um trade-off entre precisão e transparência, sendo considerada, muitas vezes, como uma desculpa para justificar sistemas pouco transparentes.


O Professor José Faleiros nos fez refletir um pouco mais sobre a transparência e a explicabilidade, que o grupo completou informando que muitas vezes é difícil sim explicar como a IA chega a uma resposta, como por exemplo o Chat GPT que hoje ao responder uma simples pergunta pode chegar a ter mais de 120 milhões de parâmetros/variáveis em 2018, já o Chat GPT-3 lançado em 2020 utiliza 175 bilhões de parâmetros/variáveis par chegar a uma resposta. Como explicar todas essas combinações, como e porque a IA respondeu com essa quantidade de parâmetros, sem contar que as IAs não informam as fontes de seu aprendizado.


O Professor Parentoni também nos leva a pensar que todos os modelos de IA estão errados, mas alguns são úteis, o que nos fez refletir quais são os limites para decidir se um sistema de IA deve estar sujeito a humanos no loop?


- O nível médio de risco de um sistema de IA

- Se uma falha no IA tende a comprometer valores fundamentais ou não;

- Se a decisão do sistema é reversível ou irreversível (ou pelo menos difícil de reverter);

- Se a definição de “certo” ou “errado” pode ser codificada matematicamente ou se é intrinsecamente subjetiva (como nos julgamentos morais);

- Os impactos sociais e econômicos de uma falha.


Por fim, no terceiro texto Binary Classification: An Introductory Machine Learning Tutorial for Social Scientists (Classificação binária: uma introdução ao aprendizado de máquina para cientistas sociais) do professor Leonardo Carrico, o grupo pode ver um breve tutorial sobre aprendizado de máquina para cientistas sociais. No texto o professor descreve o passo a passo de um possível modelo de aprendizado de máquina, uma vez que cientistas sociais acabam muitas vezes não aprofundando no tema fazendo com que a classificação seja mais interessante e não tão distante dos cientistas sociais.


Foi apresentado o vídeo “Plataforma Qlik Toccato”, disponível na plataforma Youtube, explicando de forma visual como se dá o processo de coleta de dados, transformação e visualização dos dados processados.


Por fim foi também apresentado um artigo do autor Lucas de Sá, que descreve bem passo a passo, incluído código fonte na linguagem python do modelo K-Means, que realiza o agrupamento de hinos nacionais com aprendizado não supervisionado, de forma que todos pudessem ver que é mais fácil e mais próximo dos cientistas sociais que se imagina. O autor Lucas conta de onde surgiu a ideia e quais passos foram divido o processo:


1 - Pré-processamento do Conjunto de Dados

2 - Extração de Features com TF-IDF

2 - Aplicação do K-Means e Análise dos Agrupamentos

3 - Visualização dos Grupos em um Mapa com a biblioteca Folium


2. Considerações Finais


Os textos levantaram o debate entre os integrantes da reunião sobre: 1) As Leis da Robótica 2) Qual a diferença entre a transparência e explicabilidade? 3) Cientistas sociais também podem desenvolver modelos de IA?



Bibliografia Base


PASQUALE, Frank. New Laws of Robotics. Capítulo 1.

PARENTONI, Leonardo. What should we reasonably expect from artificial intelligence?

CARRICO, Leonardo. Binary Classification. Texto inteiro.


Bibliografia Complementar


, Lucas de. Text Clustering with K-Means. Medium.com, 2019. Disponível em: https://medium.com/@lucasdesa/text-clustering-with-k-means-a039d84a941b.

Make Sense, Canal @MakeSenseBR. Plataforma Qlik Toccato. Youtube, 24 de abril de 2023. Disponível em: https://youtu.be/Oecd9_0aONk

Equipe DTA, Guia de Introdução aos Modelos GPT. Data Science Academy, 2023. Disponível em: https://blog.dsacademy.com.br/guia-de-introducao-aos-modelos-gpt/





Posts recentes

Ver tudo

Comments


bottom of page