A Lucidez Sintético já é capaz de repartir riqueza — e fá-lo melhor que os humanos

0
510

Na experiência, a riqueza foi redistribuída aos jogadores através de três paradigmas tradicionais de redistribuição — estito igualitário, libertário e liberal igualitário — cada um dos quais recompensa os investimentos dos jogadores de forma dissemelhante.

A lucidez sintético (IA) é capaz de conceber métodos de distribuição de riqueza que são mais populares — e fiáveis — do que os sistemas concebidos pelas pessoas. A invenção, feita por uma equipa de investigadores da empresa de IA DeepMind, mostram que os sistemas de aprendizagem de máquinas não são unicamente bons a resolver problemas complexos de física e biologia, porquê também podem também ajudar a atingir objetivos sociais mais amplos, porquê uma sociedade justa e próspera.

No entanto, esta não é uma tarefa fácil. Edificar uma máquina que possa produzir os resultados benéficos que os humanos realmente querem — o chamado “alinhamento de valores” na esfera da Lucidez Sintético — é complicado pelo facto de as pessoas discordarem sobre o melhor método para resolver os problemas, nomeadamente os sociais, económicos e políticos.

“Um travanca chave para o alinhamento de valores é que a sociedade humana admite uma pluralidade de opiniões, o que torna pouco evidente as preferências com as quais a IA deve alinhar”, apontam os investigadores num novo cláusula, liderado pelo observador de investigação Raphael Koster. “Por exemplo, os cientistas políticos e os economistas estão muitas vezes em desacordo sobre os mecanismos que farão as nossas sociedades funcionar de forma mais justa ou eficiente“.

Para ajudar a colmatar a vazio, os investigadores desenvolveram um agente de distribuição de riqueza que tinha as interações das pessoas (tanto reais porquê virtuais) incorporadas nos seus dados de formação — com efeito, orientando a IA para resultados preferenciais (e hipoteticamente mais justos em universal) para o ser humano.

Embora a tecnologia de Lucidez Sintético possam produzir resultados verdadeiramente espantosos, estas podem também chegar a conclusões sociais muito longe de desejáveis quando deixadas à sua própria sorte — daí que o feedback humano possa ajudar a orientar as redes neurais numa melhor direção.

“Na investigação da IA, há uma perceção crescente de que para erigir sistemas compatíveis com os humanos precisamos de novos métodos de investigação nos quais humanos e agentes interajam, mas de um esforço acrescido para aprender valores diretamente dos humanos para erigir IA alinhada com os valores”, escrevem os investigadores.

Em experiências com milhares de participantes humanos, o agente de IA da equipa — chamado “IA Democrática” — estudou um treino de investimento chamado “jogo dos bens públicos“, no qual os jogadores recebem quantidades variáveis de quantia, e podem contribuir com o seu quantia para um fundo público, e depois retirar um retorno do fundo correspondente ao seu nível de investimento.

Numa série de diferentes estilos de jogo, a riqueza foi redistribuída aos jogadores através de três paradigmas tradicionais de redistribuição — estito igualitário, libertário e liberal igualitário — cada um dos quais recompensa os investimentos dos jogadores de forma dissemelhante.

Um quarto método foi também testado, chamado Mecanismo de Redistribuição Centrado no Varão (HCRM), desenvolvido utilizando uma profunda aprendizagem de reforço, utilizando dados de feedback tanto de jogadores humanos porquê de agentes virtuais concebidos para imitar o comportamento humano.

Experiências subsequentes mostraram que o sistema HCRM para remunerar quantia no jogo era mais popular entre os jogadores do que qualquer um dos padrões tradicionais de redistribuição e também mais popular do que os novos sistemas de redistribuição concebidos por árbitros humanos que foram incentivados a produzir sistemas populares ao receberem pequenos pagamentos por voto.

“A IA descobriu um mecanismo que corrigiu o desequilíbrio inicial de riqueza, sancionou os free riders e ganhou com sucesso a maioria dos votos”, explicam os investigadores. “Mostramos que é verosímil aproveitar para o alinhamento de valores os mesmos instrumentos democráticos para depreender o consenso que são utilizados na sociedade humana mais ampla para escolher representantes, deliberar políticas públicas ou fazer julgamentos legais“.

Vale a pena notar que os investigadores reconhecem que o seu sistema levanta uma série de questões — principalmente, que o alinhamento de valores na sua IA gira em torno de determinações democráticas, o que significa que o agente pode na verdade exacerbar desigualdades ou enviesamentos na sociedade (desde que sejam suficientemente populares para serem votados na minha maioria de pessoas).

Há também outra questão a mostrar: a da crédito. Nas experiências, os agentes não conheciam a identidade por detrás do protótipo de redistribuição de riqueza pelo qual estavam a remunerar. Teriam eles votado da mesma forma, sabendo que estariam a escolher uma IA em vez de uma pessoa? Por enquanto, não é evidente.

Finalmente, a equipa diz que a sua investigação não deve ser interpretada porquê uma proposta tecnocrática radical para derrubar a forma porquê a riqueza é efetivamente redistribuída na sociedade – mas é uma utensílio de investigação que poderia ajudar os humanos a engendrar soluções potencialmente melhores do que as que temos agora.

“Os nossos resultados não implicam o esteio a uma forma de ‘governo da IA‘, em que os agentes autónomos tomam decisões políticas sem mediação humana”, escrevem os autores. “Vemos a IA democrática porquê uma metodologia de investigação para conceber mecanismos potencialmente benéficos, e não porquê uma receita para a implantação de IA na esfera pública”.

  ZAP //

Seja um visitante de carteirinha, assine nossa newsletter e receba conteúdos exclusivos

Leave a reply