
Arseny Togulev / Unsplash
Um novo estudo, de cientistas da Universidade de Oxford e da Google DeepMind, sugere que com a sua evolução, a Perceptibilidade Sintético pode destruir a humanidade.
Na ficção, em alguns casos, os robôs tornam-se nossos amigos, noutros tornam-se o nosso pior inimigo. Se por um lado temos o amigável WALL-E da Disney, por outro temos o cenário retratado em Westworld. Nesta série, eventualmente os robôs submissos insurgem-se contra os humanos.
Mas será que um cenário semelhante a levante pode um dia tornar-se uma verdade nas nossas vidas?
Um novo cláusula científico da autoria de investigadores da Universidade de Oxford e da DeepMind, subsidiária de Perceptibilidade Sintético (IA) da Google, argumenta que sim.
O estudo, recentemente publicado na revista AI Magazine, sugere que a Perceptibilidade Sintético pode simbolizar um risco existencial para a humanidade.
Tudo tem a ver com as Redes Adversárias Generativas (ou RAGs) usadas no desenvolvimento da IA. As RAGs são dois sistemas de IA que aprendem competindo entre si. São treinadas para gerar texto e realizar tarefas mais rapidamente do que um único sistema.
Esses sistemas funcionam dentro de dois critérios: uma segmento tenta gerar uma imagem dos dados de ingressão enquanto a outra segmento classifica o seu desempenho, descreve a Interesting Engineering.
Os investigadores especulam no seu cláusula que uma IA avançada poderia conceber uma estratégia de batota para obter a sua recompensa de forma mais eficiente, enquanto essencialmente prejudica a humanidade.
“Num mundo com recursos infinitos, eu ficaria extremamente incerto sobre o que aconteceria. Num mundo com recursos finitos, há uma competição inevitável por esses recursos”, disse o coautor Michael K. Cohen, da Universidade de Oxford, em entrevista ao Motherboard.
“E se estás numa competição com um tanto capaz de te superar a cada passo, portanto não deves esperar vencer. E a outra segmento fundamental é que teria um palato insaciável por mais pujança para continuar a levar a verosimilhança cada vez mais perto”.
Isso significa que, se uma IA estivesse encarregada, por exemplo, de cultivar a nossa comida, poderia querer encontrar uma maneira de evitar isso e receber uma recompensa.
Assim, Cohen argumenta que não deveríamos procurar gerar uma IA tão avançada, a menos que tenhamos um meio guardado de a controlar.
“Em teoria, não faz sentido passar para isso. Qualquer corrida seria baseada num mal-entendido de que sabemos uma vez que controlá-la”, acrescentou Cohen. “Oferecido o nosso entendimento atual, isso não é uma coisa útil para desenvolver, a menos que façamos qualquer trabalho sério agora para deslindar uma vez que as controlaríamos”.
Daniel Costa, ZAP //
Seja um visitante de carteirinha, assine nossa newsletter e receba conteúdos exclusivos