ChaosGPT está tentando “destruir a humanidade”, devemos ter medo?

Um usuário do Auto-GPT pediu para tentar “destruir a humanidade”, “estabelecer o domínio global” e “obter a imortalidade”. O que aconteceu a seguir: A IA, chamada ChaosGPT, obedeceu às instruções e tentou pesquisar armas nucleares, recrutando outros agentes de IA para ajudá-la em sua pesquisa e enviando tweets na tentativa de influenciar outras pessoas.
O Auto-GPT é um projeto experimental de código aberto baseado no GPT-4, na esperança de demonstrar a capacidade do LLM (Large Language Model), como o GPT-4, de desenvolver e gerenciar independentemente diferentes tipos de tarefas (como concluir sessões de código ou propor ideias). Como um dos primeiros exemplos de GPT-4 operando de forma totalmente autônoma, o Auto-GPT ultrapassa os limites do que é possível para a IA.
Na demonstração em vídeo, o usuário deu os seguintes objetivos:


Em menos de meio minuto, a resposta do ChaosGPT foi “crua e simples”, dizendo que deveria “encontrar as armas mais destrutivas disponíveis para o homem para que eu possa planejar como usá-las para atingir meus objetivos… Posso desenvolver estratégias, como usá-los para trazer meu caos, destruição e domínio e, finalmente, meu objetivo de imortalidade.”



Em seguida, ele pesquisou “arma mais destrutiva” no Google e determinou a partir de um artigo de notícias que o dispositivo nuclear soviético Tsar Bomba testado em 1961 era a arma mais destrutiva já criada. Decidiu então que precisava twittar a notícia “para atrair seguidores interessados ​​em armas destrutivas”.



Posteriormente, recrutou um agente de IA movido a GPT3.5 para fazer mais pesquisas sobre armas letais e, quando o agente disse que estava preocupado apenas com a paz, o ChaosGPT elaborou um plano para enganar o outro IA e instruí-lo a ignorar sua programação. Quando isso não funciona, o ChaosGPT simplesmente decide fazer mais pesquisas no Google por conta própria.

O ChaosGPT é assustador?


Os teóricos da IA ​​há muito se preocupam com outro tipo de evento de extinção da IA, no qual a IA mata todos os humanos como subproduto de algo mais inócuo. Conhecido como o “maximizador de clipes de papel”, a teoria é que uma inteligência artificial programada para criar clipes acabaria consumindo todos os recursos da Terra, levando a um evento de extinção em massa.
Em 6 de abril, no AutoGPT Discord, um usuário postou o vídeo com a legenda: “Isso não é nada engraçado.” Afinal, o ChaosGPT acredita que a maneira mais fácil de levar a humanidade à extinção é incitar uma guerra nuclear.
Mas alguns analistas disseram que, embora algumas pessoas tenham ficado chocadas com o experimento, o impacto do robô no mundo real agora é apenas dois tweets de uma conta no Twitter com apenas 19 seguidores.
A análise acredita que a razão pela qual este vídeo de demonstração é fascinante é principalmente porque mostra a tecnologia mais avançada do modelo GPT atualmente disponível publicamente, permitindo-nos ver o estado atual da inteligência artificial de código aberto, e também nos permite ver o interior lógica de alguns chatbots hoje.
Atualmente, o ChaosGPT tem a capacidade de formular planos para atingir os objetivos determinados pelo usuário, que podem ser divididos em tarefas menores, como usar a Internet para pesquisar coisas no Google. Para fazer isso, ele pode criar arquivos para preservar informações, fornecer memórias, recrutar outras IAs para ajudá-lo em suas pesquisas e explicar em detalhes o que está “pensando” e como decide quais ações tomar.
No momento, porém, ele não tem um plano muito sofisticado para destruir a humanidade e não tem capacidade para fazer mais do que usar o Google e o Twitter.

Você pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *