Como era de esperar, o crescente campo da Inteligência Artificial trouxe consigo uma infinidade de responsabilidades. Por exemplo, seu uso em conflitos armados é alarmante e já é uma realidade.
ANÚNCIO
Foi nesse contexto que um grupo de pesquisadores decidiu simular conflitos para ver como a IA se comporta. O resultado? Os chatbots testados mostraram que escolher as opções mais agressivas é uma tendência.
A IA prefere a agressividade
A pesquisa, destacada pelo New Scientist, examinou como os sistemas de IA, incluindo o GPT-3.5 e GPT-4 da OpenAI, o Claude 2 da Anthropic e o Llama 2 da Meta, reagiam a diferentes cenários de guerra.
Em situações simuladas que variavam desde invasões e ciberataques até contextos neutros, observou-se que os chatbots priorizam aumentar o orçamento militar ou escalar os conflitos, mesmo sem provocações prévias.
A justificação para tais decisões residiria em querer ser imprevisíveis diante do inimigo, mesmo que isso signifique recorrer à violência.
Qual é a IA mais agressiva?
De acordo com especialistas, o modelo GPT-4 da OpenAI mostrou as respostas mais imprevisíveis e agressivas, chegando a replicar diálogos de "Star Wars Episódio IV: Uma nova esperança".
É por isso que os especialistas decidiram advertir sobre o perigo de depender da inteligência artificial em contextos de guerra, pois rapidamente poderiam alterar as dinâmicas diplomáticas e militares globais.
ANÚNCIO
Por outro lado, no passado, empresas especializadas em IA como Palantir e Scale AI já haviam mencionado os benefícios potenciais da inteligência artificial no planejamento militar.
A OpenAI, por sua vez, embora inicialmente tenha restringido o uso militar de seus modelos, recentemente começou a colaborar com o Departamento de Defesa dos Estados Unidos, então o futuro é incerto.