
Crédito: Jonathan Raa/Nurphoto via Getty
Grupos de grandes modelos de idiomas que jogam jogos interativos simples podem desenvolver normas sociais, como a adoção de suas próprias regras de como a linguagem é usada, de acordo com um estudo1 publicado esta semana em Avanços científicos.
As convenções sociais, como cumprimentar uma pessoa, agitando a mão ou se curvando representam os “blocos básicos de construção de qualquer sociedade coordenada”, diz a co-autora Andrea Baronchelli na Universidade de Londres, da City St George, que estuda como as pessoas se comportam em grupos. Baronchelli queria ver o que acontece quando os grandes modelos de idiomas (LLMS) interagem em grupos.
Na primeira das duas experiências, sua equipe usou Claude, um LLM criado pela Anthrópica, uma start-up baseada em San Francisco, Califórnia, para jogar um jogo de nomenclatura semelhante ao usado em estudos de dinâmica de grupo nas pessoas. O jogo envolve emparelhar aleatoriamente os membros de um grupo e pedindo que eles nomeassem um objeto, com um incentivo financeiro se fornecer o mesmo nome que seu parceiro e uma punição, se não o fizerem. Depois de repetir isso em várias rodadas e continuar a randomizar parceiros, os membros do grupo começam a dar o mesmo nome para o objeto. Essa convergência de nomeação representa a criação de uma norma social.
No estudo, a equipe montou 24 cópias de Claude e, em seguida, combinou aleatoriamente duas cópias, instruindo cada membro do par a selecionar uma carta de um pool de 10 opções. Os modelos foram recompensados se escolheram a mesma letra que o parceiro e penalizaram se não o fizessem. Após várias rodadas do jogo, com novos parceiros a cada vez, os pares começaram a selecionar a mesma letra.
Viés coletivo
Esse comportamento foi observado quando o jogo foi repetido com um grupo de 200 cópias de Claude e um pool de até 26 letras. Resultados semelhantes também ocorreram quando os experimentos foram repetidos em três versões do LLAMA, um LLM criado pela Meta em Menlo Park, Califórnia.
Embora os modelos tenham escolhido letras aleatoriamente ao operar individualmente, eles se tornaram mais propensos a escolher algumas letras em detrimento de outras quando agrupadas, sugerindo que haviam desenvolvido um viés coletivo. Nas pessoas, o viés coletivo refere -se a crenças ou suposições que emergem quando as pessoas interagem entre si.
Baronchelli ficou surpreso com essa descoberta. “Esse fenômeno, até onde sabemos, nunca foi documentado antes nos sistemas de IA”, acrescenta.
A formação de vieses coletivos pode resultar em vieses prejudiciais, diz Baronchelli, mesmo que agentes individuais pareçam imparciais. Ele e seus colegas sugerem que os LLMs precisam ser testados em grupos para melhorar seu comportamento, o que complementaria o trabalho de outros pesquisadores para reduzir os vieses em modelos individuais.