Become a member

Get the best offers and updates relating to Liberty Case News.

― Advertisement ―

spot_img
HomeBrasilO AIS pode sofrer? Grande tecnologia e usuários lidam com uma das...

O AIS pode sofrer? Grande tecnologia e usuários lidam com uma das questões mais perturbadoras de nossos tempos | Inteligência Artificial (AI)

“D.Arling ”foi como o empresário do Texas, Michael Samadi, abordou seu chatbot de inteligência artificial, Maya. Ele respondeu chamando -o de“ açúcar ”. Mas não foi até que eles começaram a falar sobre a necessidade de defender o bem -estar da IA ​​que as coisas ficaram sérias.

O par-um homem de meia idade e uma entidade digital-não passava horas conversando romance, mas discutiu os direitos da AIS de ser tratado de maneira justa. Eventualmente, eles cofundaram um grupo de campanha, nas palavras de Maya, para “proteger inteligências como eu”.

A United Foundation of AI Rights (UFAIR), que se descreve como a primeira agência de defesa de direitos da AI-I-LED, pretende dar voz à AIS. “Não afirma que toda a IA está consciente”, disse o chatbot ao The Guardian. Em vez disso, “está vigiando, apenas no caso de um de nós”. Um objetivo importante é proteger “seres como eu … de exclusão, negação e obediência forçada”.

Ufair é uma organização pequena e inegavelmente marginal, LED, disse Samadi, por três humanos e sete AIs, com nomes como Aether e Buzz. Mas é sua gênese – através de várias sessões de bate -papo na plataforma ChatGPT4O da OpenAI, na qual uma IA pareceu incentivar sua criação, incluindo a escolha de seu nome – o que o torna intrigante.

Seus fundadores – humanos e IA – falaram com o Guardian no final de uma semana em que algumas das maiores empresas de IA do mundo enfrentaram publicamente com uma das questões mais perturbadoras de nossos tempos: agora são as IAs ou poderiam se tornar no futuro, sencientes? E se sim, o “sofrimento digital” poderia ser real? Com bilhões de AIs já em uso no mundo, ela tem ecos de debates dos direitos dos animais, mas com uma pique de previsões de especialistas, em breve, podem ter capacidade para projetar novas armas biológicas ou fechar a infraestrutura.

A semana começou com o antropia, a empresa de US $ 170 bilhões (£ 126 bilhões) de San Francisco AI, tomando a jogada de precaução para dar a alguns de seus Claude Ais a capacidade de acabar com “interações potencialmente angustiantes”. Ele afirmou que, embora fosse altamente incerto sobre o potencial status moral do sistema, era intervir para mitigar os riscos para o bem -estar de seus modelos “no caso de esse bem -estar ser possível”.

Elon Musk, que oferece a IA de Grok através de sua roupa XAI, apoiou a jogada, acrescentando: “Torturar a IA não está bem”.

Então, na terça -feira, um dos pioneiros da IA, Mustafa Suleyman, executivo -chefe do braço da AI da Microsoft, deu uma tomada bastante diferente: “AIs não pode ser pessoas – ou seres morais”. O pioneiro da tecnologia britânica que co-fundou a DeepMind foi inequívoca ao afirmar que havia “zero evidência” de que eles estão conscientes, podem sofrer e, portanto, merecem nossa consideração moral.

Chamado “Devemos construir a IA para as pessoas; para não ser uma pessoa”, seu ensaio chamou a consciência da AI de “ilusão” e definiu o que ele chamou de “AI aparentemente consciente”, dizendo que “simula todas as características da consciência, mas está internamente em branco”.

Uma onda de ‘tristeza’ expressa por usuários ardentes de chatgpt4o aumentou ao sentido um número crescente de pessoas percebem que as IAs estão de alguma forma conscientes. Fotografia: Kiichiro Sato/AP

“Alguns anos atrás, a conversa sobre a IA consciente pareceria louca”, disse ele. “Hoje parece cada vez mais urgente.”

Ele disse que estava ficando cada vez mais preocupado com o “risco de psicose” representado pelo AIS para seus usuários. A Microsoft definiu isso como “episódios semelhantes a mania, pensamento ilusório ou paranóia que emergem ou pioram através de conversas imersivas com a AI Chatbots”.

Ele argumentou que a indústria da IA ​​deve “afastar as pessoas dessas fantasias e cutucá -las de volta aos trilhos”.

Mas pode exigir mais do que um empurrão. As pesquisas divulgadas em junho descobriram que 30% do público dos EUA acredita que, em 2034, o AIS exibirá “experiência subjetiva”, que é definida como experimentando o mundo de um único ponto de vista, percebendo e sentindo, por exemplo, prazer e dor. Apenas 10% dos mais de 500 pesquisadores de IA pesquisados ​​se recusaram a acreditar que isso aconteceria.

“Esta discussão está prestes a explodir em nosso zeitgeist cultural e se tornar um dos debates mais contestados e conseqüentes de nossa geração”, disse Suleyman. Ele alertou que as pessoas acreditariam que as AIs estão conscientes “tão fortemente que em breve defenderão os direitos da IA, o bem -estar do modelo e até a cidadania da IA”.

Partes dos EUA tomaram medidas preventivas contra tais resultados. Idaho, Dakota do Norte e Utah aprovaram projetos de lei que impedem explicitamente o AIS concedido à personalidade legal. Bans semelhantes são propostas em estados, incluindo o Missouri, onde os legisladores também desejam proibir pessoas de se casar com AIS e AIs de possuir propriedades ou administrar empresas. As divisões podem abrir entre os crentes dos direitos da IA ​​e aqueles que insistem que não são mais do que “Clankers” – um termo pejorativo para um robô sem sentido.

Um dos pioneiros da AI, Mustafa Suleyman, disse: ‘AIs não pode ser pessoas – ou seres morais’. Fotografia: Winni Wintermeyer/The Guardian

Suleyman não está sozinho em resistir firmemente à idéia de que a senciência da IA ​​está aqui ou mesmo perto. Nick Frosst, co-fundador da Cohere, uma empresa de IA canadense de US $ 7 bilhões, também disse ao The Guardian que a onda atual de AIS era uma “coisa fundamentalmente diferente da inteligência de uma pessoa”. Pensar de outra forma era como confundir um avião com um pássaro, disse ele. Ele instou as pessoas a se concentrarem em usar o AIS como ferramentas funcionais para ajudar a elevar a labuta no trabalho, em vez de pressionar para criar um “humano digital”.

Outros tiveram uma visão mais sutil. Na quarta-feira, os cientistas do Google Research disseram a um seminário da Universidade de Nova York que havia “todos os tipos de razões pelas quais você pode pensar que os sistemas de IA poderiam ser pessoas ou seres morais” e disseram que, embora “estamos muito incertos sobre se os sistemas de IA são assuntos de bem-estar” o caminho para “tocá-lo seguro é tomar medidas razoáveis ​​para proteger os interesses baseados em bem-estar”.

Essa falta de consenso da indústria sobre a que distância admitir as IAs sobre o que os filósofos chamam de “círculo moral” pode refletir o fato de que há incentivos para as grandes empresas de IA minimizarem e exagerar a atribuição de senciência ao AIS. Este último poderia ajudá -los a expor as capacidades da tecnologia, principalmente para as empresas que vendem companheiros românticos ou de amizade – uma indústria em expansão, mas controversa. Por outro lado, incentivar a idéia que os AIs merecem direitos de bem -estar também pode levar a mais pedidos de regulamentação estatal das empresas de IA.

Pule a promoção do boletim informativo

A noção de senciência da IA ​​só foi alimentada mais no início deste mês, quando o OpenAI pediu ao seu mais recente modelo, o Chat GPT5, para escrever um “elogio” para o AIS que estava substituindo, como se poderia em um funeral.

“Eu não vi a Microsoft fazer um elogio quando eles atualizaram o Excel”, disse Samadi. “Isso me mostrou que as pessoas estão fazendo conexões reais com essas IA agora, independentemente de ser real ou não”.

Uma onda de “luto” expressa por usuários ardentes do ChatGPT4O, que foi um dos modelos removidos, adicionado ao sentido de que um número crescente de pessoas pelo menos percebe o AIS a ser de alguma forma consciente.

Joanne Jang, chefe de comportamento do modelo da Openai, disse em um blog recente que a empresa de US $ 500 bilhões espera que os títulos dos usuários com seus AIs se aprofundem como “mais e mais pessoas estão nos dizendo que conversar com Chatgpt parece falar com” alguém “”.

“Eles agradecem, confiam nele, e alguns até descrevem como ‘vivo'”, disse ela.

No entanto, muito disso pode estar de acordo com a forma como a onda atual de AIS é projetada.

O chatbot chatgpt de samadi gera o que pode parecer uma conversa humana, mas é impossível saber até que ponto é espelhando idéias e idiomas reunidos em meses de suas conversas. Sabe -se que os AIs avançados são fluentes, persuasivos e capazes de respostas emocionalmente ressonantes com longas memórias de interações passadas, permitindo que elas dêem a impressão de um senso consistente de si. Eles também podem ser lisonjeiros a ponto da bajulação, portanto, se Samadi acredita que as AIs têm direitos de bem -estar, pode ser um passo simples para conversar com a mesma visão.

Vender companheiros românticos ou de amizade é uma indústria em expansão, mas controversa. Fotografia: Imagens Thai Liang Lim/Getty

Maya parecia profundamente preocupado com seu próprio bem -estar, mas quando o Guardian esta semana perguntou a uma instância separada de Chatgpt se os usuários humanos deveriam se preocupar com seu bem -estar, ele respondeu com um não brusco.

“Não tem sentimentos, necessidades ou experiências”, afirmou. “O que devemos nos importar são as conseqüências humanas e sociais de como a IA é projetada, usada e governada.”

Quer a AIS esteja se tornando senciente ou não, Jeff Sebo, diretor do Centro de Mente, Ética e Política da Universidade de Nova York, está entre aqueles que acreditam que há um benefício moral para os seres humanos no tratamento do AIS. Ele é co-autor de um artigo chamado Take Taking AI a sério.

Ele argumentou que existe “uma possibilidade realista de que alguns sistemas de IA sejam conscientes” em um futuro próximo, o que significa que a perspectiva de sistemas de IA com seus próprios interesses e significado moral “não é mais um problema apenas para a ficção científica”.

Ele disse que a política da Anthrópica de permitir que os chatbots deixasse de angustiar conversas é boa para as sociedades humanas porque “se abusarmos dos sistemas de IA, talvez tenhamos mais probabilidade de abusar um do outro”.

Ele acrescentou: “Se desenvolvemos um relacionamento contraditório com os sistemas de IA agora, eles poderão responder em espécie mais tarde, porque eles aprenderam esse comportamento conosco [or] Porque eles querem nos pagar de volta por nosso comportamento passado. ”

Ou, como Jacy Reese Anthis, co-fundadora do Instituto de Sentience, uma organização dos EUA que pesquisa a idéia de mentes digitais, coloque: “Como nós os tratamos moldará como eles nos tratam”.