Become a member

Get the best offers and updates relating to Liberty Case News.

― Advertisement ―

spot_img
HomeBrasilA IA no nível humano não é inevitável. Temos o poder de...

A IA no nível humano não é inevitável. Temos o poder de mudar de curso | Garrison adorável

Ilustração: Petra Péterffy/The Guardian

“A tecnologia acontece porque é possível”, disse o CEO da Openai, Sam Altman, ao The New York Times em 2019, parafraseando conscientemente Robert Oppenheimer, o pai da bomba atômica.

Altman captura um mantra do Vale do Silício: a tecnologia marcha inexoravelmente.

Outra convicção técnica generalizada é que a primeira IA no nível humano-também conhecida como Inteligência Geral Artificial (AGI)-levará a um dos dois futuros: uma techno-utopia pós-escassez ou a aniquilação da humanidade.

Para inúmeras outras espécies, a chegada de humanos soletrou a destruição. Não fomos mais difíceis, mais rápidos ou fortes – apenas mais inteligentes e melhor coordenados. Em muitos casos, a extinção foi um subproduto acidental de algum outro objetivo que tivemos. Uma verdadeira AGI equivale a criar uma nova espécie, que poderia rapidamente nos superar ou nos superar. Isso poderia ver a humanidade como um obstáculo menor, como um antigo no caminho de uma barragem hidrelétrica planejada ou um recurso para explorar, como os bilhões de animais confinados em fazendas de fábrica.

Altman, juntamente com as cabeças dos outros principais laboratórios de IA, acredita que a extinção orientada pela IA é uma possibilidade real (juntando-se a centenas de pesquisadores de IA líder e figuras proeminentes).

Dado tudo isso, é natural perguntar: devemos realmente tentar construir uma tecnologia que possa matar todos nós se der errado?

Talvez a resposta mais comum diga: AGI é inevitável. É útil demais para não construir. Afinal, a AGI seria a tecnologia definitiva – o que um colega de Alan Turing chamou de “a última invenção que o homem precisa fazer”. Além disso, o raciocínio está dentro dos laboratórios de IA, se não o fizermos, outra pessoa fará isso – com menos responsabilidade, é claro.

Uma nova ideologia fora do Vale do Silício, aceleração eficaz (E/ACC), afirma que a inevitabilidade da AGI é uma conseqüência da segunda lei da termodinâmica e que seu mecanismo é “Technocapital”. O manifesto E/ACC afirma: “Este motor não pode ser interrompido. A catraca do progresso só se volta em uma direção. Voltar à volta não é uma opção”.

Para Altman E E/ACCS, a tecnologia assume uma qualidade mística – a marcha da invenção é tratada como um fato da natureza. Mas não é. A tecnologia é o produto de escolhas humanas deliberadas, motivadas por inúmeras forças poderosas. Temos a agência para moldar essas forças, e a história mostra que já fizemos isso antes.

Nenhuma tecnologia é inevitável, nem mesmo algo tão tentador quanto a AGI.

Alguns preocupantes da IA gostam de apontar o tempo que a humanidade resistiu e restringiu tecnologias valiosas.

Temendo novos riscos, os biólogos proibiram inicialmente e depois regulam com sucesso experimentos sobre DNA recombinante na década de 1970.

Nenhum humano foi reproduzido via clonagem, apesar de ter sido tecnicamente possível há mais de uma década, e o único cientista a projetar geneticamente humanos foi preso por seus esforços.

A energia nuclear pode fornecer energia consistente e livre de carbono, mas os medos vívidos da catástrofe motivaram regulamentos sufocantes e proibições diretas.

E se Altman estivesse mais familiarizado com a história do projeto de Manhattan, ele poderia perceber que a criação de armas nucleares em 1945 era na verdade um resultado altamente contingente e improvável, motivado por uma crença equivocada de que os alemães estavam à frente em uma “raça” para a bomba. Philip Zelikow, o historiador que liderou a comissão do 11 de setembro, disse: “Acho que os Estados Unidos não construíram uma bomba atômica durante a Segunda Guerra Mundial, na verdade não está claro para mim quando ou possivelmente até se Uma bomba atômica é construída. ”

Agora é difícil imaginar um mundo sem armas nucleares. Mas em um episódio pouco conhecido, o presidente Ronald Reagan e o líder soviético Mikhail Gorbachev quase concordaram em abandonar todas as suas bombas (um mal-entendido sobre o sistema de defesa de satélite de “Guerra nas Estrelas” frustrou essas esperanças). Embora o sonho do desarmamento pleno permaneça exatamente isso, a Nuke Counts é inferior a 20% do pico de 1986, graças em grande parte a acordos internacionais.

Essas escolhas não foram feitas no vácuo. Reagan era um firme oponente do desarmamento antes que o movimento de congelamento nuclear de milhões de milhões chegasse até ele. Em 1983, ele comentou seu Secretário de Estado: “Se as coisas ficarem mais quentes e mais quentes e o controle de armas continua sendo um problema, talvez eu deva ir ver [Soviet leader Yuri] Andropov e propõem eliminar todas as armas nucleares. ”

Existem incentivos econômicos extremamente fortes para continuar queimar combustíveis fósseis, mas a defesa do clima abriu a janela do Overton e acelerou significativamente nossos esforços de descarbonização.

Em abril de 2019, o Young Climate Group Extinction Rebellion (XR) interrompeu Londres, exigindo as emissões de carbono líquido-zero alvo do Reino Unido até 2025. Sua controversa desobediência civil levou o Parlamento a declarar uma emergência climática e o Partido Trabalhista a adotar uma meta de 2030 para desarbonizar a produção eletrônica do Reino Unido.

A campanha Beyond Coal do Sierra Club era menos conhecida, mas extremamente eficaz. Nos primeiros cinco anos, a campanha ajudou a fechar mais de um terço das usinas de carvão. Graças principalmente à sua mudança do carvão, as emissões de carbono per capita dos EUA agora são mais baixas do que em 1913.

De muitas maneiras, o desafio de regular os esforços para construir AGI é muito menor que o de descarbonização. Oitenta e dois por cento da produção global de energia vem de combustíveis fósseis. A energia é o que faz com que a civilização funcione, mas não somos dependentes de uma AGI hipotética para fazer o mundo girar.

Além disso, desacelerar e orientar o desenvolvimento de sistemas futuros não significa que precisamos parar de usar sistemas existentes ou desenvolver AIs especializados para enfrentar problemas importantes em medicina, clima e em outros lugares.

É óbvio por que tantos capitalistas são entusiastas da IA: eles prevêem uma tecnologia que possa realizar seu sonho de longa data de cortar os trabalhadores do loop (e o balanço).

Mas os governos não são maximizadores de lucro. Claro, eles se preocupam com o crescimento econômico, mas também se preocupam com coisas como emprego, estabilidade social, concentração de mercado e, ocasionalmente, democracia.

É muito menos claro como a AGI afetaria esses domínios em geral. Os governos não estão preparados para um mundo onde a maioria das pessoas está tecnologicamente desempregada.

Os capitalistas geralmente conseguem o que querem, principalmente nas últimas décadas, e a busca sem limites do lucro pode minar qualquer esforço regulatório para retardar a velocidade do desenvolvimento da IA. Mas os capitalistas não sempre Obtenha o que eles querem.

Em um bar em São Francisco em fevereiro, um pesquisador de segurança do OpeniAI de longa data pronunciou a um grupo que o E/ACCS não deve se preocupar com o pessoal de segurança da IA “extremo”, porque eles nunca terão poder. Os boosters devem realmente ter medo do AOC e do senador Josh Hawley porque eles “podem realmente estragar tudo para você”.

Supondo que os humanos permaneçam por muitos milênios, não há como saber que não acabaremos construindo a AGI. Mas isso não é realmente o que os inevitabilistas estão dizendo. Em vez disso, a mensagem tende a ser: AGI é iminente. A resistência é inútil.

Mas se construímos AGI em cinco, 20 ou 100 anos realmente importa. E a linha do tempo está muito mais sob nosso controle do que os impulsionadores admitirão. No fundo, suspeito que muitos deles percebem isso, e é por isso que gastam tanto esforço tentando convencer os outros que não há sentido em tentar. Além disso, se você acha que AGI é inevitável, por que se preocupar em convencer alguém?

Na verdade, tínhamos o poder de computação necessário para treinar o GPT-2 mais de uma década antes do Openai realmente fazer isso, mas as pessoas não sabiam se valia a pena fazer.

Mas, no momento, os principais laboratórios de IA estão trancados em uma corrida tão feroz que eles não estão implementando todas as precauções que mesmo suas próprias equipes de segurança desejam. (Um funcionário do Openai anunciado Recentemente, ele deixou de “perder a confiança de que isso se comportaria de maneira responsável na época da AGI”.) Há um “imposto sobre segurança” que os laboratórios não podem pagar se esperam permanecer competitivos; O teste diminui a retarda de liberações de produtos e consome recursos da empresa.

Os governos, por outro lado, não estão sujeitos às mesmas pressões financeiras.

Um empreendedor de tecnologia inevitabilista recentemente disse A regulação do desenvolvimento da IA é impossível “a menos que você controla todas as linhas de código escrito”. Isso pode ser verdade se alguém pudesse aumentar uma AGI em seu laptop. Mas acontece que a construção de modelos avançados de IA da IA requer enormes matrizes de supercomputadores, com chips produzidos por uma indústria absurdamente monopolista. Por esse motivo, muitos defensores da segurança da IA veem “Governança de computação” como uma abordagem promissora. Os governos poderiam obrigar os provedores de computação em nuvem a interromper as execuções de treinamento da próxima geração que não cumprem os corrimãos estabelecidos. Longe de travar os iniciantes ou exigir níveis orwellianos de vigilância, os limites poderiam ser escolhidos para afetar apenas jogadores que podem gastar mais de US $ 100 milhões em uma única corrida de treinamento.

Os governos precisam se preocupar com a concorrência internacional e o risco de desarmamento unilateral, por assim dizer. Mas os tratados internacionais podem ser negociados para compartilhar amplamente os benefícios dos sistemas de IA de ponta, garantindo que os laboratórios não estejam escalando cegamente os sistemas que não entendem.

E embora o mundo possa parecer fratioso, as nações rivais cooperaram para surpreender graus.

O protocolo de Montreal fixou a camada de ozônio proibindo os clorofluorocarbonetos. A maior parte do mundo concordou em proibições eticamente motivadas em armas militarmente úteis, como armas biológicas e químicas, armas de laser ofuscantes e “guerra climática”.

Nas décadas de 1960 e 70, muitos analistas temiam que todos os países que pudessem construir armas nucleares. Mas a maioria dos programas nucleares de aproximadamente três dúzias do mundo foi abandonada. Isso não foi o resultado do acaso, mas a criação de uma norma global de não proliferação por meio de statecraft deliberada, como o tratado de não proliferação de 1968.

Nas poucas ocasiões em que os americanos foram perguntados se queriam a IA sobre -humana, as grandes maiorias disseram “não”. A oposição à IA cresceu à medida que a tecnologia se tornou mais prevalente. Quando as pessoas argumentam que a AGI é inevitável, o que realmente está dizendo é que a vontade popular não deve importar. Os boosters veem as massas como neo-luditas provinciais que não sabem o que é bom para elas. É por isso que a inevitabilidade mantém esse fascínio retórico para eles; Ele permite que evite argumentar real, o que eles sabem ser um perdedor no Tribunal de Opinião Pública.

O empate de AGI é forte. Mas os riscos envolvidos são potencialmente o final da civilização. É necessário um esforço em escala de civilização para obrigar os poderes necessários para resistir a ele.

A tecnologia acontece porque as pessoas fazem isso acontecer. Podemos escolher o contrário.