“Acredito que a maioria das pessoas e instituições está totalmente despreparada para os sistemas de IA que existem hoje, muito menos os mais poderosos”, escreveu New York Times O colunista de tecnologia Kevin Roose em março, “e que não existe um plano realista em nenhum nível de governo para mitigar os riscos ou capturar os benefícios desses sistemas”.
Ele está certo. É por isso que recentemente entrei uma ação federal contra o Openai, buscando uma ordem de restrição temporária para impedir que a empresa implante seus produtos, como o ChatGPT, no estado do Havaí, onde moro, até que possa demonstrar as medidas legítimas de segurança que a empresa se chamou de seu “grande modelo de linguagem de linguagem”.
Estamos em um momento crucial. Líderes no desenvolvimento da IA – incluindo o CEO da OpenAI, Sam Altman – reconheceu os riscos existenciais representados por sistemas de IA cada vez mais capazes. Em junho de 2015, Altman afirmou: “Acho que a IA provavelmente, provavelmente, meio que levará ao fim do mundo, mas, enquanto isso, haverá grandes empresas criadas com um aprendizado de máquina sério”. Sim, ele provavelmente estava brincando – mas não é uma piada.
Sobre apoiar o jornalismo científico
Se você está gostando deste artigo, considere apoiar nosso jornalismo premiado por assinando. Ao comprar uma assinatura, você está ajudando a garantir o futuro das histórias impactantes sobre as descobertas e idéias que moldam nosso mundo hoje.
Oito anos depois, em maio de 2023, mais de 1.000 líderes de tecnologia, incluindo o próprio Altman, assinaram uma carta aberta comparando os riscos de outras ameaças existenciais, como mudanças climáticas e pandemias. “Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz a carta, divulgada pelo Centro de Segurança da IA, uma organização sem fins lucrativos da Califórnia, na sua totalidade.
Estou no fim da minha corda. Nos últimos dois anos, tentei trabalhar com legisladores estaduais para desenvolver estruturas regulatórias para inteligência artificial no Havaí. Esses esforços procuraram criar um escritório de segurança de IA e implementar o princípio de precaução no regulamento da IA, o que significa tomar medidas antes que o dano real se materialize, porque pode ser tarde demais se esperarmos. Infelizmente, apesar da colaboração com os principais senadores e presidentes do comitê, meus esforços legislativos estaduais morreram cedo após serem introduzidos. Enquanto isso, o governo Trump reverteu quase todos os aspectos do regulamento federal da IA e essencialmente colocou no gelo o esforço internacional do tratado que começou com a Declaração de Bletchley em 2023. Sem nível de governo, existem salvaguardas para o uso de sistemas de IA no Havaí.
Apesar de suas declarações anteriores, o OpenAI abandonou seus principais compromissos de segurança, incluindo a iniciativa de “Superalignment” que prometeu dedicar 20 % dos recursos computacionais à pesquisa de segurança e no final do ano passado, revertendo sua proibição de aplicações militares. Seus pesquisadores críticos de segurança foram embora, incluindo a co-fundadora Ilya Sutskever e Jan Like, que declararam publicamente em maio de 2024: “Nos últimos anos, a cultura e os processos de segurança levaram um banco de trás para produtos brilhantes”. A estrutura de governança da empresa foi fundamentalmente alterada durante uma crise de liderança de novembro de 2023, pois o conselho reconstituído removeu importantes mecanismos de supervisão focados na segurança. Mais recentemente, em abril, o OpenAI eliminou os guardraxes contra informações erradas e desinformação, abrindo as portas para liberar modelos de “alto risco” e “risco crítico”, “possivelmente ajudando a balançar eleições ou a criar campanhas de propaganda altamente eficazes”, de acordo com a revista Fortune.
Em sua primeira resposta, o Openai argumentou que o caso deve ser julgado improcedente porque a regulação da IA é fundamentalmente uma “questão política” que deve ser abordada pelo Congresso e pelo Presidente. Eu, por um lado, não estou confortável em deixar decisões tão importantes para este presidente ou este Congresso – especialmente quando eles não fizeram nada para regular a IA até o momento.
O Havaí enfrenta riscos distintos da implantação não regulamentada da IA. Análises recentes indicam que uma parcela substancial dos empregos de serviços profissionais do Havaí pode enfrentar uma interrupção significativa dentro de cinco a sete anos como conseqüência da IA. Nossa geografia isolada e diversificação econômica limitada tornam a adaptação da força de trabalho particularmente desafiadora.
Nosso conhecimento cultural, práticas e riscos de linguagem exclusivos e deturpação de riscos da linguagem por sistemas de IA treinados sem permissão ou contexto apropriado.
Meu processo federal aplica princípios legais bem estabelecidos a esta nova tecnologia e faz quatro reivindicações importantes:
Reivindicações de responsabilidade do produto: Os sistemas de IA da OpenAI representam produtos projetados defeituosos que não têm desempenho tão seguro quanto os consumidores comuns esperariam, principalmente devido à remoção deliberada da empresa de medidas de segurança que previamente considerou essencial.
Falha em avisar: A OpenAI não forneceu avisos adequados sobre os riscos conhecidos de seus sistemas de IA, incluindo seu potencial para gerar desinformação prejudicial e exibir comportamentos enganosos.
Design negligente: A OpenAI violou seu dever de cuidar, priorizando os interesses comerciais sobre considerações de segurança, como evidenciado por documentos internos e declarações públicas de ex -pesquisadores de segurança.
Incômodo público: A implantação da OpenAI de sistemas de IA cada vez mais capaz sem medidas adequadas de segurança cria uma interferência irracional com os direitos públicos no Havaí.
Os tribunais federais reconheceram a viabilidade de tais reivindicações no tratamento de danos tecnológicos com amplos impactos sociais. Precedentes recentes do Tribunal de Apelações do Nono Circuito (do qual o Havaí faz parte) estabelecem que as empresas de tecnologia podem ser responsabilizadas por defeitos de projeto que criam riscos previsíveis de danos.
Não estou pedindo uma proibição permanente ao OpenAI ou a seus produtos aqui no Havaí, mas, em vez disso, uma pausa até que o OpenAI implemente as medidas de segurança que a própria empresa disse ser necessária, incluindo a restrição de seu compromisso anterior de alocar 20 % dos recursos para pesquisa e pesquisa de segurança; Implementar a estrutura de segurança descrita em sua própria publicação “Planning for AGI and Beyond”, que tenta criar o Guardrails para lidar com a IA como ou mais inteligente que seus criadores humanos; restaurar a supervisão significativa das reformas de governança; criar salvaguardas específicas contra o uso indevido de manipulação de processos democráticos; e desenvolver protocolos para proteger os recursos culturais e naturais únicos do Havaí.
Esses itens simplesmente exigem que a empresa siga os padrões de segurança que endossou publicamente, mas não conseguiu implementar consistentemente.
Enquanto meu processo se concentra no Havaí, as implicações se estendem muito além de nossas costas. O sistema judicial federal fornece um local apropriado para abordar essas questões de comércio interestadual e proteger os interesses locais.
É provável que o desenvolvimento de sistemas de IA cada vez mais capaz seja uma das transformações tecnológicas mais significativas da história da humanidade, muitos especialistas acreditam – talvez em uma liga com incêndio, de acordo com o CEO do Google, Sundar Pichai. “A IA é uma das coisas mais importantes na qual a humanidade está trabalhando. É mais profundo do que eu não sei, eletricidade ou incêndio”, disse Pichai em 2018.
Ele está certo, é claro. As decisões que tomamos hoje moldarão profundamente o mundo que nossos filhos e netos herdam. Acredito que temos uma obrigação moral e legal de prosseguir com cautela apropriada e garantir que tecnologias potencialmente transformadoras sejam desenvolvidas e implantadas com medidas de segurança adequadas.
O que está acontecendo agora com o desenvolvimento e a implantação da IA do Openai para o público é, para ecoar o sucinto resumo do tecnólogo do tecnólogo Tristan Harris em abril de 2025, “Insane”. Meu processo pretende restaurar um pouco de sanidade.
Esta é um artigo de opinião e análise, e as opiniões expressas pelo autor ou autores não são necessariamente as de Scientific American.