Os pesquisadores da Apple encontraram “limitações fundamentais” em modelos de inteligência artificial de ponta, em uma dúvida sobre a corrida da indústria de tecnologia para desenvolver sistemas cada vez mais poderosos.
A Apple disse em um artigo publicado no fim de semana que os grandes modelos de raciocínio (LRMS) – uma forma avançada de IA – enfrentaram um “colapso de precisão completa” quando apresentados com problemas altamente complexos.
Ele descobriu que os modelos de IA padrão superaram os LRMs em tarefas de baixa complexidade, enquanto ambos os tipos de modelo sofreram “colapso completo” com tarefas de alta complexidade. Grandes modelos de raciocínio tentam resolver consultas complexas, gerando processos de pensamento detalhados que dividem o problema em etapas menores.
O estudo, que testou a capacidade dos modelos de resolver quebra -cabeças, acrescentou que, à medida que o LRMS se aproximou do colapso do desempenho, eles começaram a “reduzir seu esforço de raciocínio”. Os pesquisadores da Apple disseram que encontraram isso “particularmente preocupante”.
Gary Marcus, um acadêmico dos EUA que se tornou uma voz proeminente de cautela com as capacidades dos modelos de IA, descreveu o papel da Apple como “bastante devastador”. Marcus acrescentou que as descobertas levantaram questões sobre a Raça à Inteligência Geral Artificial (AGI), um estágio teórico da IA na qual um sistema é capaz de combinar com um humano na execução de qualquer tarefa intelectual.
Referindo -se aos grandes modelos de linguagem [LLMs] Isso sustenta ferramentas como o chatgpt, Marcus escreveu: “Qualquer um que pense que os LLMs são uma rota direta para o tipo [of] AGI que poderia transformar fundamentalmente a sociedade para o bem está brincando. ”
O artigo também descobriu que os modelos de raciocínio desperdiçavam o poder de computação ao encontrar a solução certa para problemas mais simples no início de seu “pensamento”. No entanto, à medida que os problemas se tornaram um pouco mais complexos, os modelos exploraram as soluções incorretas e chegaram aos corretos mais tarde.
Para problemas de complexidade mais alta, no entanto, os modelos entrariam em “colapso”, não gerando soluções corretas. Em um caso, mesmo quando fornecido com um algoritmo que resolveria o problema, os modelos falharam.
O artigo disse: “Ao abordar um limiar crítico – que corresponde de perto ao seu ponto de colapso da precisão – os modelos começam a reduzir seu esforço de raciocínio, apesar do aumento da dificuldade do problema”.
Os especialistas da Apple disseram que isso indicava uma “limitação fundamental de escala nas capacidades de pensamento dos modelos atuais de raciocínio”.
O artigo definiu os desafios do quebra -cabeça do LRMS, como resolver a torre de Hanói e quebra -cabeças de cruzamento do rio. Os pesquisadores reconheceram que o foco nos quebra -cabeças representava uma limitação em seu trabalho.
Após a promoção do boletim informativo
O artigo concluiu que a abordagem atual da IA pode ter atingido limitações. Ele testou modelos, incluindo O3 O3 do OpenAi, Gemini Thinking, do Google, o Anthropic’s Claude 3,7 Sonnet-Thinking e Deepseek-R1. Antrópico, Google e Deepseek foram contatados para comentar. O Openai, a empresa por trás do ChatGPT, se recusou a comentar.
Referindo -se ao “raciocínio generalizável” – ou a capacidade de um modelo de IA de aplicar uma conclusão estreita de maneira mais ampla – o artigo disse: “Essas idéias desafiam suposições predominantes sobre as capacidades LRM e sugerem que as abordagens atuais podem estar encontrando barreiras fundamentais ao raciocínio generalizável”.
Andrew Rogoyski, do Instituto de IA centrado nas pessoas da Universidade de Surrey, disse que o artigo da Apple sinalizou que a indústria “ainda se sentindo” com o caminho “e que a indústria poderia ter atingido um” beco sem saco “em sua abordagem atual.
“A descoberta de que os modelos de grandes motivos perdem o enredo em problemas complexos, enquanto se apresentam bem em problemas de média e baixa complexidade, implica que estamos em um potencial beco sem saída nas abordagens atuais”, disse ele.