OpenAI reverte o sistema de roteador modelo do ChatGPT para a maioria dos usuários


OpenAI silenciosamente reverteu uma grande mudança na forma como centenas de milhões de pessoas usam Bate-papoGPT.

Em um perfil discreto blog que rastreia alterações no produtoa empresa disse que reverteu o modelo de roteador do ChatGPT – um sistema automatizado que envia perguntas complicadas do usuário para modelos de “raciocínio” mais avançados – para usuários nos níveis Gratuito e Go de US$ 5 por mês. Em vez disso, esses usuários agora usarão como padrão o GPT-5.2 Instant, a versão mais rápida e barata de servir do OpenAI’s nova série de modelos. Os usuários do Free and Go ainda poderão acessar os modelos de raciocínio, mas terão que selecioná-los manualmente.

O modelo de roteador foi lançado há apenas quatro meses como parte do esforço da OpenAI para unificar a experiência do usuário com o estreia do GPT-5. O recurso analisa as perguntas do usuário antes de escolher se o ChatGPT as responde com um modelo de IA de resposta rápida e barato para servir ou um modelo de IA de raciocínio mais lento e caro. Idealmente, o roteador deve direcionar os usuários aos modelos de IA mais inteligentes da OpenAI exatamente quando eles precisarem deles. Anteriormente, os usuários acessavam sistemas avançados por meio de um menu confuso de “seletor de modelo”; uma característica que O CEO Sam Altman disse que a empresa odeia “tanto quanto você.

Na prática, o roteador parecia enviar muito mais usuários gratuitos para os modelos de raciocínio avançados da OpenAI, que são mais caros para serem atendidos pela OpenAI. Pouco depois de seu lançamento, Altman disse que o roteador aumentou o uso de modelos de raciocínio entre usuários gratuitos de menos de 1% para 7%. Foi uma aposta cara que visava melhorar as respostas do ChatGPT, mas o modelo de roteador não foi tão amplamente adotado quanto a OpenAI esperava.

Uma fonte familiarizada com o assunto disse à WIRED que o roteador afetou negativamente a métrica de usuários ativos diários da empresa. Embora os modelos de raciocínio sejam amplamente vistos como a fronteira do desempenho da IA, eles podem passar minutos trabalhando em questões complexas com um custo computacional significativamente maior. A maioria dos consumidores não quer esperar, mesmo que isso signifique obter uma resposta melhor.

Os modelos de IA de resposta rápida continuam a dominar os chatbots de consumo em geral, de acordo com Chris Clark, diretor de operações do provedor de inferência de IA OpenRouter. Nessas plataformas, diz ele, a velocidade e o tom das respostas tendem a ser fundamentais.

“Se alguém digita algo e você tem que mostrar pontos pensantes por 20 segundos, isso simplesmente não é muito envolvente”, diz Clark. “Para chatbots de IA em geral, você está competindo com o Google (Pesquisa). O Google sempre se concentrou em tornar a Pesquisa o mais rápida possível; eles nunca disseram: ‘Nossa, deveríamos obter uma resposta melhor, mas faça isso mais devagar’”.



Source link