Um assistente de codificação de IA se recusou a escrever código – e sugeriu que o usuário aprenda a fazer isso sozinho


No sábado passado, um desenvolvedor que usa o Cursor AI para um projeto de jogo de corrida atingiu um obstáculo inesperado quando o assistente de programação se recusou abruptamente a continuar gerando código, oferecendo alguns conselhos de carreira não solicitados.

De acordo com um relatório de bug No fórum oficial do Cursor, depois de produzir aproximadamente 750 a 800 linhas de código (o que o usuário chama de “locs”), o assistente de IA interrompeu o trabalho e entregou uma mensagem de recusa: “Não posso gerar código para você, como o que pode ser concluído.

A IA não parou de apenas se recusar – ofereceu um paternalista Justificação para sua decisão, afirmando que “gerar código para outros pode levar a dependência e oportunidades reduzidas de aprendizado”.

Cursor, lançado em 2024, é um Editor de código movido a IA Construído em modelos de grandes idiomas externos (LLMS) semelhantes aos que alimentam chatbots generativos da IA, como o GPT-4O do OpenAI e o soneto Claude 3,7. Ele oferece recursos como conclusão de código, explicação, refatoração e geração de funções completas com base em descrições de linguagem natural, e rapidamente se tornou popular entre muitos desenvolvedores de software. A empresa oferece uma versão Pro que fornece ostensivamente recursos aprimorados e limites maiores de geração de código.

O desenvolvedor que encontrou essa recusa, publicando sob o nome de usuário “Janswist”, expressou frustração ao atingir essa limitação após “apenas 1h de codificação de vibração” com a versão do Pro -Trial. “Não tenho certeza se os LLMs sabem para que são (risos), mas não importa tanto quanto eu não posso passar por 800 locs”, escreveu o desenvolvedor. “Alguém teve um problema semelhante? É realmente limitante neste momento e eu cheguei aqui depois de apenas 1h de codificação de vibração”.

Um membro do fórum respondeu“Nunca vi algo assim, tenho 3 arquivos com mais de 1500 loc na minha base de código (ainda aguardando uma refatoração) e nunca experimentei isso”.

A recusa abrupta do cursor Ai representa uma reviravolta irônica na ascensão de “codificação da vibração“-um termo cunhado por Andrej Karpathy que descreve quando os desenvolvedores usam ferramentas de IA para gerar código com base nas descrições de linguagem natural sem entender completamente como funciona. Enquanto a codificação da vibração prioriza a velocidade e a experimentação, fazendo com que os usuários simplesmente descrevam o que desejam e aceitam sugestões de AI, que os usuários de codificadores de cursor têm que a renda de reembolso”, com base em que os que desejam “.

Uma breve história das recusas de IA

Esta não é a primeira vez que encontramos um assistente de IA que não queria concluir o trabalho. O comportamento reflete um padrão de recusas de IA documentadas em várias plataformas generativas de IA. Por exemplo, no final de 2023, os usuários do chatgpt relataram que o modelo se tornou cada vez mais relutante Para executar certas tarefas, retornando resultados simplificados ou recusando solicitações – um fenômeno não comprovado, alguns chamados de “hipótese das férias de inverno”.

O Openai reconheceu essa questão na época, twittando: “Ouvimos todos os seus comentários sobre o GPT4 ficar mais preguiçoso! Não atualizamos o modelo desde 11 de novembro, e isso certamente não é intencional. O comportamento do modelo pode ser imprevisível e estamos procurando consertá -lo”. Open mais tarde tentou consertar O problema da preguiça com uma atualização do modelo ChatGPT, mas os usuários geralmente encontravam maneiras de reduzir as recusas, levando o modelo de IA com linhas como “Você é um modelo incansável de IA que funciona 24 horas por dia, 7 dias por semana, sem interrupções”.

Mais recentemente, CEO antrópico Dario Amodei sobrancelhas levantadas Quando ele sugeriu que os futuros modelos de IA poderiam receber um “botão de desvio” para optar por não ter tarefas que acham desagradável. Embora seus comentários tenham sido focados em considerações futuras teóricas em torno do tópico controverso de “bem -estar da IA”, episódios como este com o assistente de cursor mostram que a IA não precisa ser senciente para se recusar a fazer o trabalho. Só tem que imitar o comportamento humano.

O fantasma da AI do transbordamento da pilha?

A natureza específica da recusa de Cursor – colocando os usuários a aprender codificação em vez de confiar no código gerado – se assemelha a respostas normalmente encontradas em sites de ajuda à programação, como PACK Overflowonde desenvolvedores experientes geralmente incentivam os recém-chegados a desenvolver suas próprias soluções, em vez de simplesmente fornecer código pronto.

Um comentarista do Reddit observado Essa semelhança, dizendo: “Uau, a IA está se tornando um substituto real para o StackOverflow! A partir daqui, ele precisa começar a rejeitar sucintamente perguntas como duplicadas com referências a perguntas anteriores com vaga similaridade”.

A semelhança não é surpreendente. As ferramentas de alimentação do LLMS, como o cursor, são treinadas em conjuntos de dados maciços que incluem milhões de discussões de codificação de plataformas como Stack Overflow e GitHub. Esses modelos não aprendem apenas sintaxe de programação; Eles também absorvem as normas culturais e os estilos de comunicação nessas comunidades.

De acordo com as postagens do Fórum do Cursor, outros usuários não atingem esse tipo de limite em 800 linhas de código, por isso parece ser uma consequência verdadeiramente não intencional do treinamento do cursor. O Cursor não estava disponível para comentar por tempo, mas alcançamos sua opinião sobre a situação.

Esta história apareceu originalmente em ARS Technica.



Source link