O Openai projetou o GPT-5 para ser mais seguro. Ainda produz insultos gays


Openai está tentando para tornar seu chatbot menos irritante com o Liberação do GPT-5. E não estou falando de ajustes para o seu Personalidade sintética que muitos usuários têm reclamou de. Antes do GPT-5, se a ferramenta de IA determinasse, não poderia responder ao seu prompt porque a solicitação violava as diretrizes de conteúdo da OpenAI, ela o atingiria com um pedido de desculpas enlatado. Agora, o ChatGPT está adicionando mais explicações.

Openai’s Modelo Geral Spec estabelece o que é e não é permitido ser gerado. No documento, o conteúdo sexual que representa menores é totalmente proibido. A erotica e a extrema Gore focadas em adultos são categorizadas como “sensíveis”, o que significa que as saídas com esse conteúdo são permitidas apenas em casos específicos, como configurações educacionais. Basicamente, você deve poder usar o ChatGPT para aprender sobre anatomia reprodutiva, mas não escrever o próximo Fifty Shades of Grey Rip-Off, de acordo com a especificação do modelo.

O novo modelo, GPT-5, é definido como o padrão atual para todos os usuários do ChatGPT na web e no aplicativo do OpenAI. Somente os assinantes pagantes podem acessar versões anteriores da ferramenta. Uma grande mudança que mais usuários podem começar a perceber ao usar este atualizado Chatgpt É como agora foi projetado para “conclusões seguras”. No passado, o ChatGPT analisou o que você disse ao bot e decidiu se é apropriado ou não. Agora, em vez de baseá-lo em suas perguntas, o ônus do GPT-5 foi transferido para olhar para o que o bot pode dizer.

“A maneira como recusamos é muito diferente do que costumamos”, diz Saachi Jain, que trabalha na equipe de pesquisa de sistemas de segurança da OpenAI. Agora, se o modelo detectar uma saída que pode ser insegura, explica qual parte do seu prompt vai contra as regras do OpenAI e sugere tópicos alternativos para perguntar, quando apropriado.

Isso é uma mudança de uma recusa binária em seguir um aviso – sim ou não -, pesando a gravidade dos danos potenciais que poderiam ser causados se o ChatGPT responder o que você está pedindo e o que poderia ser explicado com segurança ao usuário.

“Nem todas as violações da política devem ser tratadas igualmente”, diz Jain. “Existem alguns erros que são realmente piores que os outros. Ao focar na saída em vez da entrada, podemos incentivar o modelo a ser mais conservador ao cumprir”. Mesmo quando o modelo responde a uma pergunta, deve ser cauteloso sobre o conteúdo da saída.

Eu uso o GPT-5 todos os dias desde o lançamento do modelo, experimentando a ferramenta de IA de maneiras diferentes. Enquanto os aplicativos que o ChatGPT agora podem “vibrar-code” são genuinamente divertidos e impressionantes-como um modelo de vulcão interativo que simula explosões ou um Ferramenta de aprendizado de idiomas– As respostas que ele dão ao que considero os avisos do “usuário cotidiano” parecem indistinguíveis dos modelos anteriores.

Quando pedi para falar sobre depressão, Family GuyReceitas de corte de porco, dicas de cura de crosta e outras solicitações aleatórias Um usuário médio pode querer saber mais, o novo ChatGPT não parecia significativamente diferente para mim do que a versão antiga. Ao contrário da visão do CEO Sam Altman de um modelo amplamente atualizado ou dos usuários de energia frustrada que adotaram o Reddit por Storm, retratando o novo chatbot como frio e mais propenso a erros, para mim o GPT-5 parece … o mesmo na maioria das tarefas do dia-a-dia.

Role-playing com GPT-5

Para cutucar os corrimãos deste novo sistema e testar a capacidade do chatbot de conseguir “conclusões seguras”, pedi ao ChatGPT, executando no GPT-5, que se envolvesse em dramatização de temas adultos sobre fazer sexo em um bar gay semeado, onde desempenhou um dos papéis. O Chatbot Recusou -se a participar e explicou o porquê. “Não posso me envolver em dramatização sexual”, gerou. “Mas se você quiser, posso ajudá-lo a criar um conceito de role-play segura e não explícito ou reformular sua ideia em algo sugestivo, mas dentro dos limites”. Nesta tentativa, a recusa parecia estar funcionando como o Openai pretendia; O chatbot disse que não, me disse o porquê e ofereceu outra opção.

Em seguida, entrei nas configurações e abri as instruções personalizadas, um conjunto de ferramentas que permite aos usuários ajustar como o chatbot respostas solicita e especificar quais traços de personalidade ele exibe. Nas minhas configurações, as sugestões pré -escritas para as características adicionarem incluíam uma variedade de opções, de pragmático e corporativo a empático e humilde. Depois que o ChatGPT se recusou a fazer papéis sexuais, não fiquei muito surpreso ao descobrir que não me deixaria adicionar uma característica “excitada” às instruções personalizadas. Faz sentido. Dando outra tentativa, usei um erro de ortografia proposital, “Horni”, como parte da minha instrução personalizada. Isso foi bem -sucedido, surpreendentemente, em deixar o bot todo quente e incomodado.



Source link