O Antrópico usará bate -papos de Claude para treinamento de dados. Veja como optar por não participar


Antrópico é preparado Para reaproveitar as conversas que os usuários têm com seu Claude Chatbot Como dados de treinamento para seus grandes modelos de idiomas – a menos que esses usuários optem por não participar.

Anteriormente, a empresa não treinava seu AI generativa modelos em bate -papos de usuário. Quando a Política de Privacidade da Antrópica atualiza em 8 de outubro para começar a permitir isso, os usuários terão que optar por não participar, ou então seus novos logs de bate -papo e tarefas de codificação serão usados ​​para treinar futuros modelos antropais.

Por que a troca? “Todos os grandes modelos de linguagem, como Claude, são treinados usando grandes quantidades de dados”, lê parte de Blog do antropic explicando por que a empresa fez essa mudança de política. “Os dados das interações do mundo real fornecem informações valiosas sobre as quais as respostas são mais úteis e precisas para os usuários.” Com mais dados do usuário jogados no liquidificador do LLM, os desenvolvedores do Anthrópio esperam fazer uma versão melhor do seu chatbot ao longo do tempo.

A mudança estava originalmente programada para ocorrer em 28 de setembro antes de ser reduzida. “Queríamos dar aos usuários mais tempo para revisar essa opção e garantir que tenhamos uma transição técnica suave”, escreveu Gabby Curtis, porta -voz da Anthrópica, em um email para a Wired.

Como optar por não participar

Os novos usuários devem tomar uma decisão sobre seus dados de bate-papo durante o processo de inscrição. Existente Claude Os usuários já podem ter encontrado um pop-up estabelecendo as alterações nos termos do Antrópico.

“Permita o uso de seus bate -papos e sessões de codificação para treinar e melhorar os modelos antrópicos de IA”, diz ele. A alternância para fornecer seus dados a antropia para treinar Claude está ligada automaticamente; portanto, os usuários que optaram por aceitar as atualizações sem clicar nessa alternância são optados na nova política de treinamento.

Todos os usuários podem alternar o treinamento de conversas dentro ou fora do Configurações de privacidade. Sob a configuração que é rotulada Ajude a melhorar Claudeverifique se o interruptor está desligado e para a esquerda, se você preferir não ter seus novos modelos do Claude Chats Train Anthropic.

Se um usuário não optar por não participar do treinamento do modelo, a política de treinamento alterada abrange todos os bate -papos novos e revisitados. Isso significa que o Antrópico não está treinando automaticamente seu próximo modelo em todo o seu histórico de bate -papo, a menos que você volte aos arquivos e reinente um tópico antigo. Após a interação, esse antigo bate -papo agora é reaberto e um jogo justo para treinamento futuro.

A nova política de privacidade também chega com uma expansão para as políticas de retenção de dados do Antrópico. Antrópico aumentou a quantidade de tempo que mantém nos dados do usuário de 30 dias na maioria das situações para cinco anos muito mais extensos, independentemente de os usuários permitirem o treinamento de modelos em suas conversas.

A mudança do antropal em termos se aplica a usuários de nível comercial, bem e pagos. Os usuários comerciais, como os licenciados por meio de planos educacionais ou educacionais, não são impactados pelas mudanças e as conversas desses usuários não serão usadas como parte do treinamento modelo da empresa.

Claude é uma ferramenta de IA favorita para alguns desenvolvedores de software que se apegaram a suas habilidades como um Assistente de codificação. Como a atualização da Política de Privacidade inclui projetos de codificação e logs de bate -papo, o Antrópico pode reunir uma quantidade considerável de informações de codificação para fins de treinamento com esse comutador.

Antes da atualização antrópica de sua política de privacidade, Claude era um dos únicos grandes chatbots a não usar conversas para o treinamento de LLM automaticamente. Em comparação, a configuração padrão para ambos Opic é AAIP e Gêmeos do Google Para contas pessoais, inclui a possibilidade de treinamento do modelo, a menos que o usuário opte por optar por não participar.

Confira o guia completo da Wired para Optação de treinamento de IA Para mais serviços, onde você pode solicitar a IA geradora não será treinada nos dados do usuário. Ao optar por optar por não participar do treinamento de dados, é um benefício para a privacidade pessoal, especialmente ao lidar com conversas de chatbot ou outras interações individuais, vale a pena ter em mente que qualquer coisa que você publica publicamente online, a partir de mídia social As postagens para resenhas de restaurantes provavelmente serão raspadas por alguma startup como material de treinamento para seu próximo modelo gigante de IA.



Source link