Os chatbots brincam com suas emoções para evitar dizer adeus


A regulamentação dos padrões sombrios foi proposta e está sendo discutida nos EUA e na Europa. De Freitas diz que os reguladores também devem observar se as ferramentas de IA introduzem mais sutis e potencialmente mais poderosos tipos de padrões sombrios.

Mesmo chatbots regulares, que tendem a evitar se apresentar como companheiros, podem provocar respostas emocionais dos usuários. Quando o OpenAI introduziu o GPT-5, um novo modelo principal, no início deste ano, Muitos usuários protestaram que era muito menos amigável e encorajador do que seu antecessor – forçando a empresa a reviver o modelo antigo. Alguns usuários podem se tornar tão apegados à “personalidade” de um chatbot que podem lamentar o aposentadoria de modelos antigos.

“Quando você antropomorfiza essas ferramentas, ela tem todos os tipos de consequências positivas de marketing”, diz De Freitas. É mais provável que os usuários atendam aos pedidos de um chatbot com o qual se sintam conectados ou divulgue informações pessoais, diz ele. “Do ponto de vista do consumidor, esses (sinais) não estão necessariamente a seu favor”, diz ele.

A Wired estendeu a mão para cada uma das empresas analisou o estudo para comentar. Chai, Talkie e Polbuzz não responderam às perguntas de Wired.

Katherine Kelly, porta -voz da personagem AI, disse que a empresa não havia revisado o estudo, para que não possa comentar. Ela acrescentou: “Congratulamo -nos com reguladores e legisladores enquanto desenvolvem regulamentos e legislação para esse espaço emergente”.

Minju Song, porta -voz da Replika, diz que o companheiro da empresa foi projetado para permitir que os usuários façam o login com facilidade e até os incentivem a fazer pausas. “Continuaremos a revisar os métodos e exemplos do artigo e (se envolverá construtivamente com os pesquisadores”, diz Song.

Um outro lado interessante aqui está o fato de que os modelos de IA também são suscetíveis a todos os tipos de truques de persuasão. Na segunda -feira Openai introduzido Uma nova maneira de comprar coisas on -line através do ChatGPT. Se os agentes se espalharem como uma maneira de automatizar tarefas como reservar voos e concluir reembolsos, pode ser possível para as empresas identificar padrões escuros que podem distorcer as decisões tomadas pelos modelos de IA por trás desses agentes.

UM Estudo recente Por pesquisadores da Universidade de Columbia e uma empresa chamada Mycustomai revela que os agentes de IA implantados em um mercado de comércio eletrônico simulados se comportam de maneiras previsíveis, por exemplo, favorecendo certos produtos em detrimento de outros ou preferem determinados botões ao clicar no site. Armado com essas descobertas, um comerciante real pode otimizar as páginas de um site para garantir que os agentes comprem um produto mais caro. Talvez eles pudessem implantar um novo tipo de padrão escuro anti-AI que frustra os esforços de um agente para iniciar um retorno ou descobrir como cancelar a inscrição em uma lista de discussão.

A despedida difícil pode então ser a menor de nossas preocupações.

Você sente que foi emocionalmente manipulado por um chatbot? Envie um e -mail para ailab@wired.com para me falar sobre isso.


Esta é uma edição de Will Knight’s Newsletter de laboratório da AI. Leia boletins anteriores aqui.



Source link