‘Você não pode lamber um texugo duas vezes’: as falhas do Google destacam uma falha fundamental da IA


Aqui está uma pequena distração agradável do seu dia de trabalho: vá para Googledigite qualquer frase inventada, adicione a palavra “significado” e pesquise. Contemplar! Visão geral da AI do Google Não apenas confirmará que sua bobagem é um ditado real, mas também dirá o que significa e como foi derivado.

Isso é genuinamente divertido, e você pode encontrar muitos exemplos nas mídias sociais. No mundo das visões gerais da IA, “um cachorro solto não surfará” é “uma maneira lúdica de dizer que algo provavelmente não acontecerá ou que algo não vai dar certo”. A frase inventada “Wired Is como Wired faz” é um idioma que significa “o comportamento ou as características de alguém são um resultado direto de sua natureza inerente ou” fiação “, como a função de um computador é determinada por suas conexões físicas”.

Tudo parece perfeitamente plausível, entregue com confiança inabalável. O Google até fornece links de referência em alguns casos, dando à resposta um brilho adicional de autoridade. Também está errado, pelo menos no sentido de que a visão geral cria a impressão de que essas são frases comuns e não um monte de palavras aleatórias juntas. E embora seja bobo que a IA visualize pensa “Nunca jogue um poodle em um porco” é um provérbio com uma derivação bíblica, também é um encapsulamento arrumado de onde a IA generativa ainda fica aquém.

Como aviso de isenção de responsabilidade na parte inferior de todas as notas de visão geral da IA, o Google usa a IA generativa “experimental” para alimentar seus resultados. A IA generativa é uma ferramenta poderosa com todos os tipos de aplicações práticas legítimas. Mas duas de suas características definidoras entram em jogo quando explica essas frases inventadas. Primeiro é que é uma máquina de probabilidade; Embora possa parecer um sistema baseado em modelo de grande idioma, tem pensamentos ou até sentimentos, em um nível básico, está simplesmente colocando uma palavra mais desejável após a outra, colocando a pista enquanto o trem se levanta. Isso o torna muito bom em criar uma explicação do que essas frases seria significa se eles quisessem alguma coisa, o que novamente, eles não.

“A previsão da próxima palavra é baseada em seus vastos dados de treinamento”, diz Ziang Xiao, cientista da computação da Universidade Johns Hopkins. “No entanto, em muitos casos, a próxima palavra coerente não nos leva à resposta certa.”

O outro fator é que a IA pretende agradar; pesquisas mostraram que os chatbots frequentemente Diga às pessoas o que elas querem ouvir. Nesse caso, isso significa levá -lo à sua palavra que “Você não pode lamber um texugo duas vezes” é uma reviravolta aceita de frase. Em outros contextos, isso pode significar refletir seus próprios preconceitos para você, como uma equipe de pesquisadores liderados por Xiao demonstrados em um estudar ano passado.

“É extremamente difícil para esse sistema explicar cada consulta individual ou as principais perguntas do usuário”, diz Xiao. “Isso é especialmente desafiador para o conhecimento incomum, os idiomas nos quais estão significativamente menos conteúdo disponível e as perspectivas minoritárias. Como a busca IA é um sistema tão complexo, o erro em cascata”.



Source link