Para consertar verdadeiramente a Siri, a Apple pode ter que voltar atrás em uma coisa importante – privacidade


Ainda assim, a Apple ficou encantada com as possibilidades, assim como o então CEO Steve Jobs. “Este foi o último acordo de Steve”, disse o co -fundador da Siri, Tom Gruber, à Wired. “Ele esteve pessoalmente envolvido em todas as etapas do acordo, negociando o acordo e seguindo, certificando -se de que tivemos sucesso na Apple depois que eles nos compraram”.

No entanto, outros executivos da Apple que estavam por perto na época pintam a imagem de um assistente digital muito defeituoso que nunca estava realmente pronto para o trabalho que a Apple nos vendeu. Siri inicial funcionou, mas apenas dentro de silos funcionais altamente limitados.

“O que adquirimos foi uma demonstração que funcionaria muito bem para duas pessoas, mas não escalava para nossa base de usuários … havia muita fumaça e espelhos por trás da implementação original da Siri”, disse o ex -executivo da Apple Richard Williamson ao The the the the the the the the the the the the the the the the the the the the the the Museu de História do Computador Em uma entrevista de 2017, há tanto tempo, envolve mudanças de figurino.

“Essa noção de AI? Não era ai … estava uma bagunça quente”, disse Williamson. “É super fácil enganar a Siri. Não há PNL (processamento de linguagem natural), não há contextualização de palavras. É apenas uma correspondência de palavras -chave”.

Mas agora, mesmo com a IA, a Siri ainda não pode ser confiada para realmente trabalhar ao enfrentar o uso do mundo real. A questão principal é por que? O Chatbot Tech pode não estar totalmente maduro, mas é pelo menos prevalente o suficiente para ser usado diariamente por não -técnicos em plataformas concorrentes.

Um fator de confusão: a abordagem da Apple a esse material provavelmente não está próxima da norma. Você precisará se sentir confortável entregando uma grande quantidade de dados para fazer o Alexa funcionar o melhor, enquanto Sam Altman, do Openai, parece feliz em destruir categorias inteiras de empregos no altar do progresso. Mas Tim Cook e Apple? Uma imagem mais limpa e positiva faz parte do apelo da empresa, e isso inclui um foco muito claro na privacidade.

“Há uma boa desculpa para a espera (da Apple), e é se você realmente mantiver o valor da mordomia de privacidade e dados como um direito sagrado. E (Apple) diz esse tipo de palavra”, diz Gruber.

“Se eles realmente consideram isso uma prioridade, poderão estar enfrentando conflitos de interesse. Se eles enviarem todas as consultas ao OpenAI e dar a eles todas as necessidades do contexto, provavelmente poderiam fazer mais, mas estão desistindo de sua garantia de privacidade”.

Um foco de privacidade também foi percebido por anos como uma razão pela qual a Siri nunca se sentiu tão boa para usar, por exemplo, assistente do Google. Parecia menos inteligente, menos naturalista, porque literalmente sabia menos sobre você. E, independentemente de quão verdadeiro isso fosse, faz parte da raiz do problema nesse novo Siri também.

Uma história de duas metades

O próximo Siri é baseado em dois componentes principais. Um pequeno modelo de idioma é executado no próprio iPhone, enquanto consultas mais complexas são descarregadas para o OpenAI. Você terá que conceder a permissão do telefone para fazê -lo.

Estima-se que os sistemas de IA on-iphone da Apple consistem em cerca de 3 bilhões de parâmetros, onde algumas estimativas colocam o número de parâmetros no GPT-4 da OpenAI em 1,8 trilhão-com centenas de vezes o número. O Deepseek fez manchetes como um modelo IA Lean mais eficiente no início de 2025, mas ainda compreende 671 bilhões de parâmetros relatados.



Source link