Meta e outras empresas de tecnologia proíbem o OpenClaw por questões de segurança cibernética


No mês passado, Jasão Grad emitiu um aviso noturno aos 20 funcionários de sua startup de tecnologia. “Você provavelmente já viu a tendência do Clawdbot no X/LinkedIn. Embora seja legal, atualmente não foi avaliado e é de alto risco para o nosso ambiente”, escreveu ele em um Mensagem frouxa com um emoji de sirene vermelha. “Por favor, mantenha o Clawdbot longe de todo o hardware da empresa e de contas vinculadas ao trabalho.”

Grad não é o único executivo de tecnologia que levantou preocupações à equipe sobre a ferramenta experimental de IA, que foi brevemente conhecida como MoltBot e agora se chama OpenClaw. Um executivo da Meta diz que recentemente disse a sua equipe para manter o OpenClaw longe de seus laptops de trabalho normais ou correria o risco de perder o emprego. O executivo disse aos repórteres que acredita que o software é imprevisível e poderia levar a uma violação de privacidade se usado em ambientes seguros. Ele falou sob condição de anonimato para falar francamente.

Peter Steinberger, fundador solo do OpenClaw, lançou-o como uma ferramenta gratuita e de código aberto novembro passado. Mas sua popularidade aumentou no mês passado à medida que outros programadores contribuíram com recursos e começaram a compartilhar suas experiências de uso nas redes sociais. Na semana passada, Steinberger ingressou OpenAI, desenvolvedor do ChatGPT, que afirma que manterá o código aberto do OpenClaw e o apoiará por meio de uma fundação.

OpenClaw requer conhecimento básico de engenharia de software para ser configurado. Depois disso, ele só precisa de orientação limitada para assumir o controle do computador de um usuário e interagir com outros aplicativos para auxiliar em tarefas como organização de arquivos, realização de pesquisas na web e compras online.

Alguns profissionais de segurança cibernética têm publicamente instou as empresas tomem medidas para controlar estritamente como suas forças de trabalho usam o OpenClaw. E as recentes proibições mostram como as empresas estão a agir rapidamente para garantir que a segurança é priorizada antes do seu desejo de experimentar tecnologias emergentes de IA.

“Nossa política é ‘mitigar primeiro, investigar depois’ quando nos deparamos com algo que possa ser prejudicial à nossa empresa, usuários ou clientes”, diz Grad, que é cofundador e CEO da Massive, que fornece ferramentas de proxy da Internet para milhões de usuários e empresas. Seu aviso aos funcionários foi feito em 26 de janeiro, antes de qualquer um de seus funcionários instalar o OpenClaw, diz ele.

Em outra empresa de tecnologia, a Valere, que trabalha com software para organizações como a Universidade Johns Hopkins, um funcionário postou sobre o OpenClaw em 29 de janeiro em um canal interno do Slack para compartilhar novas tecnologias para potencialmente experimentar. O presidente da empresa respondeu rapidamente que o uso do OpenClaw era estritamente proibidodisse o CEO da Valere, Guy Pistone, à WIRED.

“Se obtivesse acesso a uma das máquinas de nossos desenvolvedores, poderia obter acesso aos nossos serviços em nuvem e às informações confidenciais de nossos clientes, incluindo informações de cartão de crédito e bases de código do GitHub”, diz Pistone. “É muito bom em limpar algumas de suas ações, o que também me assusta.”

Uma semana depois, Pistone permitiu que a equipe de pesquisa de Valere executasse o OpenClaw no computador antigo de um funcionário. O objetivo era identificar falhas no software e possíveis soluções para torná-lo mais seguro. Posteriormente, a equipe de pesquisa aconselhou limitar quem pode dar ordens ao OpenClaw e expô-lo à Internet apenas com uma senha definida em seu painel de controle para evitar acessos indesejados.

Num relatório partilhado com a WIRED, os investigadores da Valere acrescentaram que os utilizadores têm de “aceitar que o bot pode ser enganado”. Por exemplo, se o OpenClaw estiver configurado para resumir o e-mail de um usuário, um hacker poderá enviar um e-mail malicioso para a pessoa instruindo a IA a compartilhar cópias dos arquivos no computador da pessoa.

Mas Pistone está confiante de que podem ser implementadas salvaguardas para tornar o OpenClaw mais seguro. Ele deu à equipe de Valere 60 dias para investigar. “Se acharmos que não podemos fazer isso em um prazo razoável, renunciaremos”, diz ele. “Quem descobrir como torná-lo seguro para as empresas certamente terá um vencedor.”



Source link