Sobre o passado Ano, o engenheiro veterano de software Jay Prakash Thakur passou suas noites e fins de semana prototipando Agentes da IA Isso poderia, em um futuro próximo, pedir refeições e projetar aplicativos móveis quase inteiramente por conta própria. Seus agentes, embora surpreendentemente capazes, também expuseram novas questões legais que aguardam empresas que tentam capitalizar a nova tecnologia mais quente do Vale do Silício.
Agentes são programas de IA Isso pode agir principalmente de forma independente, permitindo que as empresas automatizem tarefas como responder a perguntas dos clientes ou pagar faturas. Enquanto ChatGPT e chatbots semelhantes podem redigir e -mails ou analisar as contas mediante solicitação, a Microsoft e outros gigantes da tecnologia esperam que os agentes abordem funções mais complexas– e o mais importante, faça isso com pouca supervisão humana.
O mais do setor de tecnologia planos ambiciosos Envolva sistemas multi-agentes, com dezenas de agentes algum dia se unindo para substituir forças de trabalho inteiras. Para as empresas, o benefício é claro: economizar no tempo e nos custos de mão -de -obra. A demanda pela tecnologia já está aumentando. Pesquisador de mercado de tecnologia Gartner estimativas Essa IA Agentic resolverá 80 % das consultas comuns de atendimento ao cliente até 2029. Fiverr, um serviço onde as empresas podem reservar codificadores freelancers, Relatórios O fato de procurar o “agente da IA” subiu 18.347 % nos últimos meses.
Thakur, um codificador mais autodidata que vive na Califórnia, queria estar na vanguarda do campo emergente. Seu trabalho diário na Microsoft não está relacionado a agentes, mas ele está mexendo AutogênicoSoftware de código aberto da Microsoft para agentes de construção, já que ele trabalhou na Amazon em 2024. Thakur diz que desenvolveu protótipos multi-agentes usando o Autogen com apenas uma pitada de programação. Na semana passada, a Amazon lançou uma ferramenta de desenvolvimento de agentes semelhante chamada Strands; Google Oferece o que chama de kit de desenvolvimento de agentes.
Como os agentes devem agir de forma autônoma, a questão de quem assume a responsabilidade quando seus erros causam danos financeiros tem sido a maior preocupação de Thakur. Atribuir culpa quando agentes de diferentes empresas se comunicam dentro de um único sistema grande pode se tornar controverso, ele acredita. Ele comparou o desafio de revisar os logs de erros de vários agentes para reconstruir uma conversa com base nas anotações de pessoas diferentes. “Muitas vezes é impossível identificar a responsabilidade”, diz Thakur.
Joseph Fireman, consultor jurídico sênior da Openai, disse no palco em uma recente conferência jurídica organizada pelo Centro de Recursos de Direito da Mídia em São Francisco que as partes prejudicadas tendem a perseguir aqueles com os bolsos mais profundos. Isso significa que empresas como a dele precisam estar preparadas para assumir alguma responsabilidade quando os agentes causarem danos – mesmo quando uma criança brincando com um agente pode ser a culpa. (Se essa pessoa fosse culpada, provavelmente não seria um alvo que valha a pena, o pensamento é). “Eu não acho que ninguém espera chegar ao consumidor sentado no porão de sua mãe no computador”, disse Fireman. O setor de seguros começou a lançar a cobertura Para problemas de AI Chatbot para ajudar as empresas a cobrir os custos de contratempos.
Anéis de cebola
Os experimentos de Thakur o envolveram reunindo agentes em sistemas que exigem o mínimo de intervenção humana possível. Um projeto que ele perseguiu foi substituir colegas desenvolvedores de software por dois agentes. Um foi treinado para procurar ferramentas especializadas necessárias para criar aplicativos, e o outro resumiu suas políticas de uso. No futuro, um terceiro agente poderia usar as ferramentas identificadas e seguir as políticas resumidas para desenvolver um aplicativo totalmente novo, diz Thakur.
Quando Thakur colocou seu protótipo à prova, um agente de pesquisa encontrou uma ferramenta que, de acordo com o site, “suporta solicitações ilimitadas por minuto para usuários corporativos” (o que significa que os clientes bem remunerados podem confiar nele o quanto quiserem). Mas, ao tentar destilar as principais informações, o agente de resumo retirou a qualificação crucial de “por minuto para usuários corporativos”. Ele disse erroneamente ao agente de codificação, que não se qualificou como usuário corporativo, que poderia escrever um programa que fez solicitações ilimitadas ao serviço externo. Porque foi um teste, não houve danos causados. Se tivesse acontecido na vida real, a orientação truncada poderia ter levado o sistema inteiro inesperadamente quebrado.