Quando as empresas de IA vão para a guerra, a segurança fica para trás


Eu gastei o últimos dias pedindo às empresas de IA que me convencessem de que as perspectivas de Segurança de IA não diminuíram. Há apenas alguns anos, parecia que havia um acordo universal entre empresas, legisladorese ao público em geral que a regulamentação e supervisão sérias da IA ​​não eram apenas necessárias, mas também inevitáveis. As pessoas especularam sobre a possibilidade de organismos internacionais estabelecerem regras para garantir que a IA seria tratada com mais seriedade do que outras tecnologias emergentes, e isso poderia pelo menos criar obstáculos às suas implementações mais perigosas. As empresas prometeram priorizar a segurança em detrimento da concorrência e dos lucros. Embora os destruidores ainda criassem cenários distópicos, estava a formar-se um consenso global para limitar os riscos da IA ​​e, ao mesmo tempo, colher os seus benefícios.

Os acontecimentos da última semana deram um duro golpe nessas esperanças, a começar pelo rivalidade amarga entre o Pentágono e a Antrópica. Todas as partes concordam que o contrato existente entre os dois costumava especificar – por insistência da Anthropic – que o Departamento de Defesa (que agora se refere a si mesmo como Departamento de Guerra) não usará os modelos Claude AI da Anthropic para armas autônomas ou vigilância em massa dos americanos. Agora, o Pentágono quer apagar essas linhas vermelhas, e a recusa da Anthropic não só resultou no fim do seu contrato, mas também levou o secretário da Defesa, Pete Hegseth, a declarar a empresa um risco para a cadeia de suprimentos, uma designação que impede agências governamentais de fazer negócios com a Anthropic. Sem entrar em detalhes sobre as disposições contratuais e a dinâmica pessoal entre Hegseth e o CEO da Anthropic, Dario Amodei, o resultado final parece ser que os militares estão determinados a resistir a quaisquer limitações na forma como utilizam a IA, pelo menos dentro dos limites da legalidade – pela sua própria definição.

A grande questão parece ser como chegámos ao ponto em que a libertação de drones robôs assassinos e bombas que identificam e eliminam alvos humanos acabou na conversa como algo que os militares dos EUA sequer considerariam. Perdi o debate internacional sobre os méritos de criar enxames de drones autónomos letais que exploram zonas de guerra, patrulham fronteiras ou vigiam os traficantes de drogas? Hegseth e os seus apoiantes queixam-se do absurdo de as empresas privadas limitarem o que os militares podem fazer. Acho mais louco que seja necessária uma empresa solitária arriscando sanções existenciais para impedir uma tecnologia potencialmente incontrolável. Em qualquer caso, a falta de acordos internacionais significa que todas as milícias avançadas devem utilizar a IA em todas as suas formas, simplesmente para acompanhar os seus adversários. Neste momento, uma corrida armamentista de IA parece inevitável.

Os riscos vão muito além dos militares. Ofuscado pelo drama do Pentágono estava um anúncio perturbador Anthropic postado em 24 de fevereiro. A empresa disse que estava fazendo mudanças em seu sistema para mitigar riscos catastróficos de IA, chamado de Política de Escalabilidade Responsável. Foi uma política fundamental de fundação da Anthropic, na qual a empresa prometeu vincular o cronograma de lançamento do modelo de IA aos seus procedimentos de segurança. A política afirmava que os modelos não deveriam ser lançados sem grades de proteção que impedissem os piores usos. Funcionou como um incentivo interno para garantir que a segurança não fosse negligenciada na pressa de lançar tecnologias avançadas. Ainda mais importante, a Anthropic esperava que a adoção da política inspirasse ou envergonhasse outras empresas a fazerem o mesmo. Ele chamou esse processo de “corrida para o topo.” A expectativa era que a incorporação de tais princípios ajudaria a influenciar as regulamentações de todo o setor que estabelecem limites ao caos que a IA poderia causar.

A princípio, esta abordagem parecia promissora. DeepMind e OpenAI adotaram aspectos da estrutura da Anthropic. Mais recentemente, à medida que os dólares de investimento disparavam, a concorrência entre os laboratórios de IA aumentava e a perspectiva de regulamentação federal começava a parecer mais remota, a Anthropic admitiu que a sua Política de Escalabilidade Responsável tinha ficado aquém. Os limites não criaram o consenso sobre os riscos da IA ​​que se esperava. Como a empresa observou num post no blog: “O ambiente político mudou no sentido de dar prioridade à competitividade da IA ​​e ao crescimento económico, enquanto as discussões orientadas para a segurança ainda não ganharam força significativa a nível federal”.

Enquanto isso, a competição entre empresas de IA tornou-se mais acirrada. Em vez de uma corrida ao topo, a rivalidade da IA ​​​​parece mais uma versão simples de King of the Mountain. Quando o Pentágono baniu o Anthropic, a OpenAI apressou-se em preencher a lacuna com seu próprio contrato com o Departamento de Defesa. O CEO da OpenAI, Sam Altman, insistiu que firmou um acordo precipitado com o Pentágono para aliviar a pressão sobre a Anthropic, mas Amodei não aceitou. “Sam está tentando minar nossa posição enquanto parece apoiá-la”, disse Amodei em um comunicado. memorando interno. “Ele está tentando tornar mais possível para o administrador nos punir, minando nosso apoio público.” (Amodei mais tarde pediu desculpas pelo tom da mensagem.)



Source link