Não estou convencido de que a IA generativa ética atualmente existe


Existem generativos Ferramentas de IA que eu posso usar que talvez sejam um pouco mais éticas que outras?
—Botes Opções

Não, não acho que nenhuma ferramenta de IA generativa dos principais players seja mais ética do que qualquer outra. Aqui está o porquê.

Para mim, a ética de AI generativa O uso pode ser dividido em problemas com a forma como os modelos são desenvolvidos – especificamente, como os dados usados ​​para treiná -los foram acessados ​​- além de preocupações contínuas sobre seus impacto ambiental. Para alimentar um gerador de chatbot ou imagem, é necessária uma quantidade obscena de dados e as decisões que os desenvolvedores tomaram no passado – e continuam a fazer – para obter esse repositório de dados são questionáveis ​​e encobertos em segredo. Mesmo o que as pessoas no Vale do Silício chamam de modelos de “código aberto” escondem os conjuntos de dados de treinamento dentro.

Apesar das queixas de autores, artistas, cineastas, criadores do YouTube e até apenas usuários de mídia social quem não quer suas postagens raspadas E se transformou em lodo de chatbot, as empresas de IA normalmente se comportaram como se o consentimento desses criadores não fosse necessário para que sua saída seja usada como dados de treinamento. Uma reivindicação familiar dos proponentes da IA ​​é a obtenção dessa grande quantidade de dados com o consentimento dos humanos que o criaram seria muito pesado e impediria a inovação. Mesmo para empresas que têm atingir acordos de licenciamento Com os principais editores, os dados “limpos” são uma parte infinitesimal da máquina colossal.

Embora alguns desenvolvedores estejam trabalhando em abordagens para compensar razoavelmente Pessoas quando seu trabalho é usado para treinar modelos de IA, esses projetos permanecem bastante alternativas de nicho aos gigantes mainstream.

E depois há as consequências ecológicas. O atual impacto ambiental do uso generativo de IA é igualmente exagerado nas principais opções. Enquanto a IA generativa ainda representa uma pequena fatia do estresse agregado da humanidade no meio ambiente, as ferramentas de software Gen-AI exigem muito mais energia para criar e executar do que suas contrapartes não generativas. O uso de um chatbot para assistência à pesquisa está contribuindo muito mais para a crise climática do que apenas pesquisar na web no Google.

É possível que a quantidade de energia necessária para executar as ferramentas possa ser reduzida – novas abordagens como O mais recente modelo de Deepseek O SIP SIP preciosos recursos energéticos em vez de batê -los – mas as grandes empresas de IA parecem mais interessadas em acelerar o desenvolvimento do que fazer uma pausa para considerar abordagens menos prejudiciais ao planeta.

Como tornamos a IA mais sábia e ética do que mais inteligente e mais poderosa?
Cérebro da galáxia

Obrigado por sua pergunta sábia, companheiro humano. Essa situação pode ser mais um tópico comum de discussão entre aqueles que construem ferramentas generativas de IA do que você poderia esperar. Por exemplo, antropia Abordagem “constitucional” Para o seu Claude, o chatbot tenta instilar um senso de valores centrais na máquina.

A confusão no coração da sua pergunta remonta à maneira como falamos sobre o software. Recentemente, várias empresas lançaram modelos focados em “raciocínio” e “cadeia de pensamentoAbordagens para realizar pesquisas. Descrever o que as ferramentas de IA fazem com termos e frases humanos torna a linha entre humano e máquina desnecessariamente nebuloso. Quero dizer, se o modelo pode realmente raciocinar e ter cadeias de pensamentos, por que não poderíamos enviar o software algum caminho de auto-iluminação?

Porque não pensa. Palavras como raciocínio, pensamento profundo, entendimento – essas são apenas maneiras de descrever como o algoritmo processa informações. Quando faço uma pausa na ética de como esses modelos são treinados e o impacto ambiental, minha posição não é baseada em uma amálgama de padrões preditivos ou texto, mas sim a soma de minhas experiências individuais e crenças de perto.

Os aspectos éticos das saídas de IA sempre voltam para nossos insumos humanos. Quais são as intenções dos avisos do usuário ao interagir com um chatbot? Quais foram os preconceitos nos dados de treinamento? Como os desenvolvedores ensinaram o bot a responder a consultas controversas? Em vez de se concentrar em tornar a própria IA mais sábia, a tarefa real em questão está cultivando práticas de desenvolvimento mais éticas e interações do usuário.



Source link