O que os empreendedores devem saber sobre IA e segurança cibernética


Por Alex Lanstein, CTO, Strikerady

Não há dúvida de que a inteligência artificial (IA) tornou mais fácil e rápido fazer negócios. A velocidade que a IA permite para o desenvolvimento de produtos é certamente significativa – e não pode ser subestimada o quanto é importante, esteja você projetando o protótipo de um novo produto ou o site para vendê -lo.

Da mesma forma, os grandes modelos de idiomas (LLMS) como o ChatGPT do OpenAI e o Gemini do Google revolucionaram a maneira como as pessoas fazem negócios, para criar ou analisar rapidamente grandes quantidades de texto. No entanto, como os LLMs são o brinquedo novo e brilhante que os profissionais estão usando, eles podem não reconhecer as desvantagens que tornam suas informações menos seguras. Isso faz da IA ​​um saco misto de risco e oportunidade que todo empresário deve considerar.

Problemas de acesso

Todo empresário entende a importância da proteção de dados, e a equipe de segurança de uma organização implementará controles para garantir que os funcionários não tenham acesso às informações que não deveriam. Mas, apesar de estar bem consciente dessas estruturas de permissão, muitas pessoas não aplicam esses princípios ao uso do LLMS.

Geralmente, as pessoas que usam ferramentas de IA não entendem exatamente para onde as informações estão se alimentando delas podem estar indo. Até especialistas em segurança cibernética – que, de outra forma, conhecem melhor do que alguém os riscos causados ​​por controles de dados frouxos – podem ser culpados disso. Muitas vezes, eles estão alimentando relatórios de dados de alerta de segurança ou resposta a incidentes em sistemas como o Chatgpt Willy-Nilly, sem pensar no que acontece com as informações depois de receber o resumo ou análise que eles queriam gerar.

No entanto, o fato é que há pessoas analisando ativamente as informações que você envia para modelos hospedados publicamente. Seja parte do departamento anti-abuso ou trabalhando para refinar os modelos de IA, suas informações estão sujeitas a globos oculares humanos e pessoas em uma infinidade de países poderão ver seus documentos críticos de negócios. Mesmo fornecendo feedback para respostas solicitadas pode desencadear informações usadas de maneiras que você não prevê ou pretende. O simples ato de dar um polegar para cima ou para baixo em resposta a um resultado imediato pode levar a alguém que você não conhece acessar seus dados e não há absolutamente nada que você possa fazer sobre isso. Isso torna importante entender que os dados de negócios confidenciais que você alimenta no LLMS estão sendo revisados ​​por pessoas desconhecidas que podem estar copiando e colando tudo isso.

Os perigos da informação descida

Apesar da tremenda quantidade de informações que são alimentadas diariamente na IA, a tecnologia ainda tem um problema de confiabilidade. Os LLMs tendem a alucinar – retire as informações de pano inteiro – quando respondendo a prompts. Isso o torna uma proposta arriscada para os usuários se tornarem dependentes da tecnologia ao pesquisar. Um conto de advertência recente e altamente divulgado ocorreu quando O escritório de advocacia de lesões pessoais Morgan & Morgan citou oito casos fictícios, que eram o produto das alucinações da IA, em uma ação judicial. Consequentemente, um juiz federal em Wyoming ameaçou dar às sanções dos dois advogados que se sentiram confortáveis ​​demais, confiando na produção de LLM para pesquisa jurídica.

Da mesma forma, quando a IA não está inventando informações, pode estar fornecendo informações que não são atribuídas adequadamente – criando enigmas de direitos autorais. O material protegido por direitos autorais de qualquer pessoa pode ser usado por outras pessoas sem o seu conhecimento – apenas a sua permissão – que pode colocar todos os entusiastas do LLM em risco de serem involuntariamente um infrator de direitos autorais, ou aquele cujos direitos autorais foram violados. Por exemplo, Thomson Reuters ganhou um processo de direitos autorais contra a Ross Intelligenceuma startup legal de IA, sobre o uso do conteúdo da Westlaw.

O ponto principal é que você quer saber para onde está indo seu conteúdo – e de onde vem. Se uma organização confia na IA para o conteúdo e há um erro caro, pode ser impossível saber se o erro foi cometido por uma alucinação LLM ou o ser humano que usou a tecnologia.

Barreiras mais baixas à entrada

Apesar dos desafios que a IA pode criar nos negócios, a tecnologia também criou muita oportunidade. Não há veteranos reais neste espaço – então alguém recém -saído da faculdade não está em desvantagem em comparação com qualquer outra pessoa. Embora possa haver uma vasta lacuna de habilidade com outros tipos de tecnologia que aumentam significativamente as barreiras à entrada, com IA generativa, não há um grande obstáculo ao seu uso.

Como resultado, você poderá incorporar mais facilmente funcionários juniores com promessa em certas atividades comerciais. Como todos os funcionários estão em um nível comparável no campo de jogo da IA, todos em uma organização podem alavancar a tecnologia para seus respectivos empregos. Isso aumenta a promessa de IA e LLMs para empreendedores. Embora existam alguns desafios claros que as empresas precisam navegar, os benefícios da tecnologia superam em muito os riscos. Compreender essas possíveis déficits pode ajudá -lo a aproveitar com sucesso a IA, para que você não acabe sendo deixado para trás da competição.

Sobre o autor:

Alex Lanstein é CTO de Strikeradyuma solução do centro de comando de segurança movida a IA. Alex é um autor, pesquisador e especialista em segurança cibernética e lutou com sucesso a algumas das botnets mais perniciosas do mundo: Rustock, Srizbi e Mega-D.



Source link