Inteligência artificial: o que ela tem a ver com você e com a cibersegurança?
Como a IA funciona?
Na prática, a conversa com a inteligência artificial tende a ser uma sequência de pedidos (prompts) em que se pode solicitar um artigo, roteiros, letras de música e até códigos de programação. Tudo que é enviado é absorvido pela inteligência artificial, formando uma espécia de repertório criativo. Por isso, é preciso ter cuidado com aquilo que você compartilha, já que ela pode usar as informações que aprende com você para dar respostas mais precisas para outros usuários.
O mecanismo por trás dessas ferramentas de inteligência artificial é o chamado machine learning (aprendizado de máquina). Ao contrário dos aplicativos comuns, que têm uma programação específica desenhada por um humano, o algoritmo da inteligência artificial é feito para encontrar associações e probabilidades em grandes volumes de dados. A funcionalidade da IA é um resultado dessas associações e das correções humanas aplicadas aos seus erros.
Veja alguns exemplos:
-
Reconhecer objetos: a IA pode "aprender" o que é um gato processando milhões de fotos de gatos (e cachorros, humanos, carros...);
-
Compreensão de fala: a IA não tem um código que interpreta uma língua, mas compara inúmeras horas de vozes gravadas com sua transcrição;
-
Assistente de programação: a IA pode "aprender" programação imitando os códigos que encontra em repositórios online.
Como a IA é usada no cibercrime?
Devido ao crescimento explosivo e recente da inteligência artificial, alguns cibercriminoso já começaram a usar IAs para criação de golpes. Alguns exemplos são:
-
Deepfakes: a IA cria excelentes imitações probabilísticas, permitindo gerar conteúdo falso com a voz e o rosto de pessoas. É possível criar imagens com nudez ou atos explícitos totalmente falsos, com o rosto de quem nunca esteve naquela situação.
-
Phishing: e-mails de phishing normalmente usam um texto idêntico para milhares ou milhões de pessoas, o que facilita o bloqueio da mensagem. Com a IA, as mensagens podem ser diferentes e até mais personalizadas.
-
Envenenamento de IA: como a IA precisa processar informações, um criminoso poderia injetar dados maliciosos na IA para prejudicar o seu uso.
Quando é perigoso usar a IA?
As "IAs generativas" são capazes de criar conteúdo aparentemente original, sejam eles imagens, textos, e-mails ou resumos. Elas também tendem a ser as mais imprevisíveis.
A IA trabalha com probabilidades, o que significa que ela pode errar – ou "alucinar". Não há garantia de que os dados inseridos em um artigo gerado por IA estejam corretos, por exemplo. É preciso verificar tudo.
Já as imagens geradas por IA podem conter conteúdo protegido por direito autoral. É difícil saber ao certo como uma IA foi treinada, o que significa que ela pode ter sido alimentada com imagens protegidas e reproduzir trechos desse material. As imagens também podem conter deformações inesperadas.
O maior risco é que muitas IAs são oferecidas na forma de sites ou aplicativos conectados e compartilham todos os dados da sessão de uso. Na prática, o uso desse tipo IA pode ser incompatível com leis de proteção à privacidade ou com contratos de confidencialidade, especialmente se nenhuma configuração de privacidade estiver disponível.
Durante o treinamento da IA, os chats das sessões de uso podem ser vistos por humanos.
Algumas organizações vêm contratando serviços de IA dedicados e privados, mas já há empresas que restringem o uso de IA generativa remota para evitar infrações.
Quando é seguro usar a IA?
A IA generativa deve ser usada com cuidado e com atenção total às configurações de privacidade de cada serviço.
Já a IA pode ser facilmente usada com segurança em outros contextos não generativos. Algumas reconhecem texto, o que pode ser muito útil para digitalizar documentos. Há também inteligências artificiais que melhoram a qualidade de vídeo e restauram imagens, o que pode ajudar a recuperar memórias gravadas em fitas ou fotos danificadas pelo tempo. Muitos smartphones hoje aprimoram suas fotos com IA automaticamente.
Muitas IAs vêm impondo barreiras para evitar o uso impróprio, e alguns governos estudam a aprovação de leis que obriguem a inclusão de marcas d'água em vídeos produzidos com IA para inibir o uso de deepfakes. Porém, no momento, o cenário ainda é bastante incerto.
Produção: Equipe de Conteúdo da Perallis Security