Vai usar inteligência artificial? Tome cuidado com o sigilo de dados!
O uso de plataformas baseadas em inteligência artificial e machine learning, como chatbots e ferramentas de inteligência generativa, têm se tornado cada vez mais comuns em diversos setores. Cada vez mais acessíveis ao público em geral, esses recursos, de fato, são capazes de auxiliar os profissionais em suas tarefas cotidianas, automatizando tarefas, facilitando o atendimento ao cliente e até mesmo criando trechos inteiros de códigos a serem embutidos em produtos comerciais.
No entanto, nem tudo são flores. Muitos riscos à segurança da informação podem surgir quando essas ferramentas são usadas sem o devido cuidado. Uma das principais ameaças está relacionada à inserção de dados sigilosos nessas plataformas. Lembre-se de que as inteligências artificiais usam todas as informações fornecidas pelos próprios usuários para melhorar suas capacidades de resposta. Com isso, é possível que elas possam repassar essas informações para terceiros.
Vamos imaginar um exemplo simples. Ao interagir com um chatbot de inteligência generativa, os usuários podem acabar compartilhando informações confidenciais, como números de conta bancária, senhas, dados médicos ou informações pessoais e corporativas sensíveis.
Se esses dados forem armazenados ou usados de forma inadequada para o treinamento da plataforma, eles podem ser explorados por indivíduos mal-intencionados, resultando em violações de privacidade e até mesmo em fraudes.
E quando a IA é minha?
Outro risco significativo é o vazamento de dados provenientes dessas ferramentas. Se o chatbot ou outra ferramenta de inteligência artificial pertence à sua organização, esses recursos devem garantir que as informações coletadas sejam armazenadas de forma segura e protegidas contra acessos não autorizados. Como já sabemos, vazamento de dados pode causar danos irreparáveis à imagem da empresa, além de acarretar consequências legais e financeiras significativas.
Por fim, algoritmos de machine learning podem ser treinados com base em conjuntos de dados que refletem vieses e intolerâncias existentes na sociedade. Se esses algoritmos forem utilizados em chatbots sem a devida revisão e mitigação, eles podem perpetuar preconceitos e discriminações. É fundamental que haja uma análise criteriosa e um monitoramento constante dos dados usados no treinamento dessas ferramentas para evitar que vieses discriminatórios sejam reproduzidos.
Para mitigar esses riscos à segurança da informação ao utilizar ferramentas de inteligência artificial e machine learning, é essencial adotar algumas medidas básicas. Algumas boas práticas incluem obter o consentimento explícito dos usuários antes de coletar qualquer informação pessoal e remover informações pessoais identificáveis dos conjuntos de dados utilizados no treinamento dos modelos de inteligência artificial.
Também é interessante utilizar criptografia para proteger os dados armazenados e transmitidos, implementar controles de acesso adequados para garantir que apenas pessoas autorizadas possam manipular os dados coletados pelas ferramentas. Além disso, é preciso realizar revisões regulares dos algoritmos e modelos utilizados nas ferramentas, no intuito de identificar e corrigir possíveis vieses ou comportamentos indesejados.
Quem usa e manipula precisa de treinamento!
Por fim, o treinamento e a conscientização dos colaboradores também possuem um papel importantíssimo na mitigação desses riscos. A capacitação para o correto aproveitamento dessas tecnologias inclui não apenas o repasse de boas práticas, mas também a fácil identificação de ameaças como phishing ou outros métodos de engenharia social.
Produção: Equipe de Conteúdo da Perallis Security