Alexandre Torres, diretor de Tecnologia da Informação da SOLUTI, aponta riscos no compartilhamento de informações na interação com o Chat GPT
Perigos não são impeditivos para o uso da ferramenta, mas empresas precisam tomar alguns cuidados no compartilhamento de informações com as IAs.
Lançado em novembro de 2022, o algoritmo baseado em inteligência artificial Chat GPT3-3.5, criado pelo laboratório norte-americano OpenAI, ganhou recente notoriedade entre os profissionais que em maior ou menor grau lidam com tecnologia.
Muito se fala das possibilidades da ferramenta, mas seu uso também traz riscos aos usuários ao expor informações pessoais sensíveis ou dados institucionais estratégicos.
Alexandre Torres, diretor de Tecnologia da Informação da SOLUTI, empresa de tecnologia com sede em Goiânia (GO) e atuação em toda as regiões do Brasil, aponta elevados riscos no compartilhamento de informações sensíveis na interação com o Chat GPT e outros tipos de inteligências artificiais e cita uma possível ação de risco.
“Se eu pego uma planilha de faturamento da minha empresa e insiro esses dados em uma interface de IA para que ela seja formatada, por exemplo, não tenho como saber o que será feito com esses dados e quem terá acesso a eles”, alerta.
Para Alexandre Torres, as empresas precisam começar a ter essa preocupação e impor algumas restrições ao uso das IAs.
“Algumas instituições proíbem que seus funcionários usem alguns sites de correção de texto, exatamente porque existe a possibilidade de alguma informação estratégica vazar, pois não sabemos se os dados que fornecemos podem ser utilizados para retroalimentar a inteligência artificial”, adverte.
Luiz Gustavo Torres, coordenador de E-commerce e Performance da SOLUTI, concorda que a exposição de dados na rede sempre representa algum risco.
“Nós, como uma empresa de tecnologia com expertise em identidade digital, prezamos muito pela proteção de informações da forma mais eficiente possível”, ressalta.
Para o coordenador de e-commerce da SOLUTI, embora essa questão mereça a devida atenção, ele acredita que não se trata de um impeditivo para a incorporação massiva da tecnologia em nosso dia a dia.
“Estamos observando que as big techs estão num movimento de descentralização da manutenção e do tratamento desses dados, mas temos no Brasil a Lei Geral de Proteção de Dados Pessoais (LGPD) e na Europa, por exemplo, essa legislação é ainda mais robusta”, ressalta Torres.
A popularização das ferramentas baseadas em inteligência artificial deve influenciar o ambiente regulatório do Brasil, que já prevê penalização a empresas que vazam informações, acrescenta o profissional.
“Cabe a quem é o detentor dos dados resguardá-los com segurança. E também existem medidas de contingência em infraestrutura, criptografia, acessos limitados e outros. Vejo que o próprio processo natural de enquadramento às leis de proteção aos dados e esse movimento, de criar estruturas de segurança para esses dados, vão dar mais confiança aos usuários”, avalia Torres.
O que diz a IA
Profissionais de tecnologia da informação concordam que dados pessoais ou institucionais sensíveis não devem ser compartilhados com nenhum sistema de inteligência artificial.
Mas e o próprio Chat GPT, o que tem a dizer sobre esses riscos? Indagada sobre a questão, a plataforma responde que “há sim riscos potenciais de segurança e privacidade associados ao compartilhamento de informações sensíveis com qualquer sistema de IA, incluindo o Chat GPT. Embora os modelos de linguagem, como o GPT, sejam projetados para processar texto, é possível que informações confidenciais sejam incluídas em suas interações com o sistema”, alerta.
Para mitigar esses riscos, é importante usar o Chat GPT apenas com informações que o usuário também compartilharia publicamente, explica a IA.
“Se você precisar interagir com o Chat GPT usando informações sensíveis, é recomendável que você use uma versão local do modelo em vez de enviar suas informações pela internet. Além disso, é importante avaliar cuidadosamente as políticas de privacidade e segurança de qualquer serviço que use o GPT ou outro modelo de IA antes de compartilhar informações pessoais ou empresariais sensíveis”, recomenda a ferramenta.
Sobre Soluti
A Soluti é uma IDTech que fornece soluções inovadoras em Identidade Digital e Assinaturas Eletrônicas.
O Grupo Soluti nasceu em abril de 2008 como uma pequena prestadora de serviço na área de Certificação Digital, em Goiânia (GO). Começou com o sonho de 3 irmãos empreendedores: Cassio Sousa, Flavia Sousa e Vinicius Sousa. A empresa deu seu primeiro grande salto ao se tornar produtora e vendedora de Certificados Digitais, concorrendo diretamente com os grandes players do mercado. Em 2012, se tornou uma Autoridade Certificadora de Nível 1, a primeira fora de São Paulo.
Com uma política comercial agressiva, em pouco tempo já estava praticamente em todos os Estados brasileiros. O Grupo Soluti detém hoje 40% do mercado nacional de Certificados Digitais, com aumento médio anual de 15% a 20% desde 2015.
Nos últimos anos, o Grupo Soluti vem mudando o seu perfil, ampliando-o para uma empresa de soluções tecnológicas. Com aproximadamente 600 colaboradores diretos no País, tem expandido a sua atuação no mercado por meio de aquisições de empresas que são referências no setor. Neste ano de 2024, criou a Everest Digital e passou a oferecer aos seus clientes o primeiro Data Center Tier III na Região Centro-Oeste do Brasil. Também neste ano adquiriu a empresa Identity del Peru S.A, proprietária da plataforma de assinatura Intellisign, dando um importante passo para a sua internacionalização.
Leia outros artigos publicados sobre a Soluti aqui o Crypto ID!
Somos líderes no mercado de Certificação Digital, com 38% de market share. Acesse o vídeo e conheça mais um pouco sobre o Grupo Soluti. Sobre Soluti em vídeo.
Soluti está entre as 3 melhores empresas para jovens no Brasil
Certificado em nuvem: benefícios e sua funcionalidade
Você quer acompanhar nosso conteúdo? Então siga nossa página no LinkedIn!