Empresas em todo o mundo estão tomando medidas para regulamentar como seus funcionários usam o ChatGPT no trabalho
Por Adriano da Silva Santos
Empresas em todo o mundo estão tomando medidas para regulamentar como seus funcionários usam o ChatGPT no trabalho.
Como acontece com todas as novas tecnologias, elas podem ser uma fonte de benefícios e riscos e isso vem gerando alertas para o setor como um todo.
Depois de pesquisar as melhores práticas, algumas organizações estão decidindo que – pelo menos por enquanto – os riscos superam os benefícios.
Como resultado, elas estão optando por declarar o seu uso não autorizado e bloquear o acesso a ele nas redes da empresa até que suporte e orientação apropriados possam ser estabelecidos.
Uma pesquisa da Fishbowl sugere que 43% dos profissionais que trabalham usam ferramentas de IA como o ChatGPT para concluir tarefas no trabalho. Mais de dois terços dos entrevistados não disseram a seus chefes que estavam fazendo isso.
O ChatGPT é a plataforma digital de crescimento mais rápido da história, acumulando mais de 100 milhões de usuários em seus primeiros dois meses de disponibilidade.
Para efeito de comparação, o WhatsApp teve tantos usuários depois de três anos e meio, e o Facebook levou quatro anos e meio para atingir o mesmo marco.
Além disso, o ChatGPT também é o primeiro chatbot de processamento de linguagem natural amplamente acessível, impulsionado por inteligência artificial.
Ele pode interagir em conversas semelhantes às humanas e gerar conteúdo como e-mails, livros, letras de músicas e códigos de aplicativos.
Por outro lado, dúvidas aparecem de como aproveitá-lo de um forma segura, assim como também quais são as implicações a privacidade e responsabilidade das organizações envolvidas no processo? Apesar de todos esses questionamentos, é muito cedo para saber todas as vantagens e desvantagens potenciais associadas a essa ferramenta de IA. Contudo, há alguns riscos eminentes que toda empresa já deve considerar como certos para o futuro.
Um claro exemplo disso é se informações confidenciais de terceiros ou internas da empresa forem inseridas no ChatGPT. Essas informações se tornarão parte do modelo de dados do chatbot e poderão ser compartilhadas com outras pessoas que fizerem perguntas relevantes, resultando em vazamento de dados.
Qualquer divulgação não autorizada de informações confidenciais no ChatGPT (ou qualquer fonte online) pode violar as políticas de segurança de uma organização.
Por isso, caso a segurança seja comprometida, o acordo contratual pode ser quebrado, fazendo com que legalmente seja atribuído à companhia todos os prejuízos subsequentes.
Outro aspecto importante se trata de quem é o proprietário do código que o ChatGPT gera. Os termos de serviço indicam que a saída do ChatGPT é propriedade da pessoa ou serviço que forneceu a entrada.
As complicações surgem quando essa saída inclui dados legalmente protegidos que foram coletados da entrada de outras fontes.
Existem questões de direitos autorais se o ChatGPT for usado para gerar material escrito inspirado em propriedade protegida por direitos autorais, incluindo materiais de código aberto licenciados.
Por exemplo, se o ChatGPT for treinado em bibliotecas de código aberto e “reproduzir” esse código ao responder a uma pergunta, e um desenvolvedor colocar esse código em produtos que uma empresa envia, isso pode colocar a empresa em violação de software de código aberto “hostil”.
Os termos de serviço indicam que o ChatGPT não pode ser usado no desenvolvimento de qualquer outra IA. O seu uso dessa maneira pode comprometer o desenvolvimento futuro caso a empresa esteja apropriando-se dele de alguma forma indevida como na situação citada acima.
Geralmente, o ChatGPT avisa os usuários sobre fornecer ou inserir informações confidenciais ou pessoais, como nomes ou endereços de e-mail.
No entanto, não está claro como os criadores desta ferramenta cumprem as leis internacionais de privacidade ou se os controles apropriados estão em vigor para proteger os dados pessoais e respeitar os direitos dos indivíduos aos seus dados.
Fornecer quaisquer dados pessoais a um sistema de IA generativo abre a possibilidade de que informações possam ser reutilizadas para fins adicionais.
O uso de dados pessoais para fins não aprovados pode violar a confiança dos indivíduos que forneceram suas informações à sua organização e violar os compromissos de privacidade da organização com funcionários, clientes e parceiros.
Por conta disso, cada empreendimento deve avaliar se a plataforma – e as muitas ferramentas de IA que se seguirão – são seguros de serem usadas.
A adoção de tecnologias de ponta certamente pode viabilizar os negócios, porém as novas plataformas sempre devem ser avaliadas quanto a possíveis riscos de segurança cibernética, legais e de privacidade.
Sobre Adriano da Silva Santos
O jornalista e escritor, Adriano da Silva Santos é colunista colaborativo do Crypto ID. Formado na Universidade Nove de Julho (UNINOVE). Reconhecido pelos prêmios de Excelência em webjornalismo e jornalismo impresso, é comentarista do podcast “Abaixa a Bola” e colunista de editorias de criptomoedas, economia, investimentos, sustentabilidade e tecnologia voltada à medicina.
Adriano Silva (@_adrianossantos) / Twitter
Leia outros artigos escritos por Adriano da Silva Santos aqui
Cinco profissionais de outras áreas que podem facilmente transitar para a cibersegurança
As 10 empresas de cibersegurança mais disruptivas de 2023
Influência do Marketing e RP na resposta a incidentes virtuais
Você quer acompanhar nosso conteúdo? Então siga nossa página no LinkedIn!