A OpenAI, empresa de pesquisa e implantação de Inteligência Artificial (IA), anunciou recentemente o lançamento oficial do ChatGPT
Por Bern Elliot
A OpenAI, empresa de pesquisa e implantação de Inteligência Artificial (IA), anunciou recentemente o lançamento oficial do ChatGPT, um novo modelo de Inteligência Artificial Conversacional.
Segundo a OpenAI, o diálogo proporcionado por essa plataforma permite ao ChatGPT responder a questões de seguimento, admitir os seus erros, contestar premissas incorretas e rejeitar pedidos inapropriados.
Desde o seu lançamento, as redes sociais estão repletas de discussões sobre as possibilidades — e perigos — dessa inovação, desde sua capacidade de depurar código até seu potencial para escrever redações para estudantes universitários.
Para ajudar no esclarecimento do tema, o Gartner, principal empresa de pesquisa e consultoria do mundo, compartilha sua visão sobre ChatGPT:
Diferenciação de outras inovações de Inteligência Artificial
O ChatGPT é a união perfeita de dois tópicos atuais e quentes de Inteligência Artificial: chatbots e GPT3. Juntos, eles oferecem um método intrigante de interagir e produzir conteúdo que soa surpreendentemente humano.
Essas tecnologias são resultado de melhorias significativas aprimoradas ao longo dos últimos cinco anos.
Os chatbots permitem a interação de uma maneira conversacional aparentemente ‘inteligente’, enquanto o GPT3 produz resultados que parecem ter ‘entendido’ a pergunta, o conteúdo e o contexto.
Juntos, criam um efeito especial (tipo Uncanny Valley, ou Vale da Estranheza) e inspiram reflexões se é humano ou se é via um computador, ou até mesmo se é ‘um computador humano’, uma vez que a interação pode ser bem-humorada, profunda e até mesmo perspicaz.
Por não ser gerado com inteligência humana, algumas vezes, infelizmente, o conteúdo pode ficar incorreto.
O problema pode estar nos termos ‘compreender’ e ‘inteligente’. Esses são termos carregados de significado implicitamente humano.
Portanto, quando aplicados a um algoritmo, podem resultar em graves mal-entendidos. Assim, a perspectiva mais útil é ver chatbots e Modelos de Linguagem Grande (LLM-Large Language Models, em inglês), como GPT, como ferramentas potencialmente úteis para realizar tarefas específicas, e não como truques.
O sucesso depende da identificação do uso desses aplicativos para as tecnologias que oferecem benefícios significativos para as empresas.
Casos de uso em potencial do ChatGPT
Em um alto nível, os chatbots, ou assistentes de conversação, fornecem uma interação com a curadoria de uma fonte de informação. Eles têm muitos casos de uso, desde o atendimento ao cliente até o auxílio técnico na identificação de problemas.
Em alto nível, o ChatGPT é um caso específico, pois chatbots são empregados para interagir ou conversar com uma fonte de informação, além de serem treinados para uma atividade específica pela OpenAI.
Os dados de aprendizado usados no modelo determinam a maneira como as perguntas serão respondidas.
No entanto, a capacidade do GPT de entregar resultados falhos de forma imprevisível significa que eles só podem ser usados para situações nas quais os erros podem ser tolerados ou corrigidos.
Existem inúmeros casos de uso para modelos de fundação, como GPT, em domínios como visão computacional, engenharia de software e pesquisa e desenvolvimento científico.
Por exemplo, pode-se criar imagens a partir de texto; gerar, revisar e auditar códigos de linguagem natural, incluindo contratos inteligentes; e, até mesmo, na área da saúde para criar medicamentos e decifrar sequências de DNA para classificação de doenças.
Preocupações éticas
Os modelos de fundação de Inteligência Artificial, como o GPT, representam uma grande mudança nesse campo.
Eles oferecem benefícios exclusivos, como reduções massivas no custo e no tempo necessários para criar um modelo específico de domínio. No entanto, eles também apresentam riscos e preocupações éticas, incluindo temas associados a:
– Complexidade – Grandes modelos envolvem bilhões, ou até mesmo trilhões de parâmetros. Em alguns casos, o tamanho torna impraticável o treinamento por parte da maioria das organizações, devido ao consumo de recursos computacionais. Assim, podem se tornar caros e prejudiciais ao meio ambiente;
– Concentração de poder – Esses modelos foram construídos principalmente pelas maiores organizações de tecnologia, com grandes investimentos em Pesquisa e Desenvolvimento (P&D) e significativo talento em Inteligência da Informação.
Isso resultou em uma grande concentração de poder em algumas entidades, o que pode criar um desequilíbrio significativo no futuro;
– Uso indevido potencial – Os modelos de fundação reduzem os custos de criação de conteúdo, fazendo com que fique mais fácil criar Deepfakes (imagens e áudios não reais) semelhantes ao original.
Isso inclui tudo, desde representação de voz e vídeo até artes falsas, bem como ataques direcionados. As sérias preocupações éticas envolvidas em relação a este tema podem prejudicar reputações ou até mesmo causar conflitos políticos;
– Natureza de caixa preta – Esses modelos ainda requerem um treinamento cuidadoso e podem fornecer resultados inaceitáveis devido à sua natureza de caixa preta.
Muitas vezes não estão claros os modelos de base usados nas respostas, podendo propagar o viés downstream nos conjuntos de dados. A homogeneização de tais modelos pode levar a um único ponto de falha;
– Propriedade intelectual – O modelo é treinado por uma equipe de trabalho. Ainda não está claro o precedente legal para a reutilização desse conteúdo e tampouco se ele é derivado da propriedade intelectual de terceiros.
Integração de modelos
Recomenda-se o uso de processamento de linguagem natural (NLP – de Natural Language Processing, em inglês) como classificação, resumo e geração de texto em cenários não voltados aos clientes, assim como a escolha de modelos previamente testados e preparados para as diversas tarefas para evitar customizações e treinamentos dispendiosos.
Os casos de uso revisados por humanos são os preferidos. Assim, é indicado a criação de um documento de estratégia que descreva os benefícios, riscos, oportunidades e o roteiro de implantação para os modelos básicos de Inteligência Artificial, como GPT.
Isso ajudará as empresas a facilmente determinarem se os benefícios superam os riscos para casos de uso específicos.
Use APIs (mecanismos de comunicação entre componentes de software) baseados em Nuvem e escolha o modelo que fornecerá a precisão e a performance necessários para reduzir a complexidade operacional, diminuir o consumo de energia e otimizar o Custo Total de Propriedade.
Priorize os fornecedores que promovem a implantação responsável de modelos, definindo as diretrizes de uso e documentando vulnerabilidades conhecidas.
Acompanhe e divulgue proativamente eventuais comportamentos prejudiciais e cenários de uso indevido para melhoria contínua.
Gartner identifica as principais tendências que impactarão os fornecedores de tecnologia até 2025
Gartner prevê que foco das seguradoras em 2023 será a melhoria da experiência dos clientes
Gartner prevê que 10% das grandes empresas terão programas de proteção ‘Zero Trust’ até 2026
Gartner prevê que gastos mundiais com TI crescerão 2,4% em 2023
Aqui no Crypto ID você encontra reunidos os melhores estudos e pesquisas sobre o universo da Segurança da Informação aplicada a diversas verticais de negócios. Acesse nossa coluna e conheça!
Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.
O Crypto ID trilhou um caminho incrível!
Ao longo de uma década, fomos além das inovações e tendências, tornando-nos referência em segurança digital, identificação e privacidade.
Neste marco tão especial, renovamos nosso compromisso com um mundo digital mais seguro e confiável.
Agradecemos a todos que fizeram e fazem parte dessa trajetória – parceiros, colunistas, colaboradores, assessorias de imprensa e a nossa comunidade! Juntos, estamos construindo um futuro em que empresas, máquinas e pessoas possam confiar muito mais umas nas outra.
Você quer acompanhar nosso conteúdo? Então siga nossa página no LinkedIn!