Blake Lemoine um engenheiro da Google, chamou atenção mundialmente ao afirmar que a inteligência artificial do projeto LaMDA
Por Luis Quiles Ardila
Recentemente, Blake Lemoine um engenheiro da Google, chamou atenção mundialmente ao afirmar que a inteligência artificial do projeto LaMDA, a IA conversacional mais avançada da Google, tinha senciência, ou seja, capacidade de ser afetada positiva ou negativamente por experiências externas ou internas. Segundo Lemoine, a tecnologia adquiriu percepção e capacidade de expressar pensamentos e sentimentos ao nível de uma criança humana.
Blake foi afastado por quebra de cláusulas de privacidade. Se entre o público leigo a declaração do engenheiro causou furor, medo e um certo fascínio, entre os especialistas o sentimento foi de choque. Afinal, como um engenheiro que conhece as técnicas utilizadas fala de uma IA com senciência? Importante ressaltar que Blake não é um especialista em machine learning, mas um profissional dedicado a testar a tecnologia sobre a qual provavelmente não tinha conhecimento profundo.
Em resposta à declaração de Blake, Google afirmou que a LaMDA está desenhada exatamente para imitar a senciência. As soluções que simulam a senciência/consciência não são nada novas. Nos países asiáticos, são populares os bots sociais que engajam os usuários simulando uma relação de amizade – e até iniciam conversas de forma proativa. Desde 2014, a Microsoft desenvolve o XiaoIce com quase 700 milhões de usuários ativos e com uma média de 23 interações entre bot e humano por conversa. O XiaoIce tem como objetivo simular uma personalidade e consciência seguindo o gosto do usuário.
Apesar de conseguir esse nível de engajamento, a IA não é realmente senciente, mas sim que tem mecanismos desenhados para simular a senciência. Portanto, conseguir enganar Blake é uma prova de que a tecnologia de fato está cumprindo seu papel.
Mesmo não sendo senciente, a nova geração de soluções de IA da Google é disruptiva. É o resultado de um trabalho iniciado em 2013 com a publicação do paper Efficient Estimation of Word Representations in Vector Space (estimativa eficiente de representações de palavras no espaço vetorial, em tradução livre). Em 2017, Google apresentou os transformers, tecnologia baseada na utilização de redes neurais profundas que processam o texto de forma sequencial e consegue aprender a construção da linguagem. A aplicação básica desse tipo de inteligência consiste em prever a frase mais provável numa sequência textual.
Soluções que utilizam transformers recebem o nome de Self Supervised Learning (aprendizagem auto-supervisionada, em tradução livre). O aprendizado se dá pelo acesso a grandes bases de linguagem, seja em livros, sites, vídeos etc. Como conseguem absorver a complexidade da linguagem, a evolução desse tem sido exponencial. Em 2018, Google publicou o primeiro modelo de transformers famoso o BERT, modelo como 110 milhões de parâmetros. Em 2020, lançou o GPT-3 de OpenAI com 175 bilhões de parâmetros. E, em abril, publicou o modelo PaLM, com 540 bilhões de parâmetros. Quanto maior o número de parâmetros, maior a capacidade para obtenção de conhecimento e entendimento da linguagem.
O último modelo liberado pelo Google, PaLM, é o que melhor representa o estado da arte atual das soluções de processamento de linguagem natural. Isso decorre não apenas por ser o modelo com mais parâmetros, mas porque o modelo utilizou técnicas inovadoras no treinamento que minimizam o número de neurônios da rede ativos para cada input, de forma que linguagens parecidas ativam zonas da rede neural semelhantes. Isso permite a redução de tempo de execução e o consumo de energia.
O modelo PaLM é multiuso e pode ser utilizado em diversas situações. Ele pode, por exemplo, a partir de um texto de referência, responder uma pergunta relacionada ao texto. Interessante que a resposta pode incluir informações que de outras fontes diferentes do texto base. Também pode explicar a lógica de uma piada, além de resolver e explicar a solução para um determinado problema matemático.
Ainda estamos longe de ver aplicações de IA sencientes. É cedo para dizer que elas nunca existirão. Mas a evolução ocorrida na última década na capacidade de linguagem é assombrosa. Há poucas dúvidas que a codificação de software, em breve, será feita em linguagem natural – sem a necessidade de utilização de linguagem de programação. Na NTT DATA, temos soluções em funcionamento para geração de código utilizando o modelo GPT-3 da Open AI. Também utilizaremos IA para análises de texto complexos, como, por exemplo, na automatização de documentos legais.
Inteligência Artificial pode otimizar operações na medicina diagnóstica
Digitalks Expo: de tecnologia aeroespacial até o uso de inteligência artificial em redes sociais
Inteligência Artificial: consenso é a chave para um mundo robotizado
Inteligência Artificial pode movimentar US$ 62,5 bilhões até o fim de 2022
Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.