A Inteligência Artificial entrou em alta velocidade, devido ao investimento da Microsoft, com as iniciativas estratégicas em IA generativa da Meta e de outras empresas
Por Paulo de Godoy
Neste ano, a Inteligência Artificial entrou em alta velocidade na agenda corporativa, devido ao investimento de US$ 10 bilhões da Microsoft na OpenAI, com as iniciativas estratégicas em IA generativa da Meta, do Google e de outras empresas.
Já vimos muitos avanços na IA ao longo dos anos, e alguns passos promissores que não se concretizaram, mas não há dúvidas de que ela veio para ficar. Sendo assim, agora é o momento de os CTOs e as equipes de TI analisarem os maiores impactos da próxima era impulsionada pela IA.
Quando se trata do impacto da IA no setor de tecnologia e na sociedade em geral, podemos compará-la à introdução do banco de dados relacional.
Assim como o banco de dados relacional desencadeou uma valorização significativa de grandes conjuntos de dados, afetando tanto os usuários comuns quanto os desenvolvedores de software, a IA e o machine learning (ML) podem ser vistos da mesma forma.
Eles servem tanto como uma base fundamental para criar aplicações poderosas, mas também para aprimorar e transformar a maneira como interagimos com tecnologias inovadoras e conjuntos de dados diversos.
Já estamos presenciando como esses avanços podem acelerar a resolução de problemas complexos de forma muito mais eficiente do que antes.
Os desafios de armazenamento de dados de IA
Para entender os desafios que a IA apresenta do ponto de vista do armazenamento de dados, precisamos examinar seus princípios.
Qualquer recurso de ML requer um conjunto de dados de treinamento. No caso da IA generativa, os conjuntos de dados precisam ser muito grandes e complexos, incluindo diferentes tipos de dados.
A IA generativa depende de modelos complexos, e os algoritmos nos quais ela se baseia podem incluir um número muito grande de parâmetros que devem ser aprendidos.
Quanto maior o número de recursos, o tamanho e a oscilação da saída prevista, maior o nível de volume do lote de dados combinado com o número de períodos nas execuções de treinamento antes que a inferência possa começar.
A IA generativa tem a tarefa de fazer uma suposição fundamentada ou executar uma extrapolação, uma regressão ou uma classificação com base no conjunto de dados. Quanto mais dados o modelo tiver para trabalhar, maior será a chance de um resultado preciso ou de minimizar a função de erro/custo.
Nos últimos anos, a IA tem aumentado constantemente o tamanho desses conjuntos de dados, mas a introdução de grandes modelos de linguagem, nos quais o ChatGPT e outras plataformas de IA generativa se baseiam, fez com que seu tamanho e complexidade aumentassem em uma ordem de magnitude.
Isso ocorre porque os padrões de conhecimento aprendidos que surgem durante o processo de treinamento do modelo de IA precisam ser armazenados na memória, o que pode se tornar um verdadeiro desafio com modelos maiores.
O checkpoint de modelos grandes e complexos também exerce uma enorme pressão sobre a infraestrutura de redes e de armazenamento, pois o modelo não pode continuar até que todos os dados internos tenham sido salvos no checkpoint.
Esses checkpoints funcionam como pontos de reinicialização ou recuperação se o trabalho falhar ou se a taxa de erro não estiver melhorando.
Dada a conexão entre os volumes de dados e a precisão das plataformas de IA, conclui-se que as empresas que investem em IA querem criar seus próprios conjuntos imensos de dados para aproveitar as oportunidades ilimitadas que a IA oferece.
Isso é feito por meio da utilização de redes neurais para identificar os padrões e as estruturas nos dados existentes para criar conteúdo novo e exclusivo.
Como os volumes de dados estão aumentando exponencialmente, é mais importante do que nunca que as empresas utilizem o armazenamento de dados mais denso e eficiente possível, para limitar a expansão dos data centers e os custos crescentes de energia e refrigeração.
Isso apresenta outro desafio que está emergindo como um problema significativo: as implicações dos requisitos de storage em grande escala para que se possa atingir as metas de emissão líquida zero de carbono até 2030-2040.
Está claro que a IA terá um impacto nos compromissos de sustentabilidade devido às demandas extras que ela impõe aos data centers, em um momento em que as pegadas de CO2 e o consumo de energia já são grandes desafios.
Isso só vai aumentar a pressão sobre as organizações, mas pode ser acomodado e gerenciado a partir de escolhas certas.
Os servidores de GPU mais recentes consomem de 6 a 10 kW cada, e a maioria dos data centers existentes não foi projetada para fornecer mais de 15 kW por rack, portanto, há um grande e iminente desafio para os profissionais de data centers à medida que as implementações de GPU aumentam em escala.
Flash ideal para IA
Alguns fornecedores de tecnologia já estão abordando a sustentabilidade no design de seus produtos. Por exemplo, as soluções de armazenamento totalmente flash são consideravelmente mais eficientes do que as de disco giratório (HDD).
Alguns fornecedores estão indo além dos SSDs, criando seus próprios módulos flash que permitem que as matrizes totalmente flash se comuniquem diretamente com o armazenamento flash bruto, o que maximiza os recursos do flash e proporciona melhor desempenho, melhor uso de energia e mais eficiência.
Além de ser mais sustentável do que o HDD, também é fato que o armazenamento flash é muito mais adequado para executar projetos de IA. Isso porque a chave para os resultados é conectar aos dados os modelos de IA ou aplicações alimentadas por IA.
Para fazer isso com sucesso, são necessários tipos de dados grandes e variados, largura de banda de streaming para trabalhos de treinamento, desempenho de gravação para checkpointing (e restaurações de checkpoint), desempenho de leitura aleatória para inferência e, principalmente, tudo isso precisa ser confiável e facilmente acessível 24 horas por dia, 7 dias por semana, entre silos e aplicações. Esse conjunto de características não é possível com o HDD, somente com a tecnologia all-flash.
Os data centers agora estão enfrentando um desafio secundário, mas igualmente importante, que será exacerbado pelo aumento contínuo da IA e do ML.
Trata-se do consumo de água, que deve se tornar uma preocupação ainda maior, principalmente quando se leva em consideração a elevação contínua das temperaturas globais.
Muitos data centers utilizam o resfriamento evaporativo, que funciona pulverizando finas névoas de água em tiras de tecido, com o calor ambiente sendo absorvido pela água, resfriando assim o ar ao redor.
É uma ideia inteligente, mas problemática, dada a pressão adicional que a mudança climática está exercendo sobre os recursos hídricos, principalmente em áreas urbanas.
A consequência é que este método de resfriamento caiu em desuso no ano passado, resultando em uma dependência de métodos de resfriamento mais tradicionais e que consomem muita energia, como o ar-condicionado.
Esse é mais um motivo para avaliar a importância dos data centers totalmente flash, que consomem muito menos energia e não têm os mesmos requisitos de resfriamento intensivo que o HDD e o híbrido.
O próximo passo do storage para IA
À medida que a IA e o ML continuarem a evoluir rapidamente, o foco aumentará na segurança dos dados (para garantir que os inputs por meio de violações não possam alterar o resultado em outputs), na repetibilidade do modelo (usando técnicas como os valores de Shapley para compreender melhor como os inputs alteram o modelo) e em uma ética mais forte (para garantir que essa tecnologia muito poderosa seja usada para realmente beneficiar a humanidade).
Todas essas metas valiosas colocarão cada vez mais novas demandas no armazenamento de dados. Os fornecedores de storage já estão levando isso em consideração em seus projetos de desenvolvimento de produtos, sabendo que os CTOs buscarão soluções de armazenamento seguras, de alto desempenho, dimensionáveis e eficientes que os ajudem a atingir esses objetivos.
Portanto, o foco não deve estar inteiramente nos recursos de hardware e software de armazenamento de dados, pois o cenário é bem complexo.
Inteligência artificial não é o futuro dos negócios: é o presente
Fraudes no E-Commerce? A inteligência artificial pode ajudar
Os riscos do viés de dados nos projetos de inteligência artificial (IA)
Você quer acompanhar nosso conteúdo? Então siga nossa página no LinkedIn!