São Paulo, 8 de maio de 2024 – A Red Hat, Inc., líder global no fornecimento de soluções open source acaba de lançar o Red Hat Enterprise Linux AI (RHEL AI), plataforma de modelo fundacional que permite que clientes desenvolvam, testem e implantem modelos de IA generativa (GenAI) de forma mais simples e prática. O RHEL AI une a família de large language models (LLM) Granite, da IBM Research, que é licenciada de forma open-source, ferramentas de alinhamento de modelos do InstructLab baseadas na metodologia LAB (Large-scale Alignment for chatBots) e uma abordagem orientada pela comunidade para o desenvolvimento de modelos por meio do projeto InstructLab.
A solução completa é vendida como um RHEL otimizada e usada como boot para implantação em servidores individuais por toda a nuvem híbrida e também está disponível como parte do OpenShift AI, plataforma de híbrida de operações de machine learning (MLOps) da Red Hat, para operar modelos e o InstructLab em escala em ambientes de cluster distribuídos.
O lançamento do ChatGPT gerou tremendo interesse na GenAI e o ritmo de inovação só acelerou desde então. Empresas evoluíram das primeiras avaliações de serviços de GenAI para construir aplicações capacitadas para IA. O crescente ecossistema de opções de modelos open source gerou mais inovação de IA e ilustrou que não haverá “um modelo para governar a todos”, como esperado. Ao invés disso, clientes vão se beneficiar de uma gama de opções para atender a necessidades específicas que deverão ser supridas por uma abordagem aberta para a inovação.
Implementar uma estratégia de IA exige mais do que apenas escolher um modelo; organizações de tecnologia precisam da expertise para ajustar determinado modelo para um caso de uso específico, bem como lidar com os custos significativos da implementação da IA. As lacunas de habilidades no ramo de ciências de dados se somam à necessidade de investimentos financeiros significativos, incluindo:
Adquirir infraestrutura de IA ou consumir serviços dessa tecnologia
O processo complexo de ajustar modelos de IA para necessidades específicas.
Integrar a IA em aplicações empresariais.
Gerenciar tanto aplicações quanto ciclo de vida dos modelos.
Para realmente reduzir as barreiras de entrada para a inovação IA, as empresas precisam ser capazes de expandir a lista de quem pode trabalhar com essas iniciativas ao mesmo tempo em que mantêm esses custos sob controle. Com ferramentas de alinhamento do InstructLab, chamados de modelos Granite e o RHEL AI, a Red Hat visa aplicar os benefícios de projetos verdadeiramente open source — acessíveis a todos e reutilizáveis, totalmente transparentes e abertos para contribuições — para a GenAI, em um esforço para diminuir obstáculos.
Construindo a IA open source com o InstructLab
A IBM Research criou a técnica Large-scale Alignment for chatBots (LAB), uma abordagem para alinhamento de modelos que usa geração de dados sintética orientada por taxonomia e uma nova estrutura de tuning com diversas fases. A prática torna o desenvolvimento de modelos de IA mais aberto e acessível para todos os usuários ao reduzir a dependência de anotações humanas caras e modelos proprietários. Usando o método LAB, os modelos podem ser melhorados ao especificar as habilidades e conhecimento relacionados à taxonomia, gerando dados sintéticos a partir de informações em escala para influenciar o modelo e usar os dados gerenciados para treinamento dos modelos.
Após ver que o método LAB poderia ajudar a melhorar sifgnificativamente a performance dos modelos, IBM e Red Hat decidiram lançar o InstructLab, uma comunidade open source construída em torno do método LAB e dos modelos open source Granite, da IBM. O projeto InstructLab visa colocar o desenvolvimento de LLM nas mãos dos desenvolvedores ao tornar a construção e a contribuição de um LLM tão simples quanto contribuir com qualquer outro projeto open source.
Como parte do lançamento do InstructLab, a IBM também lançou uma família do Granite em inglês e modelos de código open source. Estes modelos estão sendo lançados sob a licença Apache com total transparência sobre as bases de dados usadas para treinar estes modelos. O modelo de linguagem Granite 7B English foi integrado à comunidade InstructLab, onde os usuários finais podem contribuir com as habilidades e conhecimento para melhorar coletivamente este modelo, da mesma forma que fariam se estivessem contribuindo com qualquer outro projeto open source. Em breve disponibilizaremos suporte similar para modelos de código do Granite dentro do InstructLab.
Inovação IA open source em uma estrutura Linux confiável
O RHEL AI tem como base essa abordagem aberta para a inovação, incorporando uma versão pronta para a empresa do projeto InstructLab e dos modelos de idioma e código do Granite combinados com a plataforma líder global em Linux, simplificando a implantação em uma infraestrutura de nuvem híbrida. Isto cria uma plataforma de modelos fundacionais a fim de trazer padrões de GenAI open source licenciados para a empresa.
O RHEL IA inclui:
Modelos Granite para código e idiomas licenciados de forma open source que contam com suporte completo e apoio da Red Hat para indenizações.
Uma distribuição do InstructLab com suporte e ciclo de vida que fornece uma solução escalável e barata para aprimorar funcionalidades de LLM e tornar contribuições de habilidades e conhecimento acessíveis a mais usuários.
Instâncias de execução de modelo que podem ser usadas como boot com modelos Granite e pacotes de ferramentas do InstructLab disponibilizados como imagens do RHEL que podem ser “bootáveis” por meio do modo imagem do RHEL, incluindo Pytorch, bibliotecas de execução necessárias e aceleradores de hardware para NVIDIA, Intel e AMD.
Promessa de suporte empresarial completo e ciclo de vida da Red Hat, que começa com uma distribuição de produto empresarial confiável, suporte em produção 24×7, suporte estendido para o ciclo de vida do modelo e indenização à propriedade intelectual do modelo.
À medida que as organizações experimentam e ajustam novos modelos de IA no RHEL AI, elas têm um ramp-up (aumento da produtividade) pronto para escalar fluxos de trabalho com o Red Hat OpenShift AI, que incluirá o RHEL AI e onde podem aproveitar o mecanismo de Kubernetes do OpenShift para treinar e disponibilizar modelos de IA em escala e as funcionalidades MLOps integradas do OpenShift AI para gerenciar o ciclo de vida do modelo. O OpenShift AI e o RHEL AI também serão integrados com o IBM Watsonx, o que traz funcionalidades adicionais para o desenvolvimento de IA empresarial, gerenciamento de dados e governança do modelo.
A nuvem é híbrida. A IA também.
Por mais de 30 anos, as tecnologias open source combinaram inovação rápida com custos de TI altamente reduzidos e menores barreiras à inovação. A Red Hat tem liderado essa mudança durante quase todo esse período, desde a entrega de plataformas Linux empresariais open com o RHEL no início dos anos 2000 até na orientação de contêineres e Kubernetes como a base para a nuvem híbrida aberta e computação nativa em nuvem com o Red Hat OpenShift.
Esta mudança continua com a Red Hat impulsionando estratégias AI/ML na nuvem híbrida aberta, possibilitando que as cargas de trabalho de IA operem onde os dados estão, seja no datacenter, várias nuvens híbridas ou na edge. Mais do que apenas as cargas de trabalho, a visão da Red Hat para a IA leva o treinamento de modelos e tuning por esse mesmo caminho para solucionar limitações em torno da soberania de dados, compliance e integridade operacional. A consistência entregue pelas plataformas da Red Hat por todos estes ambientes, não importa onde operem, é essencial para manter a inovação em IA fluindo.
RHEL AI e a comunidade InstructLab entregam ainda mais esta visão, rompendo muitas das barreiras para a experimentação com IA e a construção de modelos enquanto fornece as ferramentas, dados e conceitos necessários para alimentar a próxima onda de cargas de trabalho inteligentes.
Sobre a Red Hat, Inc.
A Red Hat é a líder global no fornecimento de soluções empresariais open source e usa uma abordagem de parceria com as comunidades para entregar tecnologias Linux, de cloud híbrida, de containers e Kubernetes confiáveis e de alta performance. A Red Hat ajuda os clientes a integrar aplicações de TI existentes e novas, desenvolver aplicações nativas em cloud, padronizar com o sistema operacional líder no setor e automatizar, proteger e gerenciar ambientes complexos. Premiados serviços de suporte, treinamento e consultoria tornam a Red Hat uma confiável parceira das empresas da Fortune 500. Atuando com fornecedores de cloud, integradores de sistemas, fornecedores de aplicações, clientes e comunidades open source, a Red Hat ajuda as organizações a se preparar para o futuro digital.