Principais destaques do AWS re: Invent 2024: A visão do Dr. Swami Sivasubramanian para a IA de geração
by Paul Jeyasingh, Head of Presales (US), Data Analytics and Gen AI, Rackspace Technology
A palestra do Dr. Swami Sivasubramanian foi uma das sessões mais esperadas no AWS re: Invent 2024, atraindo milhares de entusiastas de ML e IA generativa. No seu discurso, Sivasubramanian revelou uma série de novas funcionalidades e actualizações concebidas para acelerar o percurso da IA generativa. No centro deste esforço está Amazon SageMaker, que simplifica o ciclo de vida da aprendizagem automática (ML), integrando a preparação de dados, a formação de modelos, a implementação e a observabilidade numa plataforma unificada. Ao longo do último ano, a SageMaker introduziu mais de 140 novas capacidades para melhorar os fluxos de trabalho de ML, e Sivasubramanian destacou as actualizações inovadoras do HyperPod e a capacidade de implementar aplicações de IA de parceiros sem problemas na SageMaker.
Os planos HyperPod simplificam a formação LLM
As empresas que estão a construir os seus próprios LLM necessitam de uma enorme capacidade de infraestrutura. A aquisição desta infraestrutura e a reserva de hardware a esta escala requerem um tempo considerável. É por isso que adoramos os planos de treino HyperPod - são um divisor de águas para simplificar o processo de treino de modelos.
Estes planos permitem às equipas criar rapidamente um plano de formação que reserva automaticamente a capacidade necessária. O HyperPod configura um cluster, inicia trabalhos de formação de modelos e pode poupar semanas às equipas de ciência de dados no processo de formação. Construído em blocos de capacidade EC2, o HyperPod cria planos de formação óptimos adaptados a prazos e orçamentos específicos.
O HyperPod também fornece fatias de tempo individuais e AZs disponíveis para acelerar a prontidão do modelo por meio de checkpointing e retomada eficientes. Trata automaticamente as interrupções de instâncias, permitindo que a formação continue sem interrupções e sem intervenção manual.
A governança de tarefas do HyperPod melhora a eficiência dos recursos A governança de tarefas do HyperPod ajuda as empresas a maximizar a utilização de recursos de computação - como aceleradores - automatizando a priorização e o gerenciamento de tarefas de treinamento, ajuste fino e inferência de modelos. Com a gestão de tarefas, as empresas podem definir limites de recursos por equipa ou projeto, enquanto monitorizam a utilização para garantir a eficiência. Esta capacidade pode ajudar a reduzir os custos de infraestrutura, potencialmente até 40%, de acordo com a AWS.
As aplicações de IA dos parceiros melhoram as capacidades do SageMaker
Uma das actualizações de destaque partilhadas durante a apresentação foi a capacidade de implementar aplicações de IA de parceiros diretamente no Amazon SageMaker. Esta nova funcionalidade simplifica o ciclo de vida da implementação do modelo, proporcionando uma experiência totalmente gerida sem qualquer infraestrutura para provisionar ou operar. Também tira partido das funcionalidades robustas de segurança e privacidade do SageMaker. Entre as aplicações disponíveis encontram-se Comet, Deepchecks, Fiddler e Lakera, cada uma oferecendo um valor único para acelerar os fluxos de trabalho de aprendizagem automática.
Os LLM da Amazon Nova trazem versatilidade a Bedrock
Durante a sua intervenção, Sivasubramanian apresentou Amazon Nova, uma família inovadora de modelos de linguagem de grande dimensão (LLMs) concebida para expandir as capacidades do Amazon Bedrock. Cada modelo é adaptado a casos de utilização específicos de IA generativa, com destaques para
- Amazon Nova Micro: Um modelo apenas de texto optimizado para respostas de latência ultra-baixa a um custo mínimo
- Amazon Nova Lite: Um modelo multimodal que oferece processamento de baixa latência para entradas de imagem, vídeo e texto a um custo muito baixo
- Amazon Nova Pro: Um modelo multimodal versátil que equilibra precisão, velocidade e custo para diversas tarefas
- Amazon Nova Premier: O modelo mais avançado, concebido para raciocínios complexos e que serve como o melhor professor para destilar modelos personalizados (disponível no primeiro trimestre de 2025)
- Amazon Nova Canvas: Um modelo de vanguarda especializado na geração de imagens
- Amazon Nova Reel: Um modelo de ponta para geração de vídeo
Estes modelos Nova reflectem o compromisso da AWS em responder às diversas necessidades dos programadores e das empresas, fornecendo ferramentas que combinam a eficiência de custos com capacidades avançadas para alimentar a inovação em todos os sectores.
O Poolside Assistant expande os fluxos de trabalho de desenvolvimento de software
Outro anúncio de destaque da apresentação foi a colaboração da AWS com a Poolside Assistant, uma startup especializada em fluxos de trabalho de desenvolvimento de software. Com base nos modelos Malibu e Point, destaca-se em tarefas como geração de código, testes e documentação. O AWS é o primeiro fornecedor de serviços em nuvem a oferecer acesso a este assistente, que deverá ser lançado em breve.
Stability.ai Stable Diffusion 3.5 avança na geração de texto para imagem
O modelo Stable Diffusion 3.5 da Stability.ai, treinado no Amazon SageMaker HyperPod, está a chegar em breve ao Amazon Bedrock. Este modelo avançado de conversão de texto em imagem, o mais potente da família Stable Diffusion, abre novas possibilidades para aplicações criativas e técnicas.
A Luma AI apresenta a geração de vídeo de alta qualidade com o RAY2
O modelo RAY2 da Luma AI, que chegará em breve ao Amazon Bedrock, permite a geração de vídeo de alta qualidade com suporte para capacidades de texto para vídeo, imagem para vídeo e vídeo para vídeo.
O Amazon Bedrock Marketplace simplifica a descoberta de modelos
O Amazon Bedrock Marketplace oferece um catálogo único de mais de 100 modelos básicos, permitindo que os desenvolvedores descubram, testem e implantem modelos em pontos de extremidade gerenciados. Ferramentas integradas como Agents e Guardrails facilitam a criação e a gestão de aplicações de IA.
Modelo Amazon Bedrock A destilação aumenta a eficiência
A destilação de modelos no Amazon Bedrock simplifica a transferência de conhecimentos de modelos grandes e precisos para modelos mais pequenos e mais eficientes. Estes modelos destilados são até 500% mais rápidos e 75% menos dispendiosos do que os seus homólogos originais, com menos de 2% de perda de precisão em tarefas como a Geração Aumentada por Recuperação (RAG). Esta funcionalidade permite às empresas implementar modelos económicos sem sacrificar a precisão específica de cada caso de utilização.
A Inferência Optimizada de Latência do Amazon Bedrock acelera a capacidade de resposta
A Inferência Optimizada de Latência melhora significativamente os tempos de resposta das aplicações de IA sem comprometer a precisão. Esta melhoria não requer qualquer configuração adicional ou afinação, permitindo às empresas aumentar imediatamente a capacidade de resposta das aplicações.
O Amazon Bedrock Intelligent Prompt Routing optimiza o desempenho da IA
O Intelligent Prompt Routing seleciona o melhor modelo de base da mesma família para cada pedido, equilibrando a qualidade e o custo. Esta capacidade é ideal para aplicações como o serviço de apoio ao cliente, encaminhando as consultas simples para modelos mais rápidos e económicos e as complexas para modelos mais capazes. Ao adaptar a seleção de modelos, as empresas podem reduzir os custos até 30% sem comprometer a precisão.
O Amazon Bedrock introduz o caching imediato
Uma funcionalidade de destaque anunciada durante a apresentação foi o prompt caching no Amazon Bedrock, que permite que o contexto utilizado com frequência seja retido em várias invocações de modelos por até cinco minutos. Isto é especialmente útil para sistemas de Q&A de documentos ou assistentes de codificação que necessitam de uma retenção de contexto consistente. O armazenamento em cache imediato pode reduzir os custos até 90% e a latência até 85% nos modelos suportados.
O índice de IA generativa Amazon Kendra melhora a recuperação de dados
O novo Amazon Kendra Generative AI Index fornece um recuperador gerido para Retrieval-Augmented Generation (RAG) e Bedrock, com conectores para 43 fontes de dados empresariais. Esta funcionalidade integra-se nas bases de dados de conhecimento Bedrock, permitindo aos utilizadores criar assistência generativa baseada em IA com agentes, fluxos de solicitação e guardrails. É também compatível com as aplicações empresariais Amazon Q.
Recuperação de dados estruturados em bases de conhecimento Bedrock
Uma das funcionalidades mais solicitadas, a recuperação de dados estruturados, está agora disponível nas Bases de Dados de Conhecimento do Bedrock. Os utilizadores podem consultar dados em tabelas Amazon Redshift, SageMaker Lakehouse e S3 com suporte Iceberg utilizando linguagem natural. O sistema transforma estas consultas em SQL, recuperando os dados diretamente sem pré-processamento.
O GraphRAG liga relações em bases de dados de conhecimento
As bases de conhecimento Bedrock suportam agora o GraphRAG, combinando técnicas RAG com gráficos de conhecimento para melhorar as aplicações de IA generativa. Esta adição melhora a exatidão e fornece respostas mais abrangentes, ligando as relações entre as fontes de dados.
A automatização de dados do Amazon Bedrock simplifica os fluxos de trabalho
O Amazon Bedrock Data Automation permite a criação rápida de fluxos de trabalho para processamento inteligente de documentos (IDP), análise de media e RAG. Esta funcionalidade pode extrair e analisar dados multimodais, oferecendo informações como resumos de vídeo, deteção de conteúdos de imagem inadequados e análise automática de documentos.
Processamento de dados multimodais em bases de conhecimento Bedrock
Para suportar aplicações que lidam com dados visuais e de texto, as Bases de Conhecimento Bedrock processam agora dados multimodais. Os utilizadores podem configurar o sistema para analisar documentos utilizando o Bedrock Data Automation ou um modelo de base. Isto melhora a precisão e a relevância das respostas, incorporando informações de texto e imagens.
As barreiras de proteção expandem-se para a deteção multimodal de toxicidade
Outra atualização interessante é a deteção multimodal de toxicidade nos Guardrails de Bedrock. Esta funcionalidade alarga as salvaguardas aos dados de imagem e deverá ajudar as empresas a criar aplicações de IA generativa mais seguras. Impede a interação com conteúdos tóxicos, incluindo ódio, violência e má conduta, e está disponível para todos os modelos Bedrock que suportam dados de imagem.
Aproveitar estas inovações no futuro A palestra do Dr. Swami Sivasubramanian apresentou inúmeros anúncios inovadores que prometem transformar o panorama da IA generativa e da aprendizagem automática. Embora tenhamos destacado algumas das actualizações mais interessantes, há muito mais para explorar. Estas inovações oferecem um potencial incrível para ajudar as empresas a obterem resultados com impacto, a criarem novas oportunidades de receitas e a conseguirem poupanças de custos à escala.
Na Rackspace Technology, estamos entusiasmados em ajudar as organizações a aproveitar esses avanços para otimizar suas estratégias de dados, IA, ML e IA generativa. Visite o nosso perfil Amazon Marketplace para saber mais sobre como o podemos ajudar a desbloquear o futuro da computação em nuvem e da IA.
Para obter informações adicionais, assista a este webinar, Building the Foundation for Generative AI with Governance and LLMOps, que analisa mais de perto as estratégias de governação e a excelência operacional para a IA generativa.
Recent Posts
Destaques da palestra do Dr. Werner Vogels: Gerir a Complexidade com Simplicidade
Dezembro 6th, 2024
O poder das parcerias: Palestra do parceiro AWS re:Invent 2024 da Dra. Ruba Borno
Dezembro 5th, 2024
Principais destaques do AWS re: Invent 2024: A visão do Dr. Swami Sivasubramanian para a IA de geração
Dezembro 5th, 2024
Principais destaques do AWS re:Invent 2024: Keynote do CEO com Matt Garman
Dezembro 4th, 2024
Destaques da apresentação do AWS re:Invent 2024 com Peter DeSantis
Dezembro 4th, 2024