Machine learning: acelerando a implantação do seu modelo
Mark McQuade
Os modelos de negócios dependem de dados para impulsionar decisões e fazer projeções para crescimento e desempenho futuros. Tradicionalmente, a análise de negócios tem sido reativa, orientando as decisões em resposta ao desempenho passado. Porém, as principais empresas atuais estão se voltando para machine learning (ML) e IA para aproveitar os dados para análises preditivas. Essa mudança, no entanto, vem com desafios significativos.
De acordo com a IDC, quase 30% das iniciativas de IA e ML falham. Os principais culpados por essa falha são dados de baixa qualidade, baixa experiência e operacionalização desafiadora. Esses dados também exigem muito tempo de manutenção, pois você precisa treinar repetidamente modelos de ML com novos dados durante o ciclo de desenvolvimento, devido à degradação da qualidade dos dados ao longo do tempo.
Vamos explorar os desafios apresentados no desenvolvimento de modelos de ML e como a Rackspace Technology Model Factory Framework simplifica e acelera o processo para que você possa superar esses desafios.
Desafios de machine learning
Entre os aspectos mais difíceis do machine learning está o processo de operacionalização de modelos de ML desenvolvidos que geram insights com precisão e rapidez para atender às necessidades de seus negócios. Você provavelmente já experimentou alguns dos obstáculos mais preponderantes, tais como:
- Coordenação ineficiente do gerenciamento do ciclo de vida entre equipes de operações e engenheiros de ML. De acordo com a Gartner, 60% dos modelos não conseguem chegar à produção devido a essa desconexão.
- Existe um alto grau de expansão de modelos, que é uma situação complexa em que vários modelos são executados simultaneamente em diferentes ambientes, com diferentes conjuntos de dados e hiperparâmetros. Acompanhar todos esses modelos e suas associações pode ser um desafio.
- Os modelos podem ser desenvolvidos rapidamente, mas o processo de implantação pode levar meses, limitando o tempo de valorização. As organizações não têm estruturas definidas para preparação de dados, treinamento de modelos, implantação e monitoramento, além de fortes controles de governança e segurança.
- O modelo DevOps para desenvolvimento de aplicativos não funciona com modelos de ML. A abordagem linear padronizada é redundante pela necessidade de execução de novos treinamentos em um ciclo de vida do modelo com novos conjuntos de dados, à medida que os dados envelhecem e se tornam menos utilizáveis.
O ciclo de vida do modelo de ML é bastante complexo, começando com a ingestão de dados e posterior transformação e validação, para que ele se adapte às necessidades da iniciativa. Um modelo é então desenvolvido e validado, seguido de treinamento. Dependendo do tempo de desenvolvimento, talvez seja necessário realizar repetidos treinamentos conforme o modelo passa pelos ambientes de desenvolvimento, teste e implantação. Após o treinamento, o modelo é então colocado em produção, onde começa a servir aos objetivos dos negócios. Nesta fase, o desempenho do modelo é registrado e monitorado para garantir a adequação.
Crie modelos rapidamente com a Amazon SageMaker
Entre as ferramentas disponíveis para ajudá-lo a acelerar esse processo temos a Amazon SageMaker. Essa plataforma de ML da Amazon Web Services (AWS) oferece um conjunto mais abrangente de recursos para o rápido desenvolvimento, treinamento e execução de seus modelos de ML na nuvem ou na borda. A pilha da Amazon SageMaker vem com modelos para serviços de IA, como recursos de visão computacional, fala e mecanismo de recomendação, bem como modelos para serviços de ML que ajudam a implantar recursos de aprendizado profundo. Ela também oferece suporte às principais estruturas de ML, interfaces e opções de infraestrutura.
Porém, empregar os conjuntos de ferramentas certos é apenas metade da história. Melhorias significativas na implantação do modelo de ML só podem ser alcançadas quando você também considera a melhoria da eficiência do gerenciamento do ciclo de vida entre as equipes que trabalham nelas. Diferentes equipes em diferentes organizações preferem usar conjuntos de ferramentas e estruturas diferentes, o que pode introduzir atraso no ciclo de vida de um modelo. Uma solução aberta e modular — independente da plataforma, das ferramentas ou da estrutura de ML — permite uma fácil adaptação e integração em soluções comprovadas da AWS. Uma solução como essa permitirá que suas equipes usem as ferramentas com as quais se sentem confortáveis.
É aí que entra a Rackspace Technology Model Factory Framework, fornecendo um pipeline de CI/CD para seus modelos que os torna mais fáceis de implantar e rastrear.
Vamos ver como exatamente ela melhora a eficiência e a velocidade em todo o desenvolvimento, implantação, monitoramento e governança para acelerar a colocação do modelo de ML em produção.
Esquema de ML de ponta a ponta
Quando em desenvolvimento, os modelos de ML saem das equipes de ciência de dados e vão para as equipes operacionais. Como observado anteriormente, as variações preferenciais entre essas equipes podem aumentar em muito o atraso caso não haja padronização.
A Rackspace Technology Model Factory Framework oferece uma solução de gerenciamento do ciclo de vida do modelo na forma de um padrão de arquitetura modular, criada com ferramentas de código aberto que são agnósticas quanto a plataforma, ferramentas e estrutura. Ela foi projetada para melhorar a colaboração entre os cientistas de dados e as equipes de operações para que eles possam desenvolver rapidamente modelos, automatizar os pacotes e implantar em ambientes diversos.
A estrutura permite a integração com os serviços da AWS e ferramentas de automação padrão do setor, como Jenkins, Airflow e Kubeflow. Ela é compatível com diversas estruturas, como TensorFlow, scikit-learn, Spark ML, spACy e PyTorch, e pode ser implantada em diferentes plataformas de hospedagem, como Kubernetes ou Amazon SageMaker.
Benefícios da Rackspace Technology Model Factory Framework
A Rackspace Technology Model Factory Framework proporciona grandes ganhos em eficiência, reduzindo o ciclo de vida do ML de uma média de 15 ou mais etapas para apenas cinco. Empregando uma única fonte de verdade para o gerenciamento, ela também automatiza o processo de entrega entre as equipes, simplifica a manutenção e a solução de problemas.
Do ponto de vista dos cientistas de dados, a Model Factory Framework torna o código padronizado e reprodutível em todos os ambientes e permite o acompanhamento de experimentos e treinamento. Também pode resultar em até 60% de economia com custos de computação por meio do acesso com script ao treinamento de instâncias spot. Para equipes de operações, a estrutura oferece ferramentas integradas para diagnósticos, monitoramento de desempenho e redução de desvios do modelo. Ela também oferece um registro para rastreamento das versões dos modelos ao longo do tempo. No geral, isso ajuda a sua organização a melhorar o tempo de implantação do modelo e a reduzir os esforços, acelerando o tempo para insights de negócios e ROI.
Visão geral da solução — desde desenvolvimento e implantação até monitoramento e governança
A Model Factory Framework emprega uma lista selecionada de modelos de Notebook e linguagens proprietárias específicas do domínio, simplificando a integração, a reprodução entre ambientes, rastreando experimentos, ajustando hiperparâmetros e consistentemente empacotando modelos e agnósticos de códigos no domínio.
Uma vez empacotada, a estrutura pode executar o pipeline de ponta a ponta , o que executará os trabalhos de pré-processamento, apresentará trabalhos de engenharia e treinamento, registrará métricas e artefatos gerados e implantará o modelo em vários ambientes.
- Desenvolvimento: a Model Factory Framework suporta múltiplas vias de desenvolvimento. Os usuários podem desenvolver localmente, integrar ao Notebooks Server através dos Integrated Development Environments (IDEs) ou usar o SageMaker Notebooks. Eles podem até mesmo utilizar a implantação automatizada de ambiente usando ferramentas da AWS, como o AWS CodeStar.
- Implantação: vários backends de plataforma são compatíveis com o mesmo código de modelo, e os modelos podem ser implantados no Amazon SageMaker, Amazon EMR, Amazon ECS e Amazon EKS. Os históricos de revisão são rastreados, incluindo artefatos e notebooks com lotes em tempo real e pipelines de inferência de streaming.
- Monitoramento: as solicitações e respostas do modelo são monitoradas para análise detalhada, o que permite a capacidade de abordar modelos e desvio de dados.
- Governança: os artefatos de dados e modelos são claramente separados e o acesso pode ser controlado usando políticas do AWS IAM e conjuntos que controlam armazenamentos de recursos de modelos, modelos e artefatos de pipeline associados. A estrutura também oferece suporte ao controle de acesso baseado em regras por meio do Amazon Cognito, rastreabilidade com controle de versão de dados e auditoria e contabilidade por meio de marcação extensa.
Usando uma combinação de aceleradores comprovados, ferramentas nativas da AWS e a Model Factory Framework, as empresas podem observar uma aceleração significativa na automação do desenvolvimento de modelos, reduzindo atrasos e esforços e experimentando melhorias no tempo de insights e ROI.
Se a sua organização estiver interessada em utilizar a Model Factory Framework para simplificar e acelerar os casos de uso de ML, visite nossas páginas de IA e ML para obter mais informações, incluindo histórias de clientes, detalhes de plataformas suportadas e outros recursos úteis.
Recent Posts
Destaques da palestra do Dr. Werner Vogels: Gerir a Complexidade com Simplicidade
Dezembro 6th, 2024
O poder das parcerias: Palestra do parceiro AWS re:Invent 2024 da Dra. Ruba Borno
Dezembro 5th, 2024
Principais destaques do AWS re: Invent 2024: A visão do Dr. Swami Sivasubramanian para a IA de geração
Dezembro 5th, 2024
Principais destaques do AWS re:Invent 2024: Keynote do CEO com Matt Garman
Dezembro 4th, 2024
Destaques da apresentação do AWS re:Invent 2024 com Peter DeSantis
Dezembro 4th, 2024