Aspectos destacados de AWS re:Invent 2024: La visión del Dr. Swami Sivasubramanian sobre la IA de última generación

by Paul Jeyasingh, Head of Presales (US), Data Analytics and Gen AI, Rackspace Technology

Key Highlights from AWS re:Invent 2024: Dr. Swami Sivasubramanian’s Vision for Gen AI

 

La ponencia del Dr. Swami Sivasubramanian fue una de las sesiones más esperadas de AWS re:Invent 2024 y atrajo a miles de entusiastas del ML y la IA generativa. En su discurso, Sivasubramanian desveló una serie de nuevas funciones y actualizaciones diseñadas para acelerar el viaje de la IA generativa. Un elemento central de este esfuerzo es Amazon SageMaker, que simplifica el ciclo de vida del aprendizaje automático (ML) integrando la preparación de datos, la formación de modelos, el despliegue y la observabilidad en una plataforma unificada. En el último año, SageMaker ha introducido más de 140 nuevas funciones para mejorar los flujos de trabajo de ML, y Sivasubramanian destacó las innovadoras actualizaciones de HyperPod y la capacidad de implementar aplicaciones de IA de socios sin problemas en SageMaker.

Los planes HyperPod simplifican la formación en LLM

Las empresas que construyen sus propios LLM necesitan una enorme capacidad de infraestructura. Adquirir esta infraestructura y reservar hardware a tal escala lleva un tiempo considerable. Por eso nos encantan los planes de entrenamiento de HyperPod : cambian las reglas del juego para agilizar el proceso de entrenamiento de modelos.

Estos planes permiten a los equipos crear rápidamente un plan de formación que reserva automáticamente la capacidad necesaria. HyperPod configura un clúster, inicia trabajos de formación de modelos y puede ahorrar a los equipos de ciencia de datos semanas en el proceso de formación. Construido sobre bloques de capacidad EC2, HyperPod crea planes de formación óptimos adaptados a plazos y presupuestos específicos.

HyperPod también proporciona segmentos de tiempo individuales y AZ disponibles para acelerar la preparación del modelo mediante una comprobación y reanudación eficientes. Gestiona automáticamente las interrupciones de las instancias, lo que permite que la formación continúe sin problemas y sin intervención manual.

El gobierno de tareas de HyperPod mejora la eficiencia de los recursos El gobierno de tareas de HyperPod ayuda a las empresas a maximizar la utilización de los recursos informáticos -como los aceleradores- automatizando la priorización y gestión de las tareas de formación, ajuste e inferencia de modelos. Con la gobernanza de tareas, las empresas pueden establecer límites de recursos por equipo o proyecto a la vez que supervisan la utilización para garantizar la eficiencia. Esta capacidad puede ayudar a reducir los costes de infraestructura, potencialmente hasta en un 40%, según AWS.

Las aplicaciones de IA de los socios mejoran las capacidades de SageMaker

Una de las actualizaciones más destacadas que se compartieron durante la keynote fue la posibilidad de implementar aplicaciones de IA de socios directamente en Amazon SageMaker. Esta nueva función agiliza el ciclo de vida de la implantación de modelos, proporcionando una experiencia totalmente gestionada sin infraestructura que aprovisionar o manejar. También aprovecha las sólidas funciones de seguridad y privacidad de SageMaker. Entre las aplicaciones disponibles se encuentran Comet, Deepchecks, Fiddler y Lakera, cada una de las cuales ofrece un valor único para acelerar los flujos de trabajo de aprendizaje automático.

Los LLM de Amazon Nova aportan versatilidad a Bedrock

Durante su discurso, Sivasubramanian presentó Amazon Nova, una innovadora familia de grandes modelos lingüísticos (LLM) diseñada para ampliar las capacidades de Amazon Bedrock. Cada modelo está adaptado a casos de uso específicos de IA generativa, entre los que destacan:

  • Amazon Nova Micro: Un modelo de solo texto optimizado para respuestas de latencia ultrabaja a un costo mínimo
  • Amazon Nova Lite: Un modelo multimodal que ofrece procesamiento de baja latencia para entradas de imagen, vídeo y texto a un costo muy bajo
  • Amazon Nova Pro: Un modelo multimodal versátil que equilibra precisión, velocidad y coste para diversas tareas
  • Amazon Nova Premier: El modelo más avanzado, construido para razonamientos complejos y que sirve como el mejor maestro para destilar modelos personalizados (disponible en el primer trimestre de 2025)
  • Lienzo Amazon Nova: Un modelo de vanguardia especializado en la generación de imágenes
  • Amazon Nova Reel: Un modelo de vanguardia para la generación de vídeo

Estos modelos Nova reflejan el compromiso de AWS de satisfacer las diversas necesidades de desarrolladores y empresas, ofreciendo herramientas que combinan rentabilidad con capacidades avanzadas para impulsar la innovación en todos los sectores.

Poolside Assistant amplía los flujos de trabajo de desarrollo de software

Otro anuncio destacado de la keynote fue la colaboración de AWS con Poolside Assistant, una startup especializada en flujos de trabajo de desarrollo de software. Gracias a los modelos Malibu y Point, destaca en tareas como la generación de código, las pruebas y la documentación. AWS es el primer proveedor en la nube que ofrece acceso a este asistente, cuyo lanzamiento está previsto en breve.

Stability.ai Stable Diffusion 3.5 avanza en la generación de texto a imagen

El modelo Stable Diffusion 3.5 de Stability.ai, entrenado en Amazon SageMaker HyperPod, llegará pronto a Amazon Bedrock. Este avanzado modelo de conversión de texto a imagen, el más potente de la familia Stable Diffusion, abre nuevas posibilidades para aplicaciones creativas y técnicas.

Luma AI introduce la generación de vídeo de alta calidad con RAY2

El modelo RAY2 de Luma AI, que llegará pronto a Amazon Bedrock, permite la generación de vídeo de alta calidad con soporte para capacidades de texto a vídeo, imagen a vídeo y vídeo a vídeo.

Amazon Bedrock Marketplace simplifica el descubrimiento de modelos

Amazon Bedrock Marketplace ofrece un catálogo único de más de 100 modelos de cimientos, lo que permite a los desarrolladores descubrir, probar e implementar modelos en puntos finales administrados. Herramientas integradas como Agents y Guardrails facilitan la creación y gestión de aplicaciones de IA.

Amazon Bedrock Model La destilación mejora la eficiencia

La destilación de modelos en Amazon Bedrock simplifica la transferencia de conocimientos de modelos grandes y precisos a modelos más pequeños y eficaces. Estos modelos destilados son hasta un 500% más rápidos y un 75% menos costosos que sus homólogos originales, con menos de un 2% de pérdida de precisión en tareas como la generación mejorada por recuperación (RAG). Esta característica permite a las empresas implantar modelos rentables sin sacrificar la precisión específica de cada caso de uso.

Amazon Bedrock Latency Optimized Inference acelera la capacidad de respuesta

La inferencia de latencia optimizada mejora significativamente los tiempos de respuesta de las aplicaciones de IA sin comprometer la precisión. Esta mejora no requiere configuración ni ajustes adicionales, lo que permite a las empresas aumentar inmediatamente la capacidad de respuesta de las aplicaciones.

Amazon Bedrock Intelligent Prompt Routing optimiza el rendimiento de la IA

Intelligent Prompt Routing selecciona el mejor modelo de base de la misma familia para cada solicitud, equilibrando calidad y coste. Esta capacidad es ideal para aplicaciones como el servicio de atención al cliente, que dirige las consultas sencillas a modelos más rápidos y rentables, y las complejas a modelos más capaces. Al adaptar la selección de modelos, las empresas pueden reducir los costes hasta un 30% sin comprometer la precisión.

Amazon Bedrock introduce el almacenamiento en caché rápido

Una característica destacada anunciada durante la keynote fue el almacenamiento en caché en Amazon Bedrock, que permite conservar el contexto utilizado con frecuencia en varias invocaciones de modelos durante un máximo de cinco minutos. Esto es especialmente útil para los sistemas de preguntas y respuestas sobre documentos o los asistentes de codificación que necesitan una retención coherente del contexto. El almacenamiento en caché puede reducir los costes hasta un 90% y la latencia hasta un 85% en los modelos compatibles.

Amazon Kendra Generative AI Index mejora la recuperación de datos

El nuevo Índice de Inteligencia Artificial Generativa de Amazon Kendra proporciona un recuperador gestionado para Retrieval-Augmented Generation (RAG) y Bedrock, con conectores a 43 fuentes de datos empresariales. Esta función se integra con las bases de conocimientos de Bedrock, lo que permite a los usuarios crear asistencia generativa basada en IA con agentes, flujos de avisos y guardarraíles. También es compatible con las aplicaciones empresariales Amazon Q.

Recuperación de datos estructurados en bases de conocimiento Bedrock

Una de las funciones más solicitadas, la recuperación de datos estructurados, ya está disponible en Bedrock Knowledge Bases. Los usuarios pueden consultar datos en Amazon Redshift, SageMaker Lakehouse y tablas S3 compatibles con Iceberg mediante lenguaje natural. El sistema transforma estas consultas en SQL, recuperando los datos directamente sin preprocesamiento.

GraphRAG vincula relaciones en bases de conocimiento

Las bases de conocimiento de Bedrock son ahora compatibles con GraphRAG, que combina técnicas RAG con grafos de conocimiento para mejorar las aplicaciones de IA generativa. Esta adición mejora la precisión y proporciona respuestas más completas al vincular las relaciones entre las fuentes de datos.

Amazon Bedrock Data Automation agiliza los flujos de trabajo

Amazon Bedrock Data Automation permite crear rápidamente flujos de trabajo para el procesamiento inteligente de documentos (PID), el análisis de medios y el GAR. Esta función puede extraer y analizar datos multimodales, ofreciendo información como resúmenes de vídeos, detección de contenido de imágenes inapropiado y análisis automatizado de documentos.

Tratamiento multimodal de datos en bases de conocimiento Bedrock

Para dar soporte a las aplicaciones que manejan tanto datos textuales como visuales, las bases de conocimiento de Bedrock procesan ahora datos multimodales. Los usuarios pueden configurar el sistema para que analice los documentos utilizando Bedrock Data Automation o un modelo de base. Esto mejora la precisión y pertinencia de las respuestas al incorporar información de texto e imágenes.

Los guardarraíles se amplían a la detección multimodal de toxicidad

Otra actualización interesante es la detección multimodal de toxicidad en los Bedrock Guardrails. Esta función amplía las salvaguardias a los datos de imágenes y debería ayudar a las empresas a crear aplicaciones de IA generativa más seguras. Evita la interacción con contenidos tóxicos, incluidos el odio, la violencia y la mala conducta, y está disponible para todos los modelos de Bedrock que admiten datos de imágenes.

Aprovechar estas innovaciones en el futuro La ponencia principal del Dr. Swami Sivasubramanian presentó numerosos anuncios innovadores que prometen transformar el panorama de la IA generativa y el aprendizaje automático. Aunque hemos destacado algunas de las actualizaciones más interesantes, hay mucho más por explorar. Estas innovaciones ofrecen un potencial increíble para ayudar a las empresas a obtener resultados impactantes, crear nuevas oportunidades de ingresos y ahorrar costes a gran escala.

En Rackspace Technology, nos entusiasma ayudar a las organizaciones a aprovechar estos avances para optimizar sus estrategias de datos, IA, ML e IA generativa. Visite nuestro perfil de Amazon Marketplace para obtener más información sobre cómo podemos ayudarle a desbloquear el futuro de la informática en la nube y la IA.

Para obtener más información, vea este seminario web, Building the Foundation for Generative AI with Governance and LLMOps, en el que se examinan más de cerca las estrategias de gobernanza y la excelencia operativa para la IA generativa.

Más información sobre cómo podemos ayudarle a construir el futuro en AWS