Die wichtigsten Highlights von AWS re:Invent 2024: CEO-Keynote mit Matt Garman
by Gary Porter, Senior Solution Architect, Professional Services, Rackspace Technology
Als Matt Garman auf der AWS re:Invent 2024 die Bühne für seine erste Keynote als AWS-CEO betrat, war ich von der Bedeutung dieses Moments beeindruckt. Vor mehr als 60.000 Teilnehmern in Las Vegas und 400.000 Online-Teilnehmern präsentierte Garman eine ehrgeizige Vision für die Befähigung von Kunden - von grundlegenden Diensten wie Compute und Storage bis hin zu bahnbrechenden Fortschritten im Bereich KI. Seine Keynote unterstrich die Mission von AWS, Unternehmen mit den Tools auszustatten, die sie zur Lösung komplexer Herausforderungen und zur Skalierung des Betriebs benötigen, während sie gleichzeitig eine bessere Zukunft gestalten. Im Mittelpunkt dieses Auftrags steht das unerschütterliche Engagement für Innovation und Wandel.
"Wir erfinden, damit Sie sich neu erfinden können"
Garman reflektierte über die Ursprünge von AWS und sein anhaltendes Engagement für Innovation. Er hob den einzigartigen Ansatz des Unternehmens hervor, von den Kundenbedürfnissen ausgehend zu arbeiten - eine Strategie, die durchweg wirkungsvolle Lösungen hervorgebracht hat. Garman kündigte außerdem einen globalen Fonds in Höhe von 1 Milliarde US-Dollar für Startups an, der 2025 aufgelegt werden soll, und bekräftigte damit das Engagement von AWS für die Förderung von Innovationen und die Unterstützung der nächsten Generation von Konstrukteuren.
Bausteine für die Zukunft mit Datenverarbeitung, Speicherung und Datenbanken Die führende Rolle von AWS in den Bereichen Datenverarbeitung und Sicherheit stand im Mittelpunkt, wobei Garman diese Bereiche als Grundlage für die Förderung von Innovationen bezeichnete. AWS verschiebt mit seinen benutzerdefinierten Prozessoren weiterhin die Grenzen der Datenverarbeitung. Der Graviton-Prozessor der vierten Generation bietet eine um 45 % bessere Leistung bei Java-Workloads und reduziert gleichzeitig den Energieverbrauch um 60 %. Die Umstellung von Pinterest auf Graviton führte beispielsweise zu einer Verringerung der Arbeitsbelastung um 47 % und zu einer Senkung der Kohlenstoffemissionen um 62 %. Garman betonte, dass die Sicherheit auf jeder Ebene "eingebaut" ist, so dass die AWS-Services von vornherein sicher bleiben.
Die nächste Grenze, so Garman, sind generative KI-Workloads. Die meisten dieser Arbeitslasten basieren auf GPUs, und die Zusammenarbeit von AWS mit NVIDIA hat dazu geführt, dass die P6-Instanzen mit Blackwell-Chips ausgestattet sind, die 2,5 Mal schneller sind als frühere Generationen. Die AWS-eigenen Trainium-Prozessoren für die KI-Schulung werden mit der Einführung von Tranium 2 UltraServer (Trn2)weiter ausgebaut, um die Möglichkeiten großer KI-Modelle in einer einzigen massiven Instanz zu erweitern. Garman kündigte außerdem den Trainium 3-Prozessor der nächsten Generation an, der 2025 auf den Markt kommen soll und die Position von AWS als führender Anbieter von KI-Infrastruktur weiter stärkt.
Wechsel zu Speicher und Datenbanken Nach seiner Diskussion über die Datenverarbeitung wandte sich Garman den Speicher- und Datenbankservices von AWS zu. Garman hob hervor, wie AWS S3, das inzwischen mehr als 400 Billionen Objekte speichert, mit Funktionen wie Intelligent Tiering, das Kunden Einsparungen von über 4 Milliarden US-Dollar ermöglicht hat, weiterentwickelt wird.
Doch mit dem Wachstum der Speicher wächst auch ihre Komplexität. Um der zunehmenden Verwendung von tabellarischen Datenformaten wie Apache Parquet Rechnung zu tragen, hat Garman Amazon S3 Tableseingeführt, das die Einbindung mehrerer Datentypen in S3 unter Verwendung von Apache Iceberg für die Indizierung ermöglicht. Auch das Metadatenmanagement erhält mit der Ankündigung des Amazon S3 Metadata Service, der jetzt in der Vorschau verfügbar ist, ein Upgrade, das Metadatenprozesse automatisiert und damit das Datenmanagement weiter vereinfacht.
Amazon Aurora, das nun 10 Jahre als einer der am schnellsten wachsenden AWS-Services gefeiert wird, setzt seine Innovationen in rasantem Tempo fort. Garman erläuterte, wie AWS die Datenbankgrundlagen überarbeitet hat, um die Herausforderung der Konsistenz in mehreren Regionen zu bewältigen. Durch die Nutzung von Fortschritten im Amazon Time Sync Service und die Optimierung des Transaktions-Commit-Prozesses hat Aurora die Zeit bis zur Konsistenz von Sekunden auf Mikrosekunden reduziert. Diese Weiterentwicklungen sind jetzt im neuen Amazon Aurora DSQL Service zu sehen, der die Konsistenz moderner Anwendungen mit niedriger Latenz und über mehrere Regionen hinweg ermöglicht. Garman merkte auch an, dass derselbe Ansatz auf NoSQL-Datenbanken angewandt wurde, indem Amazon DynamoDB Global Tables für eine schnellere und konsistentere Leistung verbessert wurde.
KI als Kern der Anwendungen von morgen Generative KI verändert die Industrie, und Garman veranschaulichte ihr Potenzial in seiner Keynote anhand mehrerer überzeugender Beispiele. Amazon Bedrock, die grundlegende Plattform von AWS für die Bereitstellung und Verwaltung von generativen KI-Modellen, steht im Mittelpunkt dieser Transformation. Kunden wie Genentech nutzen Amazon Bedrock für komplexe Anwendungen wie z. B. die Entdeckung von Medikamenten und reduzieren Prozesse, die früher Jahre dauerten, auf wenige Minuten.
Eine der jüngsten Weiterentwicklungen ist Amazon Bedrock Model Distillation, die KI-Modelle vereinfacht und für bestimmte Anwendungsfälle abstimmt. Zusätzlich sorgt Amazon Bedrock Guardrails für Genauigkeit, indem es Bedenken über Halluzinationen in generativen KI-Ausgaben ausräumt.
Die Amazon Bedrock Agents ermöglichen die Zusammenarbeit mehrerer Agenten und Workflows, so dass Kunden komplexe Aufgaben mithilfe von Anweisungen in natürlicher Sprache automatisieren können. Moody's nutzte diese Tools während des Betatests und stellte eine erhebliche Zeitersparnis bei seinen Analyseabläufen fest.
AWS stellte außerdem Amazon Novavor, eine Suite von multimodalen KI-Modellen, die für verschiedene Anwendungen optimiert sind. Amazon Nova Lite ist in den Benchmarks gleichauf mit oder besser als beliebte Modelle wie Llama und Gemini, während Amazon Nova Canvas und Amazon Nova Reel Bild- und Videoerstellung unterstützen. Garman kündigte sogar noch ehrgeizigere Fortschritte an, darunter multimodale bis multimodale Modelle, die Mitte 2025 auf den Markt kommen sollen.
Schließlich wurde Amazon Q, die KI-gestützte Entwicklungs- und Betriebsplattform von AWS, wegen ihrer Fähigkeit zur Beschleunigung der Anwendungsmodernisierung hervorgehoben. Durch die Automatisierung von Aufgaben wie Unit-Tests, Dokumentation und Code-Reviewsverkürzt Amazon Q die Zeit bis zur Programmierung und vereinfacht die Migration von Legacy-Plattformen und ermöglicht nahtlose Upgrades für Windows und VMware Anwendungen.
Vereinfachung von Daten und KI-Workflows Die Vereinfachung von Workflows und die Vereinheitlichung des Datenzugriffs waren zentrale Themen in Garmans Keynote. Mit Amazon Q Businessbietet AWS Unternehmen eine Möglichkeit, Daten über verschiedene Formate hinweg zu konsolidieren und leistungsstarke Indizierungsfunktionen zu nutzen. Diese Funktionen ermöglichen es Unternehmen, Arbeitsabläufe zu optimieren, Prozesse zu automatisieren und die Sicherheit zu gewährleisten.
Garman hob auch die Fortschritte bei Amazon SageMaker hervor, einer zentralen Plattform für Daten und Analysen beim Training von KI-Modellen. AWS hat die Komplexität der Navigation über mehrere Bildschirme erkannt und Amazon SageMaker Unified Studio eingeführt - eine zentrale Schnittstelle, über die Benutzer alle KI-bezogenen Aktivitäten an einem Ort konfigurieren können. Zur weiteren Vereinfachung des Datenzugriffs hat AWS außerdem Amazon SageMaker Lakehousevorgestellt, das die Datenebene durch Vereinheitlichung des Datenzugriffs über S3, Redshift, SaaS und föderierte Quellen hinweg verbessert.
Innovationen durch Kundenerfolge zum Leben erwecken Im Verlauf von Garmans Rede wurde die Innovationsfähigkeit von AWS durch überzeugende Erfolgsgeschichten von Kunden zum Leben erweckt. Der Einsatz von Graviton-Prozessoren bei Pinterest führte zu erheblichen Kosteneinsparungen und einer Verringerung der Kohlendioxidemissionen um 62 %, während JP Morgan Chase die Fähigkeit von AWS zur Bewältigung komplexer Hochleistungs-Workloads demonstrierte. Genentech zeigte, wie Amazon Bedrock die Medikamentenentwicklung beschleunigt und die Dauer von Prozessen, die früher Jahre dauerten, auf wenige Minuten reduziert. Moody's hob die Leistungsfähigkeit von Amazon Bedrock Agents hervor, mit deren Hilfe fortschrittliche Analyse-Workflows automatisiert und erhebliche Effizienzsteigerungen erzielt werden konnten.
Garman schloss seine Keynote, indem er das Engagement von AWS bekräftigte, Kunden die Wahl und Kontrolle über ihre Technologie zu ermöglichen. Von Datenverarbeitung bis hin zu künstlicher Intelligenz und darüber hinaus hilft AWS seinen Kunden, ihre Geschäftsziele zu erreichen und gleichzeitig Innovationen in der gesamten Cloud-Landschaft voranzutreiben.
Wir bei Rackspace Technology sind stolz auf unsere Partnerschaft mit AWS, um unseren Kunden diese Innovationen zu bieten. Besuchen Sie unser Amazon Marketplace-Profil , um die für Ihr Unternehmen verfügbaren AWS-Services zu erkunden.
Recent Posts
Datenhoheit: Damit Ihre Bytes am richtigen Ort sind
Dezember 6th, 2024
Höhepunkte der Keynote von Dr. Werner Vogels: Komplexität mit Einfachheit managen
Dezember 6th, 2024
Die Macht der Partnerschaften: Dr. Ruba Borno's 2024 AWS re:Invent Partner Keynote
Dezember 5th, 2024