Amazon Web Services (AWS) hat eine Reihe an Neuheiten in seinem Portfolio für Machine Learning (ML) angekündigt. Dabei handelt es sich um unterschiedliche Tools, die den Einsatz und die Nutzung von generativer KI in Unternehmen vereinfachen sollen.
Amazon Bedrock (Preview) und Amazon Titan FMs
Hierbei geht es um einen neuen Managed Service, mit dem Kunden einsatzbereite Anwendungen auf Basis von generativer KI erstellen und skalieren können. Amazon Bedrock macht vortrainierte FMs (Foundation Models) von KI-Startups wie AI21 Labs, Anthropic und Stability AI über eine API leicht zugänglich; Kunden erhalten außerdem Zugang zu Amazon Titan FMs, eine von AWS entwickelte Foundation-Model-Familie. Amazon Bedrock ist ab sofort in der Preview-Version verfügbar. Zu den Kunden, die den Service bereits nutzen, zählt beispielsweise Coda.
Amazon Inf2-Instanzen für EC2
Diese basieren auf von AWS eigens entwickelten Inferentia2-Chips, die speziell für große generative KI-Anwendungen mit Modellen mit Hunderten von Milliarden Parametern optimiert sind. Inf2 bietet einen bis zu viermal höheren Durchsatz und eine bis zu zehnmal niedrigere Latenzzeit im Vergleich zu Inferentia-basierten Instanzen der vorherigen Generation. Inf2-Instanzen sind die ersten für Inferenzen optimierten Instanzen in Amazon EC2, die skalierbare verteilte Inferenzen mit Ultra-High-Speed-Konnektivität zwischen Beschleunigern unterstützen. So bieten sie laut AWS eine um 40 Prozent verbesserte Inferenzleistung und die niedrigsten Kosten für die Ausführung anspruchsvoller generativer KI-Inferenz-Workloads auf AWS. Zu den AWS-Kunden, die die Inf2-Instanzen bereits verwenden, zählt etwa Runway.
Amazon Trn1n-Instanzen für EC2
Viele AWS-Kunden, darunter Helixon, Money Forward und das Amazon Search-Team, verwenden bereits Trn1-Instanzen, um die Trainingszeit von ML-Modellen auf AWS von Monaten auf Wochen oder gar Tage zu verkürzen. Die neuen, netzwerkoptimierten Trn1n-Instanzen auf Basis von AWS Trainium-Chips bieten im Vergleich zur vorherigen Generation eine verdoppelte Netzwerkbandbreite von 1.600 Gbit/s und eine um 20 Prozent höhere Leistung für das Trainieren großer, netzwerkintensiver ML-Modelle.
Amazon CodeWhisperer
Dabei handelt es sich um einen Service, der Entwicklern Code-Empfehlungen auf der Grundlage ihrer Kommentare in natürlicher Sprache und des Codes in der integrierten Entwicklungsumgebung (IDE) generiert. CodeWhisperer ist sowohl auf öffentlich verfügbaren als auch Amazon-Code trainiert. Mit dem Service erhalten Entwickler eine neue Möglichkeit, Code für AWS-Services deutlich schneller, sicherer und genauer zu generieren: Bereits in der Preview zeigte sich so etwa, dass Entwickler ihre Aufgaben mit CodeWhisperer um bis zu 57 Prozent schneller abschließen konnten. Ab sofort ist der Amazon CodeWhisperer für alle Entwickler kostenlos verfügbar.
www.aws.amazon.com/de