Neue Tools: AWS (Bild:Shutterstock)

Die Cloud-Sparte von Amazon, Amazon Web Services (AWS), hat eine Reihe an Neuheiten in seinem Portfolio für Machine Learning (ML) angekündigt. Dabei handelt es sich um unterschiedliche Tools, die den Einsatz und die Nutzung von generativer KI in Unternehmen vereinfachen sollen.

Darunter etwa Amazon Bedrock (Preview) und Amazon Titan FMs. Dabei handelt es sich gemäss den Angaben um einen neuen Managed Service, mit dem Anwenderunternehmen einsatzbereite Applikationen auf Basis von generativer KI erstellen und skalieren können. Amazon Bedrock mache vortrainierte FMs (Foundation Models) von KI-Startups wie AI21 Labs, Anthropic und Stability AI über eine API leicht zugänglich, heisst es. Kunden erhielten zudem Zugang zu Amazon Titan FMs, eine von AWS entwickelte Foundation-Model-Familie. Amazon Bedrock ist ab sofort in der Preview-Version verfügbar. Zu den Kunden, die den Service bereits nutzen, zähle beispielsweise Coda, so Amazon in der Mitteilung.

Desweiteren sind nun die Amazon Inf2-Instanzen für EC2 allgemein verfügbar. Diese basieren gemäss den Infos auf von AWS eigens entwickelten Inferentia2-Chips, die speziell für grosse generative KI-Anwendungen mit Modellen mit Hunderten von Milliarden Parametern optimiert worden seien. Inf2 biete einen bis zu viermal höheren Durchsatz und eine bis zu zehnmal niedrigere Latenzzeit im Vergleich zu Inferentia-basierten Instanzen der vorherigen Generation, betont Amazon. Inf2-Instanzen seien die ersten für Inferenzen optimierten Instanzen in Amazon EC2, die skalierbare verteilte Inferenzen mit Ultra-High-Speed-Konnektivität zwischen Beschleunigern unterstützten. So sollen sie eine um 40 Prozent verbesserte Inferenzleistung und die niedrigsten Kosten für die Ausführung anspruchsvoller generativer KI-Inferenz-Workloads auf AWS bieten.

Allgemein verfügbar sind nun weiters auch die Amazon Trn1n-Instanzen für EC2: Viele AWS-Kunden, darunter Helixon, Money Forward und das Amazon Search-Team, verwenden laut Mitteilung bereits Trn1-Instanzen, um die Trainingszeit von ML-Modellen auf AWS von Monaten auf Wochen oder gar Tage zu verkürzen. Die neuen, netzwerkoptimierten Trn1n-Instanzen auf Basis von AWS Trainium-Chips sollen im Vergleich zur vorherigen Generation mit einer verdoppelten Netzwerkbandbreite von 1.600 Gbit/s und einer um 20 Prozent höheren Leistung für das Trainieren grosser, netzwerkintensiver ML-Modelle aufwarten.

Beim Amazon Codewhisperer letztich, der nun ebenfalls einsatzbereit ist, handelt es sich um einen Service, der Entwicklern Code-Empfehlungen auf der Grundlage ihrer Kommentare in natürlicher Sprache und des Codes in der integrierten Entwicklungsumgebung (IDE) generiert. Codewhisperer ist sowohl auf öffentlich verfügbaren als auch Amazon-Code trainiert. Mit dem Service sollen Entwickler eine neue Möglichkeit erhalten, Code für AWS-Services deutlich schneller, sicherer und genauer zu generieren: Bereits in der Preview habe sich so etwa gezeigt, dass Entwickler ihre Aufgaben mit Codewhisperer um bis zu 57 Prozent schneller abschliessen konnten, heisst es weiters. Ab sofort ist der Amazon CodeWhisperer für alle Entwickler kostenlos verfügbar.

Weitere Infos im Orinigalblog hier!!