Pegasystems, Anbieter für KI-basierte Entscheidungsunterstützung und Workflow-Automation in Unternehmen, kündigt eine Verbindung von Pega GenAI mit den Large Language Models (LLMs) von Amazon Web Services (AWS) und Google Cloud an.
Sie wird es ermöglichen, die von AWS und Google Cloud unterstützten KI-Technologien effektiv in die Entscheidungen und Workflows innerhalb der Pega-Plattform zu integrieren. Die entsprechenden neuen Funktionen werden voraussichtlich in der zweiten Jahreshälfte 2024 verfügbar sein.
Durch die Erweiterung kann die GenAI-Architektur von Pegasystems mit einer Vielzahl von KI-Services und -Modellen verbunden werden, um Lösungen, die mit Pegasystems entwickelt werden, mit generativen KI-Modellen zu unterstützen. Dazu zählen Lösungen von AWS, einschließlich Amazon Bedrock, einem vollständig gemanagten Service, der eine Auswahl aus hochleistungsfähigen Foundation Models von KI-Herstellern über eine einzige API bietet, sowie Amazon Titan; Lösungen von Google Cloud einschließlich Vertex AI und Google Gemini; und Claude von Anthropic. Organisationen steht dadurch eine breite Palette von Funktionen zur Verfügung, um sichere, datenschutzkonforme und verantwortungsvolle Generative-KI-Anwendungen zu entwickeln.
Die generativen KI-Modelle von AWS und Google Cloud werden innerhalb der Plug-und-Play-Architektur Pega Connect GenAI verfügbar sein. Mit ihr können Low-Code-Entwickler Prompts erstellen und in jedem Workflow oder bei jeder Entscheidung einen sofortigen Nutzen aus generativer KI ziehen. Sie haben die Möglichkeit, eigene, mit generativer KI unterstützte Funktionen in ihre Workflows einzubauen und dadurch die Produktivität von Mitarbeitern und Agenten zu erhöhen. Wenn beispielsweise ein Antrags- oder Genehmigungs-Prozess eine Reihe von Dokumenten umfasst, kann mit Pega GenAI eine Komponente erstellt werden, die Dokumente im Handumdrehen zusammenfast und den Endnutzern einen Überblick über die wichtigsten Informationen gibt.
(pd/Pegasystems)