Das Heidelberger KI-Start-up Aleph Alpha hat nach eigenen Angaben erstmals einen Meilenstein auf dem Weg zu inhaltlich korrekter, erklärbarer und vertrauenswürdiger Künstlicher Intelligenz erreicht.
Eine ab heute verfügbare Erweiterung des hauseigenen Sprachmodells Luminous sei in der Lage, Zusammenhänge in Informationen und faktische Korrektheit auf Basis von gesicherten Fakten nachzuvollziehen, erklärte das Unternehmen am Donnerstag. Gleichzeitig sei das System in der Lage, darzustellen, welche Textstellen in einer Quelle die generierte Antwort verursacht haben oder im Widerspruch dazu stehen.
Sollten sich die Angaben von Aleph Alpha in unabhängigen Tests bestätigen, wäre dem Heidelberger Unternehmen ein wichtiger Schritt gelungen, eine systematische Schwäche von Textrobotern wie ChatGPT auszumerzen. Bislang ist nämlich häufig nicht klar, warum ein ChatGPT eigentlich schreibt, was es schreibt. Anwender beklagen auch, dass Systeme wie ChatGPT falsche Fakten liefern.
Das Thema der «erklärbaren KI» («Explainable AI» oder kurz XAI) beschäftigt seit geraumer Zeit auch Wissenschaftlerinnen und Wissenschaftler, die KI transparenter machen wollen. Die am Freitag eingeführte Funktion basiere auf Aleph Alphas neuesten Forschungsergebnissen, die zu Beginn dieses Jahres unter dem Namen «AtMan» akademisch veröffentlicht wurde.
Die Transparenz und Nachvollziehbarkeit von KI-generierten Inhalten werde «den Einsatz generativer KI für kritische Aufgaben im Rechts-, Gesundheits-, und Bankenwesen ermöglichen», sagte Firmengründer Jonas Andrulis. Aleph Alpha ist mit seinem KI-Projekt ein Hoffnungsträger der deutschen Softwareindustrie. Im Gegensatz zu den großen US-Wettbewerbern OpenAI, Microsoft und Google bietet das baden-württembergische Unternehmen keine eigene Plattform an, auf der das System direkt ausprobiert werden kann. Luminous kann aber indirekt über Kunden von Aleph Alpha erreicht werden, etwa über das Bürgerinformationssystem «Lumi» der Stadt Heidelberg.
dpa