Ein Team um Alexandre Pouget von der Universität Genf lässt zwei Künstliche Intelligenzen (KI) miteinander gewinnbringend kommunizieren.
„Soweit wir wissen, sind KI-gestützte Sprachagenten bisher nicht in der Lage, eine verbale oder schriftliche Anweisung in eine sensomotorische Handlung zu übersetzen, und noch weniger, sie einer anderen KI zu erklären, damit diese sie reproduzieren kann“, so Pouget. Nun sei es gelungen, ein künstliches neuronales Modell mit dieser doppelten Fähigkeit auszustatten.
Wernicke- und Broca-Areal
„Wir begannen mit S-Bert, einem bestehenden Modell, das 300 Mio. Neuronen hat und darauf trainiert ist, Sprache zu verstehen. Wir haben es mit einem anderen, einfacheren Netz von einigen tausend Neuronen verbunden“, so Pougets Doktorand Reidar Riveland. Nun trainierten die Neurowissenschaftler dieses Netzwerk, um das Wernicke-Areal zu simulieren, der Teil des menschlichen Gehirns, der die Wahrnehmung und Interpretation von Sprache ermöglicht.
In der zweiten Phase trainierten sie das Broca-Areal, das für die Artikulation von Wörtern zuständig ist. Schriftliche Anweisungen in englischer Sprache übermittelten sie dann an das andere Netzwerk. Dann ließen die Wissenschaftler die beiden miteinander plaudern – mit dem Ziel, dass ein Netzwerk tut, was das andere ihm auferlegt.
Attraktiv für Robotiksektor
Anfangs waren es ganz einfache Handlungen, die das eine Netzwerk lernte auszuführen und so zu beschreiben, dass das andere sie nachmachen konnte. „Doch dieses Modell eröffnet neue Horizonte für das Verständnis der Interaktion zwischen Sprache und Verhalten“, schreiben die beiden Forscher.
Es sei nun besonders vielversprechend für den Robotiksektor, wo die Entwicklung von Technologien, die es Maschinen ermöglichen, miteinander zu sprechen. „Es steht nun nichts mehr im Wege, auf dieser Grundlage viel komplexere Netzwerke zu entwickeln, die in humanoide Roboter integriert werden könnten, die in der Lage sind, uns und andere Roboter zu verstehen“, heißt es abschließend.
www.pressetext.com