Der jüngste Roboter des Georgia Institute of Technology ist zwar blind wie ein Maulwurf, rempelt aber dennoch keinen Menschen an, der mit ihm in einem Raum zusammenarbeitet.
Er lokalisiert lebende Hindernisse auf akustischem Weg. Jeder Mensch macht Geräusche, auch wenn er schleicht. Und genau diese erfasst der Roboter mit leistungsfähigen Mikrofonen. Die aufgenommenen Geräusche nutzt die Steuerungs-Software, um die Positionen der menschlichen Kollegen kontinuierlich zu erfassen – Kollisionen daher ausgeschlossen.
14 Stunden akustische Daten
Die akustische Standortbestimmung basiert auf Algorithmen des maschinellen Lernens. Das Team musste also zunächst einen Datensatz zusammenstellen, der es ermöglichte, die Software effektiv zu trainieren. Dieser Datensatz enthält Geräusche von Menschen, die sich bewegen. Das Datenmaterial hat einen Umfang von 14 Stunden.
Die Probanden sollten sich auf unterschiedliche Arten fortbewegen, also schleichen, normal gehen oder energisch daherkommen. „Mit diesen Daten waren wir in der Lage, maschinelle Lernmodelle zu trainieren, die Audio in Form von Spektrogrammen aufnehmen und vorhersagen, ob tatsächlich eine Person in der Nähe ist und wenn ja, wo sie sich vom Roboter aus gesehen befindet“, sagt Mengyu Yang, Doktorand im Fach Maschinenbau.
Fremdgeräusche ausgeblendet
Parallel dazu hat Yang mit seinem Team der Lokalisierungs-Software beigebracht, Fremdgeräusche auszublenden, die etwa von Heizungen oder Belüftungsanlagen stammen sowie jene Geräusche, die Roboter selbst verursachen. Die Tests fanden mit „Stretch RE-1“ statt, einem günstigen, kompakten Roboter von Hello Robot.
„Unsere Lösung ist fehlertolerant und deshalb sicherer als die Lokalisierung von Menschen etwa mit Kameras oder der Abstandsmesstechnik LiDAR“, versichert Yang. Bei schlechter Sicht oder Störungen könnten diese Sensoren unzuverlässig werden. Zudem werde die Privatsphäre besser gewahrt, weil es keine Bilder gebe.
www.pressetext.com