Vermisste Menschen, die nicht so leicht zu finden sind, weil sie etwa im Wald teilweise verdeckt sind, lassen sich mit einer neuen Technik der Johannes Kepler Universität (JKU) besser identifizieren.
Wie bei einer Stereoaufnahme ermöglichen die von Drohnen aufgenommenen Bilder eine Abschätzung der Größe und Entfernung der vermissten Person. Werden die Bilddaten mittels “Airborne Optical Sectioning” (AOS) berechnet, um Verdeckungen, die beispielsweise durch die Vegetation entstehen, visuell zu reduzieren, ist eine Detektion und Tiefenabschätzung für Menschen sehr gut möglich.
Vorbild menschliches Sehen
Die visuelle Tiefenwahrnehmung des Menschen, also die Möglichkeit, Objekte in unterschiedlichen Entfernungen wahrzunehmen, basiert auf der Tatsache, dass die Augen perspektivisch leicht unterschiedliche Bilder sehen. Dieser stereoskopische Effekt wird auch in 3D-Kinos genutzt, um Filme plastisch wirken zu lassen. Aber nicht nur Human Vision nutzt diesen Effekt, sondern auch Computer Vision. Der Computer verarbeitet folglich stereoskopische oder auch multiskopische (mehr als zwei) Bildaufnahmen aus unterschiedlichen Perspektiven, um daraus Tiefeninformationen der aufgenommenen Szene zu errechnen.
Menschen und Computern gelingt die stereoskopische Tiefenwahrnehmung allerdings nicht, wenn die beobachtete Szene teilweise verdeckt ist. Findet das Gehirn oder der Computer in beiden Bildern nicht mehr genügend Übereinstimmungen, sind beide nicht in der Lage, die Tiefe abzuschätzen. JKU-Forscher Oliver Bimber hat mit Kollegen der University of Cambridge untersucht, ob und unter welchen Bedingungen stereoskopische Tiefenwahrnehmungen von stark verdeckten Szenen möglich sind. Das Ergebnis: mit rein computerbasierten Ansätzen gar nicht. Erst die Synergie zwischen Computer Vision und menschlicher visueller Wahrnehmung macht dies möglich.
Computerauswertung versagt
Die Forscher haben stereoskopische Wärmebildaufnahmen untersucht, die Drohnen über dicht bewaldetem Gebiet aufnahmen. Ziel war es, dort teilweise verdeckte Personen zu finden und deren Größe abzuschätzen. Es stellte sich heraus, dass heute übliche 3D Computer-Rekonstruktionsverfahren hier vollkommen versagen. Menschliche Probanden, die diese Bilddaten mittels 3D-Brillen betrachteten, hatten zunächst auch nicht mehr Erfolg. Erst AOS brachte den Umschwung.
“Das zeigt, dass der Mensch beim Lösen schwieriger Probleme nicht immer durch den Computer ersetzt werden kann – auch nicht im Zeitalter der Künstlichen Intelligenz. Die Synergien beider bieten oft Möglichkeiten, die von einer Seite alleine aus nicht erreicht werden können”, so Bimber. Drohnen werden heute zur Personensuche, Waldbrandbekämpfung, Wildbeobachtung und vielem mehr eingesetzt. Das AOS-Verfahren überträgt nun in Echtzeit stereoskopische Bilddaten, in denen die Verdeckung der Vegetation weggerechnet wurde, die dann auf einer 3D-Videobrille der Beobachter angezeigt werden. Das funktioniert auch bei Objekten in so großen Entfernungen, dass Menschen bei der Erkennung überfordert wären.
(pd/pressetext)