Maschinenlernen macht Wärmebilder scharf

Maschinenlernen, KI

Mit der „Heat-Assisted Detection and Ranging“ (HADAR) lassen Forscher der Purdue University selbst im Stockdunklen noch jede Einzelheit eines Objekts aufscheinen. Die wärmeunterstützte Erkennung und Entfernungsmessung überwindet die Einschränkungen herkömmlicher Techniken wie Restlichtvertärkung, nutzt thermische Physik, Infrarotbildgebung und maschinelles Lernen, um Textur, Tiefe und physikalische Eigenschaften von Szenen und Objekten auch bei schwierigen Lichtverhältnissen sichtbar zu machen.

Heutige Sensoren nicht perfekt

2030 wird jedes zehnte Auto autonom unterwegs sein, prophezeit Entwicklungsleiter Zubin Jacob. Jedes sei dann mit mehreren Systemen zur Erkennung und Überwachung der Umwelt ausgestattet. Herkömmliche aktive Sensoren wie LiDAR oder Lichterkennung und Entfernungsmessung, Radar und Sonar senden Signale aus und empfangen die Reflexionen, um 3D-Infos über eine Szene zu sammeln. Diese Methoden hätten wegen Signalstörungen allerdings Nachteile. Videokameras seien zuverlässiger, aber nur bei sehr guten Lichtverhältnissen. In der Nacht, bei Nebel oder Regen seien sie nur eingeschränkt oder gar nicht nutzbar.

Anzeige

Herkömmliche Wärmebildtechnik basiert auf Sensoren, die unsichtbare Wärmestrahlung von allen Objekten im Blickfeld sammelt. Diese werde allerdings gestreut, sodass unscharfe Bilder entstehen, die nicht leicht zu interpretieren sind. „Dieser Verlust von Informationen, Texturen und anderen Eigenschaften ist ein Hindernis für die maschinelle Verarbeitung von Wärmebildern“, unterstreicht Jacob. Mit maschinellem Lernen haben er und sein Mitarbeiter Fanglin Bao die Unschärfe beseitigt, sodass alle Details zu erkennen sind, heißt es.

Sogar leichte Wellen nun sichtbar

„Stockfinstere Dunkelheit enthält die gleiche Menge an Informationen wie helles Tageslicht. Die Evolution hat dazu geführt, dass die Menschen auf Helligkeit ausgerichtet sind. Die maschinelle Wahrnehmung der Zukunft wird den Unterschied zwischen Tag und Nacht überwinden. HADAR stellt die Textur aus dem unübersichtlichen Wärmesignal auf anschauliche Weise wieder her und entwirrt Temperatur, Emissionsgrad und Textur“, sagt Bao. Sogar Details wie leichte Wellen und die Textur von Baumrinden würden sichtbar.

Noch ist das System in der Praxis nicht einsetzbar. „Der aktuelle Sensor ist groß und schwer. Um es in selbstfahrende Autos oder Roboter einbauen zu können, müssen Größe und Preis gesenkt und die Kamera schneller werden. Der aktuelle Sensor braucht etwa eine Sekunde, um ein Bild zu erstellen, aber für autonome Autos benötigen wir etwa 30 bis 60 Bilder pro Sekunde“, erklärt Bao abschließend.

Anzeige

www.pressetext.com

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.