Autonomes Fahren soll robuster werden, so TU Graz

Franz Pernkopf ©Baustädter / TU Graz

Selbstfahrende Autos. Forschende der TU Graz modellierten ein KI-System für Automotive-Radarsensoren, das Störsignale, verursacht durch andere Radarsensoren, filtert und die Objekterkennung dramatisch verbessern soll. In einigen Jahren soll es reif sein für die Praxis.

Im Zuge der Weiterentwicklung soll das System robuster gemacht werden gegenüber Wetter- und Umwelteinflüssen sowie neuartigen Störungen, heißt es in einer Aussendung der TU Graz.

Das Problem

Damit Fahrassistenz- und Sicherheitssysteme moderner Autos ihre Umgebung wahrnehmen und in allen denkbaren Situationen zuverlässig funktionieren, sind sie auf Sensoren wie Kameras, Lidar, Ultraschall und Radar angewiesen. Vor allem letztere sind ein unverzichtbarer Bestandteil: Radarsensoren versorgen das Fahrzeug mit Standort- und Geschwindigkeitsinformationen von umliegenden Objekten. Allerdings haben sie es im Verkehrsgeschehen mit zahlreichen Stör- und Umwelteinflüssen zu tun. Interferenzen durch andere (Radar)-Geräte und extreme Witterungsbedingungen erzeugen ein Rauschen, das die Qualität der Radarmessung negativ beeinflusst.

„Je besser das Entrauschen von Störsignalen funktioniert, desto zuverlässiger kann die Position und die Geschwindigkeit von Objekten bestimmt werden“, erklärt Franz Pernkopf vom Institut für Signalverarbeitung und Sprachkommunikation der TU Graz. Gemeinsam mit seinem Team und mit Partnern von Infineon entwickelte er ein KI-System auf Basis neuronaler Netzwerke, das gegenseitige Interferenzen bei Radarsignalen abschwächt und dabei den derzeitigen Stand der Technik laut der Uni bei Weitem übertrifft. Dieses Modell wollen sie nun soweit optimieren, damit es auch abseits gelernter Muster funktioniert und Objekte noch zuverlässiger erkennt, heißt es.

Ressourceneffiziente und intelligente Signalverarbeitung

Die Forschenden haben dafür zunächst Modellarchitekturen zur automatischen Rauschunterdrückung entwickelt, die auf sogenannten gefalteten neuronalen Netzwerken (Convolutional Neural Networks, kurz: CNNs) beruhen. „Diese Architekturen sind der Schichtenhierarchie unseres visuellen Kortex nachempfunden und werden bereits erfolgreich in der Bild- und Signalverarbeitung eingesetzt“, so Pernkopf.

CNNs filtern visuelle Informationen, erkennen Zusammenhänge und vervollständigen das Bild anhand vertrauter Muster. Dabei verbrauchen sie zwar durch ihren Aufbau wesentlich weniger Speicherplatz als andere neuronale Netzwerke, sprengen aber trotzdem immer noch die verfügbaren Kapazitäten von Radarsensoren für autonomes Fahren, so die TU Graz.

Komprimierte KI im Chipformat

Das Ziel lautete also: noch effizienter werden. Das Team der TU Graz trainierte daher verschiedene dieser neuronalen Netzwerke mit verrauschten Daten und gewünschten Ausgangswerten. Dabei identifizierten sie in Experimenten besonders kleine und schnelle Modellarchitekturen, in dem sie den Speicherplatz und die Anzahl an Rechenoperationen analysierten, die es pro Entrauschungsvorgang braucht.

Die effizientesten Modelle wurden anschließend erneut komprimiert, indem die Bitbreiten, also die Anzahl der verwendeten Bits zur Speicherung der Modellparameter, reduziert wurden. Resultat war ein KI-Modell mit hoher Filterleistung bei gleichzeitig geringem Energieverbrauch. Die Entrauschungsergebnisse mit einem F1-Score (Maß für die Genauigkeit eines Tests) von 89 Prozent, entsprechen beinahe einer Objekterkennungsrate von ungestörten Radarsignalen. Die Störsignale werden also beinahe gänzlich aus dem Messsignal entfernt, heißt es.

In Zahlen ausgedrückt: Das Modell erreicht mit einer Bitbreite von 8 Bit die gleiche Performance wie vergleichbare Modelle mit einer Bitbreite von 32 Bit, benötigt aber lediglich 218 Kilobytes Speicherplatz. Das entspricht einer Speicherplatzreduktion von 75 Prozent, womit das Modell den derzeitigen Stand der Technik bei Weitem übertreffe.

Robustheit und Erklärbarkeit im Fokus

Im FFG-Projekt „Repair“ (Robust and ExPlainable AI for Radarsensors) arbeiten Pernkopf und sein Team nun gemeinsam mit Infineon in den nächsten drei Jahren an der Optimierung ihrer Entwicklung. Pernkopf dazu: „Für unsere erfolgreichen Tests nutzten wir ähnliche Daten (Störsignale, Anm.), die wir zum Trainieren verwendet hatten. Wir wollen das Modell nun derart verbessern, dass es auch dann noch funktioniert, wenn das Eingangssignal signifikant von gelernten Mustern abweicht.“

Das würde Radarsensoren um ein Vielfaches robuster gegen Störungen aus der Umgebung machen. Schließlich ist der Sensor auch in der Realität mit verschiedenen, teils auch unbekannten Situationen konfrontiert. Bisher reichten schon kleinste Veränderungen der Messdaten aus, dass der Output zusammenbrach und Objekte nicht oder falsch erkannt wurden, was im Anwendungsfall autonomes Fahren verheerend wäre, so die Forscher.

Licht in die Blackbox bringen

Das System muss mit solchen Herausforderungen zurechtkommen und merken, wann die eigenen Vorhersagen unsicher sind. Dann könnte beispielsweise mit einer gesicherten Notfallsroutine darauf reagiert werden. Hierzu wollen die Forschenden herausfinden, wie das System Vorhersagen bestimmt und welche Einflussfaktoren dafür entscheidend sind. Dieser komplexe Vorgang innerhalb des Netzwerks war bislang nur beschränkt nachvollziehbar.

Hierzu wird die komplizierte Modellarchitektur in ein lineares Modell übertragen und vereinfacht. Pernkopf: „Wir wollen das Verhalten von CNNs ein Stück weit erklärbarer machen. Uns interessiert nicht nur das ausgegebene Ergebnis, sondern auch dessen Schwankungsbreite. Je kleiner die Varianz, desto sicherer ist sich das Netzwerk.“ Für den Realeinsatz sei jedenfalls noch einiges zu tun. In den nächsten Jahren soll die Technologie aber so weit entwickelt sein, dass die ersten Radarsensoren damit ausgestattet werden können.

 

    Weitere Meldungen:

  1. Capito will mit einfacher Sprache ausbauen
  2. Neue „RDB Ähnlichkeitssuche“ findet passende Dokumente
  3. Maschinelles Lernen: Forschungsnetzwerk an der TU Graz
  4. Capito will komplexe Texte per App vereinfachen