FAS – Sensorik und Software für teilautonomes/autonomes Fahren

Mehrfache Redundanz

Wer vom zeitnahen teil- oder vollautonomen Fahren auf der Strasse träumt, wird sich fragen, warum die Entwicklung so lange dauert. Die Sensorik ist ausgeklügelt und damit die Hardware bereit. Liegt es nur an der Software oder gibt es regulatorische Hürden, um das Roboterfahren auch in Europa flächendeckend einzuführen? Wir bieten eine Einordnung des Standes der Technik und wagen einen Ausblick.
Publiziert: 07. Oktober 2025

Von

Andreas Senger


										Mehrfache Redundanz
Was wie ein grafisches Kunstwerk aussieht, sind die Bereiche im Fahrzeugumfeld, welche moderne Fahrzeuge mit verschiedenen FAS-Sensoren abdecken. Foto: Mercedes

Das Hauptziel der Weiterentwicklung der Fahrerassistenzsysteme FAS liegt auf der Hand: Im Strassenverkehr sollen Personenschäden oder gar Tote vermieden werden. Um dies zu erreichen, sollen die Menschen hinter dem Lenkrad von der Technik so unterstützt werden, dass die Wahrnehmungsmöglichkeiten wie sehen und hören mittels Fahrzeugsensorik ergänzt und unterstützt werden. Modernste FAS bedienen sich dazu mehrerer Umgebungssensoren, welche redundant ausgeführt sind. Für das Vorfeld sind heute längst nicht mehr nur Frontkamera hinter der Windschutzscheibe und Radar an der Fahrzeugfront zuständig. Ergänzt werden die beiden von Solid-State-Lidars, welche keine beweglichen Bauteile mehr aufweisen und deshalb robuster für den Einsatz im Fahrzeug sind als Lidare mit beweglichen Teilen wie Spiegel, um die elektromagnetischen Wellen in einem breiten Feld vor dem Fahrzeug auszusenden.

Die Abkürzung Lidar bedeutet auf Englisch «Light Detection and Ranging» und umfasst eine Technologie zur präzisen Entfernungsmessung mittels Laserimpulse, die dreidimensionale Strukturen und Oberflächen erfassen kann. Der Sensor ist in der Lage, nicht nur die Distanzen zu bestimmen, sondern auch dank der 3-D-Punktwolke ein farbiges Bild zu erstellen, das die Umrisse von Objekten wie Fussgänger usw. erlaubt. Der Sensor kann im übertragenen Sinn die Aufgabe von Frontkamera und Radar in einem Bauteil übernehmen. Während die Frontkamera einzig Bildpunkte erfasst und die Auswertesoftware aus den Bilder Objekte kategorisieren kann, ist der Radar in der Lage, präzise Ortung von Objekten zu ermöglichen. Der Radar erfasst sowohl die Relativgeschwindigkeit zu einem Objekt wie die Distanz und den Winkel zum eigenen Fahrzeug.

Werden die drei Sensoren bei modernen Fahrzeugen in Form von einer Sensordatenfusion in einem zentralen Steuergerät ausgewertet, kann das System aufgrund der unabhängigen Auswertung von Radar/Frontkamera und Lidar die Wahrscheinlichkeit deutlich erhöhen, Objekte korrekt zu erkennen und daraus abgeleitet die richtigen Warn- oder Regeleingriffe einzuleiten. Die Weiterentwicklung der drei Sensorarten begünstigt zudem, Fehlentscheide zu minimieren. Bei den Kameras steigt die Auflösung und damit die Anzahl der Bildpunkte pro Fläche und vermehrt gelangen Stereokameras zum Einsatz, um das menschliche Sehen zu simulieren. Durch die beiden Kameras entsteht ein dreidimensionales Erfassungsbild, bei dem auch Distanzen vom System bestimmt werden können. Im Weiteren wird die Bildverarbeitung im Sensor durch beschleunigte Prozessgeschwindigkeit verbessert und damit die Objekterkennung stetig optimiert. Bei den Radarsensoren erweitern die Zulieferer die bisher bekannten 77-GHz-Sensoren mit neuen 120-GHz-Sensoren, die beinahe eine doppelte Anzahl von Messungen pro Zeiteinheit durchführen können. Die neue Radargeneration ist zudem in der Lage, bei ungünstigen Wetterbedingungen wie Regen oder Schneefall zuverlässigere Messungen mit einem Winkelabstand von 1° durchzuführen. Bei einfachen FMCW-Radarsystemen wurden nebst der Relativgeschwindigkeit und der Winkellage (horizontale Messung, Azimutwinkel) die Distanz bestimmt.

Der ganze Bericht (PDF)

Dies könnte Sie auch interessieren

Diese News sind auch sehr interessant.