Fahrerassistenzsysteme: Was Sensoren können
Fahrerassistenzsysteme (ADAS: Advanced Driver Assistance Systems) sorgen in Fahrzeugen für zusätzlichen Komfort und Sicherheit im Straßenverkehr. Mittlerweile kommen in Pkw zahlreiche Fahrerassistenzsysteme zum Einsatz, die oft in einzelnen Sicherheitspaketen zusammengefasst sind. Möglich macht dies eine immer intelligentere Umfelderkennung durch eine immer performantere Sensorik. Ultraschall, Rader, Lidar, Kamera und Co. haben deutlich an Leistung gewonnen. Die hochkomplexe Software ist das Herzstück der immer leistungsfähigeren Steuergeräte. Sie optimiert die Abläufe der Algorithmen, um auch in kritischen Fahrsituationen schnell zu reagieren und die richtige (Re-)Aktion auszulösen. So können kritische Situation gemeistert und Unfälle vermieden werden.
Radar- und Ultraschallsensoren
Radarsysteme (meist mit 77 GHz) erlauben genaue Geschwindigkeits- und Entfernungsmessungen – auch bei hoher Geschwindigkeit des Fahrzeugs – verfügen aber über keine hohe Winkelauflösung. Sie dienen beispielsweise zur Kollisionsvermeidung. Zu ihren Stärken gehört die Wetterunabhängigkeit. Neben dem Nahbereichsradar zum Erkennen von Objekten bis 30 m Entfernung kommen Mid-Range- und Long-Range-Radarsysteme mit bis zu 250 m Reichweite zum Einsatz.
Lidar-Sensoren
Ein ebenso wichtiger Sensor ist der sogenannte Lidar-Sensor. Die Abkürzung bedeutet Light-Detection and Ranging – ein optisches Messsystem also, um Objekte zu detektieren. Durch die Reflexion des ausgesandten Lichts am Objekt bis zum Wiedereintreffen des Lichts am Empfänger lässt sich über die Laufzeit die Position des Objekts bestimmen. Im Prinzip also ein Laserscanner, der auch ein dreidimensionales Abbild der Umgebung erstellen kann. Lidarsysteme arbeiten nicht mit Mikrowellen, sondern mit Lichtpulsen aus den Bereichen des nicht sichtbaren Lichts, also nahe des Infrarotlichts. Typisch sind 905 nm Wellenlänge, eine Reichweite von 200 m bei guten Witterungsbedingungen, eine hohe Winkelauflösung und eine 360°-Abdeckung. Blendendes Licht, schlechte Sichtverhältnisse wie Nebel, Regen oder Gischt beeinträchtigen jedoch die Reichweite. Daher wird der Lidar zumeist als zusätzliches System genutzt.
Moderne Kameras können zudem Hindernisse vor dem Fahrzeug erkennen und sogar unterscheiden. Zum Einsatz kommen sowohl Mono- als auch Stereokameras. Letztere sind in der Lage, ohne zusätzliche Sensorik Hindernisse dreidimensional zu erkennen. Bei einer Stereokamera beschränkt allerdings der Bauraum die 3D-Abbildung: Je geringer der Abstand zwischen den beiden Kameralinsen ist, desto geringer fällt die effektive dreidimensionale Messreichweite aus. Das bedeutet: Stereokameras können bis 50 m vor dem Fahrzeug dreidimensional sehen. Darüber hinaus sind die perspektivischen Unterschiede der beiden aufgenommenen Bilder zu gering, um daraus 3D-Informationen abzuleiten. Ab dieser Grenze verhält sich die Kamera wie eine Monokamera.
Die Reichweite einer Monokamera beträgt unabhängig vom Bauraum rund 250 m. Durch die Zusammenführung der Bilder mehrerer Kameras und Sensoren lässt sich eine dreidimensionale Darstellung erzeugen. Kameras im Innenraum können zudem erkennen, ob der Fahrer müde oder abgelenkt ist. Umgebungskameras (vorne und hinten) erfassen darüber hinaus das unmittelbare Pkw-Umfeld und zeigen Hindernisse auf.
Infrarot-Sensoren
Für Nachtsichtassistenten kommen hingegen Infrarotkameras zum Einsatz. Sie reagieren auf die Wärmeabstrahlung von Objekten. In Schwarzweißbilder umgewandelt, werden die Informationen im Kombidisplay dargestellt. Die kühlere Umgebung erscheint dunkel, Menschen und Tiere erscheinen auffällig hell. Moderne Systeme erkennen in bis zu 300 m Entfernung Personen sowie größere Wildtiere. In gefährlichen Situationen ertönt ein Warnsignal. Abhängig vom Scheinwerfersystem ist es beispielsweise möglich, die Person mit kurzen Lichtimpulsen zu warnen.
Die Zusammenführung von Sensordaten
Alle relevanten Daten von Ultraschall, Radar, Lidar, Kamera und Co. können mit Hilfe der sogenannten Sensorfusion intelligent und in Echtzeit verknüpft werden. Perspektivisch macht dies das automatisierte Fahren erst möglich. Redundanzen, also die teilweise Überlagerung von Ergebnissen was die Umfeld-Erkennung angeht, sind dabei ausdrücklich erwünscht. Erst Redundanzen und Plausibilitätsprüfungen, also die systeminterne Kontrolle, ob die Umgebungsdaten korrekt erfasst wurden, verhindern weitestgehend eine fehlerhafte Interpretation der Daten. Je nach Fahrerassistenzsystemen, Automatisierungsgrad und Fahrzeugklasse haben wir es also mit einem individuellen Informations- und Sensor-Mix und immer mehr Daten zu tun, die in Echtzeit verarbeitet werden müssen. Schon heute eine Meisterleistung der Technik!