Fahrerassistenzsysteme (ADAS: Advanced Driver Assistance Systems) sorgen in Fahrzeugen für zusätzlichen Komfort und Sicherheit im Straßenverkehr. Mittlerweile kommen in Pkw zahlreiche Fahrerassistenzsysteme zum Einsatz, die oft in einzelnen Sicherheitspaketen zusammengefasst sind. Möglich macht dies eine immer intelligentere Umfelderkennung durch eine immer performantere Sensorik. Ultraschall, Rader, Lidar, Kamera und Co. haben deutlich an Leistung gewonnen. Die hochkomplexe Software ist das Herzstück der immer leistungsfähigeren Steuergeräte. Sie optimiert die Abläufe der Algorithmen, um auch in kritischen Fahrsituationen schnell zu reagieren und die richtige (Re-)Aktion auszulösen. So können kritische Situation gemeistert und Unfälle vermieden werden.
Nehmen wir beispielsweise den Spurhalteassistenten: Reicht beim Verlassen der Spur ein Warnton, eine haptische Warnung durch die Vibration des Lenkrades oder ist ein aktiver Lenk- oder Bremseingriff nötig? Um die richtige Entscheidung zu treffen, können moderne Systeme das Zusammenspiel von Sensoren und Kamerasystemen nutzen. Je exakter die Live-Informationen in Echtzeit verarbeitet werden, umso optimaler ist die Reaktion des Fahrerassistenzsystems auf die Verkehrssituation. Dabei fließen je nach Anwendung und ADAS noch zahlreiche weitere Informationen, wie zum Beispiel die Geschwindigkeit, der Lenkwinkel, der Abstand zum vorausfahrenden Fahrzeug, Informationen zum Totwinkel oder sogar die Straßenzustandsbedingungen (etc.) ein. So erweitert beispielsweise der neue Shake-Sensor von HELLA die Umgebungswahrnehmung von Radar, Lidar und Kamera durch die Bereitstellung aktueller und präziser Straßenzustandsdaten.
Gleichwohl gibt es auch Assistenzsysteme, die nicht direkt in fahrdynamische Prozesse eingreifen, aber die passive Sicherheit und den Komfort deutlich verbessern. Beispiele sind der Fernlichtassistent oder die Scheibenwischerautomatik. So liefert HELLA auch kombinierte Regen-/Lichtsensoren, die die Temperatur, die Luftfeuchtigkeit und die Sonneneinstrahlung (Umgebungslicht) messen und damit neben dem Fahrlicht auch die Klimaanlage steuern können.
Radarsysteme (meist mit 77 GHz) erlauben genaue Geschwindigkeits- und Entfernungsmessungen – auch bei hoher Geschwindigkeit des Fahrzeugs – verfügen aber über keine hohe Winkelauflösung. Sie dienen beispielsweise zur Kollisionsvermeidung. Zu ihren Stärken gehört die Wetterunabhängigkeit. Neben dem Nahbereichsradar zum Erkennen von Objekten bis 30 m Entfernung kommen Mid-Range- und Long-Range-Radarsysteme mit bis zu 250 m Reichweite zum Einsatz.
Ultraschallsensoren sind schon länger Bestandteil der klassischen Einparkhilfe. Sie messen die Entfernung zum nächsten Objekt, indem sie die Laufzeit reflektierter Schallimpulse erfassen, die sie ausgesandt haben. Als Nahbereichsspezialisten sind sie für automatisiertes Fahren weniger von Belang, als Einpark- und Totwinkelassistent haben sie sich aber bewährt. Ultraschallsensoren sind kompakt und robust. Sie arbeiten auch bei Nacht und ohne Beeinträchtigung, etwa bei Nebel. Bei Schneefall haben sie jedoch ihre Schwächen und sind auch nicht für größere Distanzen geeignet.
Ein ebenso wichtiger Sensor ist der sogenannte Lidar-Sensor. Die Abkürzung bedeutet Light-Detection and Ranging – ein optisches Messsystem also, um Objekte zu detektieren. Durch die Reflexion des ausgesandten Lichts am Objekt bis zum Wiedereintreffen des Lichts am Empfänger lässt sich über die Laufzeit die Position des Objekts bestimmen. Im Prinzip also ein Laserscanner, der auch ein dreidimensionales Abbild der Umgebung erstellen kann. Lidarsysteme arbeiten nicht mit Mikrowellen, sondern mit Lichtpulsen aus den Bereichen des nicht sichtbaren Lichts, also nahe des Infrarotlichts. Typisch sind 905 nm Wellenlänge, eine Reichweite von 200 m bei guten Witterungsbedingungen, eine hohe Winkelauflösung und eine 360°-Abdeckung. Blendendes Licht, schlechte Sichtverhältnisse wie Nebel, Regen oder Gischt beeinträchtigen jedoch die Reichweite. Daher wird der Lidar zumeist als zusätzliches System genutzt.
Auch Kamerasysteme werden häufig für die Umfeld Überwachung genutzt. Eine Kernanwendung ist beispielsweise die Verkehrszeichenerkennung. Die erkannten Schilder werden direkt auf dem Instrumentendisplay oder dem Bildschirm wiedergegeben. In vielen Fällen dient die Verkehrszeichenerkennung auch anderen Fahrerassistenzsystemen als Informationsbasis, wie dem Vorfahrtswarner, der Falschfahrwarnung oder der Geschwindigkeits-Warnfunktion.
Moderne Kameras können zudem Hindernisse vor dem Fahrzeug erkennen und sogar unterscheiden. Zum Einsatz kommen sowohl Mono- als auch Stereokameras. Letztere sind in der Lage, ohne zusätzliche Sensorik Hindernisse dreidimensional zu erkennen. Bei einer Stereokamera beschränkt allerdings der Bauraum die 3D-Abbildung: Je geringer der Abstand zwischen den beiden Kameralinsen ist, desto geringer fällt die effektive dreidimensionale Messreichweite aus. Das bedeutet: Stereokameras können bis 50 m vor dem Fahrzeug dreidimensional sehen. Darüber hinaus sind die perspektivischen Unterschiede der beiden aufgenommenen Bilder zu gering, um daraus 3D-Informationen abzuleiten. Ab dieser Grenze verhält sich die Kamera wie eine Monokamera.
Die Reichweite einer Monokamera beträgt unabhängig vom Bauraum rund 250 m. Durch die Zusammenführung der Bilder mehrerer Kameras und Sensoren lässt sich eine dreidimensionale Darstellung erzeugen. Kameras im Innenraum können zudem erkennen, ob der Fahrer müde oder abgelenkt ist. Umgebungskameras (vorne und hinten) erfassen darüber hinaus das unmittelbare Pkw-Umfeld und zeigen Hindernisse auf.
Für Nachtsichtassistenten kommen hingegen Infrarotkameras zum Einsatz. Sie reagieren auf die Wärmeabstrahlung von Objekten. In Schwarzweißbilder umgewandelt, werden die Informationen im Kombidisplay dargestellt. Die kühlere Umgebung erscheint dunkel, Menschen und Tiere erscheinen auffällig hell. Moderne Systeme erkennen in bis zu 300 m Entfernung Personen sowie größere Wildtiere. In gefährlichen Situationen ertönt ein Warnsignal. Abhängig vom Scheinwerfersystem ist es beispielsweise möglich, die Person mit kurzen Lichtimpulsen zu warnen.
Alle relevanten Daten von Ultraschall, Radar, Lidar, Kamera und Co. können mit Hilfe der sogenannten Sensorfusion intelligent und in Echtzeit verknüpft werden. Perspektivisch macht dies das automatisierte Fahren erst möglich. Redundanzen, also die teilweise Überlagerung von Ergebnissen was die Umfeld-Erkennung angeht, sind dabei ausdrücklich erwünscht. Erst Redundanzen und Plausibilitätsprüfungen, also die systeminterne Kontrolle, ob die Umgebungsdaten korrekt erfasst wurden, verhindern weitestgehend eine fehlerhafte Interpretation der Daten. Je nach Fahrerassistenzsystemen, Automatisierungsgrad und Fahrzeugklasse haben wir es also mit einem individuellen Informations- und Sensor-Mix und immer mehr Daten zu tun, die in Echtzeit verarbeitet werden müssen. Schon heute eine Meisterleistung der Technik!