Lippstadt, 21. März 2019. Ein deutscher Forschungsverbund mit namhaften Forschungseinrichtungen, Hochschulen, IT-Unternehmen sowie Unternehmen aus dem Umfeld der Automobilindustrie hat eine seriennahe Fusionsplattform mit offenen Schnittstellen (Offene Fusions-Plattform, kurz: OFP) entwickelt. Sie ermöglicht Automobilherstellern und Zulieferern eine kostengünstige Integration von hoch- und vollautomatisierten Fahrerassistenzfunktionen für das automatisierte Fahren. Die OFP wurde vom Verbundkoordinator HELLA gemeinsam mit dem Deutschen Zentrum für Luft- und Raumfahrt, Elektrobit Automotive, Infineon Technologies AG, InnoSent, Hella Aglaia Mobile Vision, der Hochschule Reutlingen, der Geschäftsstelle Elektromobilität RWTH Aachen, Streetscooter Research und TWT GmbH Science and Innovation entwickelt. Zusätzlich unterstützten Continental und Nvidia als assoziierte Partner.
Das vom Bundesministerium für Bildung und Forschung mit 4,4 Millionen Euro geförderte Projekt wurde mit der Integration erster vollautonomer Fahrfunktionen in drei Demonstrationsfahrzeugen erfolgreich nach knapp über drei Jahren abgeschlossen. Bei dem umgesetzten Szenario fährt ein Elektrofahrzeug vollautomatisiert eine freie Ladestation auf einem Parkplatz an und positioniert sich über der Ladeplatte. Nach dem abgeschlossenen Ladevorgang sucht es sich vollautomatisiert einen freien Parkplatz ohne Ladeplatte. "Für derartige hoch- bzw. vollautomatisierte Szenarien existierten bislang lediglich Prototypen, die noch nicht seriennah waren", sagt Dr. Michael Schilling, Projektleiter für die Vorentwicklung Automated Driving bei HELLA und Verbundkoordinator für das OFP-Projekt. Schon heute sind zwar Fahrerassistenzsysteme in Serie, etwa Stauassistenten, die Daten von zwei Sensoren fusionieren. "Doch für das vollautomatisierte Fahren ist es notwendig, dass die Fahrzeuge ihre gesamte Umgebung wahrnehmen können. Dafür müssen Daten von vielen Sensoren und Kameras fusioniert werden, um ein vollständiges Umgebungsmodell zu erzeugen, dass mit der erforderlichen Genauigkeit die Umwelt abbildet und auf dem sich die Fahrfunktion zuverlässig umsetzen lässt." Eine Herausforderung hierbei sind die Schnittstellen zwischen den einzelnen Sensoren und der zentralen Steuereinheit, die bisher nicht standardisiert sind. Aktuell sind die Schnittstellen der Fahrerassistenzsysteme sehr funktionsspezifisch und abhängig vom jeweiligen Zulieferer bzw. Automobilhersteller. Genau hier setzte das Forschungsprojekt an.
Als Input für die OFP dienten im Projekt vier Kameras und acht 77 GHz Radarsensoren, die jeweils 360° um das Fahrzeug herum abdecken. Ein zusätzliches Vehicle to X-Communication Modul (V2X-Modul) ermöglichte daneben die Kommunikation zwischen Fahrzeugen und externer Infrastruktur, etwa der Ladeplatte. Die Verbundpartner haben gemeinsam die Schnittstellenbeschreibungen der einzelnen Komponenten in einer frei verfügbaren „Interface Specification“ offengelegt. Noch während des Projektes wurde vom Forschungsverbund gemeinsam mit weiteren führenden Automobilherstellern und Zulieferern ein ISO-Standardisierungsprozess für die Sensordatenschnittstellen gestartet.
Mit Beendigung des Projektes wird eine aktualisierte Schnittstellenbeschreibung veröffentlicht, die auch in den laufenden ISO-Prozess einfließen wird. Damit haben erstmals alle Automobilhersteller und Zulieferer die Möglichkeit, ihre Produkte schnell und einfach in die Fusionsplattform zu integrieren. Hella Aglaia Mobile Vision hat mit dem Umgebungsmodell den zentralen Bestandteil der OFP entwickelt. Über die Visualisierungsmöglichkeiten können Entwickler sehen, wie das Fahrzeug die gesamte Umgebung wahrnimmt und auf dieser Basis entscheiden, welche Sensordaten fusioniert werden sollen. Ob komplexe Fahrerassistenzfunktionen oder vollautomatisierte Fahrfunktionen - sämtliche Funktionen können sie so programmieren. "Das beschleunigt die Entwicklungsarbeit, führt letztlich zu wachsenden Stückzahlen und dazu, dass automatisierte Fahrfunktionen früher in die Mittelklasse Einzug halten", sagt Dr. Schilling.
Die Arbeiten an der OFP gehen auch nach dem Projekt weiter. Zentrale Fragestellungen werden sein, wie sich die Sensordaten mit Machine Learning verarbeiten lassen, um die Funktionen zu verbessern und die Entwicklungsarbeit weiter zu beschleunigen. Auch soll das Parkplatz-Szenario um urbane Fahrsituationen bzw. bei über 20 km/h erweitert werden. Diese Szenarien erfordern ein Zusammenspiel mit weiteren Sensoren, z.B. LiDAR-Sensoren. Genau in diesem Bereich der multisensoriellen Datenfusion kann die OFP schließlich ihr gesamtes Potenzial ausspielen. Darüber hinaus wird bei der Weiterentwicklung die funktionale Sicherheit eine große Rolle spielen, um zu gewährleisten, dass sämtliche entwickelte Funktionalitäten ausfallsicher funktionieren.