The realization of autonomous driving has long evolved into a technological race whose challenge is comparable to space travel in the last century. As we strive to realize the vision of autonomous driving, it is becoming increasingly clear that artificial intelligence (AI), with its revolutionary capabilities, is the linchpin. However, the paramount need is not just AI but safe AI. Fundamental prerequisites for achieving safe AI are to 1) identify and 2) sufficiently mitigate the weaknesses inherent to AI. It is essential to acknowledge that when AI is referred to in the context of autonomous driving, Deep Neural Networks (DNNs) are usually implicitly meant. This thesis focuses on exactly these two issues for DNNs used in environmental perception. After a detailed description of systematic latent weaknesses of DNNs (so-called DNN insufficiencies), four safety mechanisms are presented, each mitigating a DNN insufficiency. The developed safety mechanisms include the fusion of weight sets, leveraging temporal consistency in video data, pruning weights, and online out-of-domain detection. The effectiveness of the presented approaches is demonstrated in numerous experiments and contextualized in the current state of the art. Furthermore, these approaches were exemplary incorporated into a safety argumentation that provides a structured and transparent way to document the safety aspects of AI systems. By identifying DNN insufficiencies, developing mitigation approaches, validating their effectiveness, and integrating them into a safety argumentation, this work contributes significantly to the advancement of safe AI in the realm of autonomous driving.
Die Realisierung des autonomen Fahrens hat sich längst zu einem technologischen Wettlauf entwickelt, dessen Herausforderung mit der Raumfahrt des letzten Jahrhunderts vergleichbar ist. Auf dem Weg zur Verwirklichung der Vision des autonomen Fahrens wird immer deutlicher, dass die künstliche Intelligenz (KI) mit ihren revolutionären Fähigkeiten den Dreh- und Angelpunkt bildet. Allerdings geht es nicht nur um KI, sondern insbesondere um sichere KI. Grundlegende Voraussetzungen für eine sichere KI sind 1) die Identifizierung und 2) die ausreichende Mitigierung der KI inhärenten Schwächen. Es ist wichtig festzuhalten, dass, wenn im Zusammenhang mit autonomem Fahren von KI die Rede ist, in der Regel Deep Neural Networks (DNNs) impliziert sind. Die vorliegende Arbeit konzentriert sich auf genau diese beiden Probleme von DNNs, die in der Umweltwahrnehmung im Bereich autonomes Fahren eingesetzt werden. Nach einer detaillierten Beschreibung der systematischen, latenten Schwächen von DNNs (sogenannte DNN-Unzulänglichkeiten) werden vier Sicherheitsmechanismen vorgestellt, die jeweils eine DNN-Unzulänglichkeit mitigieren. Die entwickelten Sicherheitsmechanismen umfassen die Fusion von Gewichten, die Ausnutzung der zeitlichen Konsistenz von Videodaten, das Pruning von Gewichten und die Out-of-Domain-Erkennung zur Laufzeit. Die Wirksamkeit der vorgestellten Ansätze wird in zahlreichen Experimenten demonstriert und in den aktuellen Stand der Technik eingeordnet. Darüber hinaus wurden diese Ansätze beispielhaft in eine Sicherheitsargumentation eingebunden, die eine strukturierte und transparente Möglichkeit bietet, die Sicherheitsaspekte von KI-Systemen zu dokumentieren. Durch die Identifizierung von DNN-Unzulänglichkeiten, die Entwicklung von Mitigierungsmechanismen, die Validierung ihrer Wirksamkeit und die Integration in eine Sicherheitsargumentation, leistet diese Arbeit einen wichtigen Beitrag zur Weiterentwicklung der sicheren KI im Bereich des autonomen Fahrens.
Use and reproduction:
All rights reserved