Tabellenverzeichnis ........................................... iii
Abbildungsverzeichnis .......................................... iv
Abkürzungsverzeichnis ........................................ viii
Symbolverzeichnis .............................................. ix
1 Einleitung ................................................. 1
1.1 Motivation ................................................. 1
1.2 Automatische Hindernisdetektion ............................ 3
1.2.1 Beschaffung von Umgebungsinformationen .............. 4
1.2.2 Kooperative Fusion .................................. 6
1.2.3 Konkurrierende Fusion ............................... 7
1.3 Aufbau der Arbeit .......................................... 9
2 Grundlagen ................................................ 11
2.1 Sensordatenfusion ......................................... 11
2.2 Geometrische Konventionen und Grundlagen .................. 15
2.2.1 Verwendete Koordinatensysteme ...................... 15
2.2.2 Koordinatentransformation .......................... 16
2.2.3 Verwendete Koordinatentransformation ............... 18
2.2.4 Pose von Sensortrager und Kamera ................... 20
2.3 Sensoren zur Umgebungserkennung ........................... 20
2.3.1 Überblick .......................................... 21
2.3.2 LiDAR .............................................. 22
2.3.3 Monokulare Kamera .................................. 37
2.4 Segmentierung ............................................. 41
2.4.1 Überblick .......................................... 41
2.4.2 Kantendetektion .................................... 43
2.5 Hindernisrepräsentation ................................... 48
2.5.1 Überblick .......................................... 48
2.5.2 Belegtheitsgitter .................................. 50
2.5.3 Datenstruktur ...................................... 54
3 Voraussetzungen für multisensorielle Hindernisdetektion ... 60
3.1 Extrinsische Kalibrierung ................................. 60
3.1.1 Überblick .......................................... 62
3.1.2 Ermittlung der extrinsischen Parameter ............. 63
3.1.3 Kantentreffer als Fehlerquelle ..................... 65
3.1.4 Erweitertes Kalibrierobjekt ........................ 69
3.1.5 Validierung ........................................ 73
3.2 Diskretisierung der Umwelt ................................ 81
3.2.1 Problemdarstellung ................................. 83
3.2.2 Reduktion ungewollter Freizeichnung mittels
großer Punktmengen ................................. 86
3.2.3 Reduktion ungewollter Freizeichnung mittels
OcTree ............................................. 87
3.2.4 Bedingte Freigabe belegter Zelle ................... 88
3.2.5 Validierung ........................................ 92
4 Erweiterung einer monogonen Lasersicht mittels Kamera .... 103
4.1 Stand der Technik ........................................ 103
4.1.1 Homogene Konfigurationen .......................... 104
4.1.2 Heterogene Konfigurationen ........................ 105
4.2 Konzept .................................................. 107
4.3 Vorverarbeitung .......................................... 117
4.3.1 Vorverarbeitung des Kamerabildes .................. 117
4.3.2 Vorverarbeitung der Laserdaten .................... 120
4.4 Kooperative Fusion ....................................... 122
4.4.1 Segmentierung ..................................... 123
4.4.2 Anpassung der LiDAR-Auflösung ..................... 131
4.4.3 Oberflächenapproximation .......................... 135
4.5 Konkurrierende Fusion .................................... 139
4.5.1 Interpretation von Sensordaten .................... 141
4.5.2 Rekonstruktion einer Objektoberfläche ............. 148
4.6 Validierung der Sichtfelderweiterung ..................... 153
4.6.1 Versuchshardware .................................. 153
4.6.2 Umgebungskartierung mit Sichtfelderweiterung ...... 157
5 Zusammenfassung und Ausblick ............................. 174
|