Vorwort | 5 |
Inhaltsverzeichnis | 7 |
Kooperative Systeme | 11 |
Architektur und Komponenten für ein heterogenes Team kooperierender, autonomer humanoider Roboter | 13 |
1 Einleitung | 13 |
2 Humanoide Roboterplattformen | 15 |
3 Softwarearchitektur | 15 |
4 Module | 16 |
5 Ergebnisse und Ausblick | 18 |
Literaturverzeichnis | 20 |
Dynamic Task Assignment in a Team of Agents | 21 |
1 Introduction | 21 |
2 State of the Art | 22 |
3 Evolution of Preferences to Decisions | 22 |
4 Team Behavior IModeling by Role Assignment | 23 |
5 Experimental Results: Example of a Defense Scenario | 24 |
6 Conclusion and Outlook | 27 |
7 Acknowledgment | 27 |
References | 27 |
Verbesserte Effizienz der Monte-Carlo- Lokalisierung im RoboCup | 29 |
1 Einleitung | 29 |
2 Verbesserte Monte-Carlo-Lokalisierung | 29 |
3 Ergebnisse | 31 |
4 Zusammenfassung | 33 |
Literaturverzeichnis | 34 |
Swarm Embodiment - A New Way for Deriving Emergent Behavior in Artificial Swarms | 35 |
1 Introduction | 35 |
2 Microscopic and macroscopic constraints | 36 |
3 Top-down methodology | 37 |
3.1 Embodied top-down computational approach | 38 |
References | 41 |
Kooperative Multi-Roboter-Wegplanung durch heuristische Prioritätenanpassung | 43 |
1 Einleitung | 43 |
2 Weltmodell | 44 |
3 Lokale Wegplanung | 45 |
5 Konfliktlösung | 46 |
6 Ergebnisse und Ausblick | 48 |
Literaturverzeichnis | 49 |
A Unified Architecture for the Control Software of a Robot Swarm: Design and Investigation Results | 51 |
1 Introduction | 51 |
2 Two layer architecture | 52 |
3 Implemented scenarios | 53 |
4 Investigation results | 56 |
5 Summary and Outlook | 57 |
6 Acknowledgment | 57 |
References | 57 |
Bildverarbeitung | 59 |
Kaiman Filter based Detection of Obstacles and Lane Boundary in Monocular Image Sequences | 61 |
1 Introduction | 61 |
2 Kaiman Filter based 3D from Motion | 62 |
2.1 System Model | 63 |
2.2 Measurement Model | 63 |
2.3 Initialization | 63 |
3 Pitch Correction | 64 |
4 Obstacle and Lane Boundary Detection | 65 |
5 Real World Results | 65 |
6 Conclusion | 66 |
References | 67 |
Komponentenbasierte Bildanalyse zur Identifikation von Objektkategorien | 69 |
1 Einleitung | 69 |
2 Ermittlung der Objektgeometrie | 70 |
3 Beschreibung von Objektkategorien | 71 |
4 Bildanalyse | 72 |
5 Zusammenfassung | 74 |
Literaturverzeichnis | 74 |
Gesichtsanalyse für die intuitive Mensch-Roboter-Interaktion | 77 |
1 Einleitung | 77 |
2 Datenmaterial | 77 |
3 Verfahren zur Gesichtsanalyse | 78 |
3.1 Elastic Graph Matching (EGM) | 78 |
3.2 Independent Component Analysis (ICA) | 78 |
3.3 Active Appearance Model (AAM) | 79 |
4 Ergebnisse | 79 |
4.1 Identifikation | 79 |
4.2 Geschlechtsschätzung | 80 |
5 Praktische Anwendung im Dialogprozess | 81 |
Literaturverzeichnis | 82 |
Klassifizierungsaspekte bei der SD-Szenenexploration mit einer neuen 2D/3D-Multichip-Kamera | 85 |
1 Einleitung | 85 |
2 2D/3D-Kameratechnologie | 86 |
2.1 3D-Kamera | 86 |
2.2 MultiChip 2D/3D-Kamera | 88 |
3 2D-Registrierte 3D-Messung | 88 |
Literaturverzeichnis | 90 |
Segmentation of Independently Moving Objects Using a Maximum-Likelihood Principle | 91 |
1 Introduction | 91 |
2 Related work | 92 |
3 Detecting IlMOs using the EIM-Algorithm | 92 |
3.1 Data representation | 93 |
3.2 EM-Algorithm | 93 |
3.3 Method | 94 |
4 Results | 95 |
5 Conclusion | 96 |
6 Acknowledgements | 97 |
References | 97 |
Region-based Depth Feature Map for Visual Attention in Autonomous Mobile Systems | 99 |
1 Introduction | 99 |
2 Visual Attention for Mobile Robots | 100 |
3 Existing Methods for Depth Computation | 101 |
4 Region Based Depth Map | 102 |
5 Experimental Results | 103 |
6 Discussion | 103 |
References | 104 |
Lokalisierung und Kartographierung | 107 |
Lokalisierung und Kartographierung | 107 |
Bearing-Only SLAM with an Omnicam An Experimental Evaluation for Service Robotics Applications | 109 |
1 Introduction | 109 |
2 Related Work | 110 |
3 Bearing-Only SLAM | 110 |
3.1.1 Feature Initialization | 112 |
3.1.2 Feature Extraction | 113 |
4 Experiments and Results | 113 |
5 Conclusion and Future Work | 115 |
6 Acknowledgement | 115 |
References | 115 |
Automatic Generation of Indoor VR-Models by a Mobile Robot with a Laser Range Finder and a Color Camera | 117 |
1 Introduction | 117 |
2 Data Acquisition | 118 |
3 Line Model | 118 |
4 3D Model | 119 |
5 Results | 121 |
6 Conclusion | 122 |
References | 123 |
Elastic View Graphs: A new Framework for Sequential 3D-SLAM | 125 |
1 Introduction | 125 |
2 State of 3D SLAM and new approach | 126 |
3 Sequential capturing and pose tracking of ränge views | 127 |
4 Loop hypothesizing and closing | 128 |
5 Preliminary experimental results | 130 |
References | 131 |
Selbstständige Erstellung einer abstrakten topologiebasierten Karte für die autonome Exploration | 133 |
1 Einleitung | 133 |
1.1 Kartierungsformen für die Exploration im Indoor-Bereich | 133 |
2 Systemübersicht | 134 |
2.1 Raumerkennung | 135 |
2.2 Raumaktualisierung | 135 |
2.3 Kartenerstellung | 137 |
3 Ergebnisse | 137 |
3.1 Simulationsergebnisse | 137 |
3.2 Der Roboter Marvm | 138 |
4 Zusammenfassung und Ausblick | 138 |
Literaturverzeichnis | 139 |
Integration of a Sound Source Detection into a Probabilistic-based Multimodal Approach for Person Detection and Tracking | 141 |
1 Introduction | 141 |
2 Robot System HOROS | 142 |
3 Generation of User Models | 143 |
4 Integration of Sound Source Detection as a further Hypothesis | 143 |
5 Summary and Conclusions | 146 |
References | 147 |
Using Descriptive Image Features for Global Localization of Mobile Robots | 149 |
1 Introduction | 149 |
2 Integral invariants | 150 |
3 DoG-based point detector | 151 |
4 Using global integral invariants for robot localization | 151 |
5 Extracting local integral invariants | 151 |
6 Experimental results | 152 |
6.1 The database of Images | 152 |
6.2 Global integral invariants | 152 |
6.3 Local integral invariants | 153 |
6.4 Results | 153 |
7 Conclusion | 154 |
8 Acknowledgment | 154 |
References | 154 |
Outdoor-Systeme | 157 |
Extension Approach for the Behaviour-Based Control System of the Outdoor Robot RAVON | 159 |
1 Introduction | 159 |
2 Mobile robot platform RA VON | 160 |
3 Control Software extension exploiting behaviour fusion | 160 |
3.1 Experiments | 162 |
4 Conclusion and outlook | 165 |
References | 165 |
Visual Odometry Using Sparse Bündle Adjustment on an Autonomous Outdoor Vehicle | 167 |
1 Introduction | 167 |
2 Sparse Bündle Adjustment | 167 |
3 Visual Motion Estimation using Sparse Bündle Adjustment | 169 |
4 Experimental Results | 170 |
5 Conclusions and Further Work | 172 |
References | 173 |
Verbesserte GPS-Positionsschätzung mit IP-transportierten Korrekturdaten für autonome Systeme im Outdoor-Bereich | 175 |
1 GPS | 175 |
2 Differential GPS | 176 |
3 NTRIP | 176 |
4 Versuchsaufbau | 177 |
5 Ergebnisse | 178 |
5.1 Unterschiede zwischen den GPS-Geräten | 179 |
5.2 Unterschiede durch die Art der Übertragung | 179 |
5.3 Unterschiede durch verschiedene Referenzquellen | 179 |
6 Ausblick | 180 |
7 Danksagung | 180 |
Literaturverzeichnis | 180 |
Fahrerassistenzsysteme | 181 |
Videobasierte Fahrspurerkennung zur Umfelderfassung bei Straßenfahrzeugen | 183 |
1 Einleitung | 183 |
2 Fahrspurerkennung auf Basis des 4D-Ansatzes | 184 |
2.1 Erweiterte Modellierung der Dynamik | 185 |
2.2 Klassifikation der Spurmarkierung | 186 |
3 Zusammenfassung und Ausblick | 188 |
Literaturverzeichnis | 188 |
Introduction of a Full Redundant Architecture into a Vehicle by Integration of a Virtual Driver | 189 |
1 Introduction | 189 |
2 Modeling a Virtual driver | 190 |
2.1 Architecture of the multiagent System | 190 |
2.2 Definition of tlie tactic agents | 191 |
2.3 Towards a fault-tolerant technology | 191 |
3 Integration of a decision control into the vehicle | 192 |
3.1 Understanding the driver's maneuver | 192 |
4 Fusion of the two commands | 193 |
5 Implications for the roles and interaction between human and Virtual driver | 193 |
6 Conclusion and next research | 194 |
References | 195 |
Systemplattform für videobasierte Fahrerassistenzsysteme | 197 |
1 Einleitung | 197 |
2 Menschliches Vorbild | 198 |
3 Systemplattform | 199 |
3.1 Kameraplattform | 199 |
3.2 Hardwareplattform | 199 |
4 Ergebnisse und Ausblick | 202 |
5 Danksagung | 203 |
Literaturverzeichnis | 203 |
Kognitive Sensordatenverarbeitung | 205 |
Sequential Parameter Estimation for Fault Diagnosis in Mobile Robots Using Particle Filters | 207 |
1 Introduction | 207 |
2 Sequential Estimation of the System State and Model Parameters | 208 |
3 Evaluation of the Estimation Methods in a Fault Diagnosis Scenario | 209 |
4 Conclusions and Further Research | 211 |
References | 211 |
Ermittlung von Linienkorrespondenzen mittels Graph-Matching | 213 |
1 Einleitung | 213 |
2 Graph Aufbau | 214 |
3 Probabilistische Relaxation und lokale Isomorphismen | 216 |
4 Diskussion der Ergebnisse | 217 |
Literaturverzeichnis | 219 |
Information Integration in a Multi-Stage Object Classifier | 221 |
1 Introduction | 221 |
2 Multi-stage Object Classifier | 222 |
3 Evidence Fusion | 223 |
4 Evaluation | 224 |
5 Related Work | 226 |
6 Conclusion | 227 |
7 Acknowledgment | 227 |
References | 227 |
Finding Rooms on Probabilistic Quadtrees | 229 |
1 Introduction | 229 |
2 Probabilistic Quadtrees | 230 |
3 Finding Regions on PQTs | 230 |
4 Region Finding Method | 231 |
5 Experimental Evaluation | 233 |
6 Conclusions | 235 |
References | 235 |
Active Autonomous Object Modeling for Recognition and Manipulation | 237 |
1 Introduction | 237 |
2 Related Research | 237 |
3 Unified Object Model and Learning Cycle | 238 |
4 Implementations and Results | 239 |
4.1 Learning a Geometric Model for Grasping | 239 |
4.2 Learning an Appearance Model for Invariant Object Detection | 241 |
5 Summary and Conclusions | 242 |
6 Acknowledgements | 243 |
References | 243 |
Architekturen und Anwendungen | 245 |
Die Softwarearchitektur eines Laufroboters für RoboCup Rescue AIMEE | 247 |
1 Einleitung | 247 |
2 Software-Architektur | 248 |
3 Zentrale Mustergeneratoren | 249 |
4 Reflexe | 251 |
5 Fazit | 252 |
Literaturverzeichnis | 253 |
Flexible Combination of Vision, Control and Drive in Autonomous Mobile Robots | 255 |
1 Introduction | 255 |
1.1 Overview of the Architecture | 255 |
2 Software Architecture | 257 |
2.1 Software Modularity | 257 |
2.2 The Vision Unit | 258 |
2.3 The World Model | 258 |
2.4 The Central Control Unit | 258 |
3 Hardware Architecture | 260 |
3.1 Vision Unit | 260 |
3.2 Central Control Unit | 260 |
3.3 Drive | 260 |
3.4 Actuators | 260 |
4 Conclusion | 260 |
References | 261 |
Zentrale Aufgaben Verteilung in einem fahrerlosen Transportsystem | 263 |
1 Einleitung | 263 |
2 Aufgaben eines zentralen Leitstands | 264 |
3 Repräsentation der Anlagendefinition | 265 |
4 Auftragsvergabe | 266 |
4.1 Anforderungen | 266 |
4.2 Das Verfahren Magycs (multi-attributed, global, d^namic, supplanting) | 267 |
5 Evaluierung des Verfahrens | 267 |
5.1 Bewertungsfunktion | 268 |
5.2 Experimente | 268 |
6 Zusammenfassung | 268 |
Literaturverzeichnis | 269 |
Autonom navigierende Fahrerlose Transportsysteme in der Produktion | 271 |
1 Einleitung | 271 |
2 Neues Konzept für Fahrerlose Transportfahrzeuge | 272 |
3 Mechanischer Aufbau | 272 |
4 Konzeption eines verteilten Steuerungsansatzes | 273 |
4.1 Kartographie, Hinderniserkennung und Kollisionsvermeidung | 273 |
4.2 Bahnplanung | 274 |
4.3 Agentenmechanismen | 276 |
5 Zusammenfassung | 276 |
Literatur | 277 |
Sensorgestützte Bewegungssynchronisation von Operationsinstrumenten am schlagenden Herzen | 279 |
1 Einleitung | 279 |
2 Problemformulierung | 280 |
3 Herzoberflächenmodell | 281 |
3.1 Herleitung der System-, Mess- und Rekonstruktionsgleichung | 282 |
3.2 Simulationsergebnisse | 283 |
3.3 Ermittlung von 3D-Messungen der Herzoberfläche | 284 |
4 Zusammenfassung und Ausblick | 285 |
Literaturverzeichnis | 285 |
Steuerung und Navigation | 287 |
Robot Guidance Navigation with Stereo-Vision and a Limited Field of View | 289 |
1 Introduction | 289 |
2 Our approach | 290 |
2.1 Image warping | 290 |
2.2 Image matching | 291 |
3 Experiments | 292 |
4 Conclusion and future work | 295 |
References | 295 |
Einfaches Steuerungskonzept für mobile Roboter in dynamischen unstrukturierten Umgebungen | 297 |
1 Einleitung | 297 |
2 Definition der Einsatzumgebung | 297 |
3 Die Steuerungsarchitektur | 298 |
3.1 Der Pilot | 298 |
3.2 Der Navigator | 299 |
3.3 Der Pfadfinder | 300 |
4 Sensorinformationen | 300 |
5 Evaluierung | 301 |
Literaturverzeichnis | 303 |
Graphbasierte Bewegungsanalyse dynamischer Hindernisse zur Steuerung mobiler Roboter | 305 |
1 Einführung | 305 |
2 Systemübersicht | 306 |
3 Sensorik | 307 |
4 Graphbasiertes Lernen und Vorhersagen dynamischer Bewegungen | 307 |
4.1 Das Modell | 307 |
4.2 Lernen der Übergangswahrscheinlichkeiten | 309 |
4.3 Vorhersage von Hindernisbewegungen | 309 |
4.4 Initialisierung der Topologie mit dem Voronoigraphen | 310 |
5 Ergebnisse und Ausblick | 311 |
Literaturverzeichnis | 311 |
Mobile Robot Motion using Neural Networks: An Overview | 313 |
1 Introduction | 313 |
2 Control of a Nonholonomic Robot with ESN | 314 |
2.1 Background | 314 |
2.2 Motion control using ESN | 315 |
3 Control of a Holonomic Robot with ESN | 316 |
3.1 Control Design | 316 |
4 Conclusion | 319 |
References | 319 |
Combining Learning and Programming for High-Performance Robot Controllers | 320 |
1 Introduction | 320 |
2 Learning Mechanisms | 322 |
3 Progress and Further Work | 322 |
4 Conclusion | 323 |
References | 323 |
Automatic Neural Robot Controller Design using Evolutionary Acquisition of Neural Topologies | 325 |
1 Evolutionary Acquisition of Neural Topologies | 325 |
2 Evolving Neural Controller for Navigation | 329 |
3 Conclusion | 330 |
4 Acknowledgment | 330 |
References | 331 |
KAWA'I krabbelt! Entwurf, Aufbau und Steuerungsarchitektur des Colani-Babys | 333 |
1 Die Aufgabe | 333 |
2 Systementwurf | 334 |
2.1 Spezifikation | 334 |
2.2 Arcliitektur und Schnittstellen | 334 |
3 Umsetzung | 335 |
3.1 Hardware | 335 |
3.2 Software und Algorithmik | 335 |
3.2.1 Servo-Timing | 335 |
3.2.2 Adaptierter Bresenham-Algorithmus zur Bewegungssteuerung | 336 |
3.3 Das Software-Framework MCA | 337 |
4 Ergebnisse und Ausblick | 338 |
Literatur | 339 |
Autorenverzeichnis | 341 |