Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Einführung in die Datensensorfusion
- Bedeutung der Datensensorfusion für die autonome Navigation
- Herausforderungen bei der Integration von Mehrfachsensoren
- Anwendungsbereiche der Datensensorfusion in der Echtzeitwahrnehmung
Sensor-Technologien und Datencharakteristika
- LiDAR: Generierung und Verarbeitung von Punktwolken
- Kamera: Visuelle Datenerfassung und Bildverarbeitung
- RADAR: Objekterkennung und Geschwindigkeitsabschätzung
- Inertiale Messeinheiten (IMUs): Bewegungserfassung
Grundlagen der Datensensorfusion
- Mathematical Grundlagen: Kalman-Filter, Bayes'sche Inferenz
- Datenassoziation und -ausrichtungstechniken
- Umgang mit Sensorrauschen und Unsicherheit
Fusionsalgorithmen für die autonome Navigation
- Kalman-Filter und erweitertes Kalman-Filter (EKF)
- Partikelfilter für nichtlineare Systeme
- Unscented Kalman Filter (UKF) für komplexe Dynamiken
- Datenassoziation mit Nearest Neighbor und Joint Probabilistic Data Association (JPDA)
Praktische Sensor Fusion Implementierung
- Integration von LiDAR- und Kameradaten zur Objekterkennung
- Fusion von RADAR- und Kameradaten zur Geschwindigkeitsabschätzung
- Kombination von GPS- und IMU-Daten für eine genaue Lokalisierung
Echtzeit-Datenverarbeitung und -Synchronisation
- Zeitstempelung und Daten-Synchronisationsmethoden
- Latenzbehandlung und Echtzeit-Leistungsoptimierung
- Verwaltung von Daten von asynchronen Sensoren
Fortgeschrittene Techniken und Herausforderungen
- Deep-Learning-Ansätze für die Datensensorfusion
- Multi-modale Datenintegration und Feature-Extraktion
- Umgang mit Sensorfehlern und verschlechterten Daten
Leistungsbewertung und -optimierung
- Quantitative Bewertungsmetriken für die Fusionsgenauigkeit
- Leistungsanalyse unter verschiedenen Umweltbedingungen
- Verbesserung der Systemrobustheit und Fehlertoleranz
Fallstudien und reale Anwendungen
- Fusionstechniken in autonomen Fahrzeugprototypen
- Erfolgreiche Implementierung von Sensorfusionsalgorithmen
- Workshop: Implementierung einer Multi-Sensor-Fusionspipeline
Zusammenfassung und nächste Schritte
Voraussetzungen
- Erfahrung mit Python Programmierung
- Kenntnisse grundlegender Sensortechnologien (z. B. LiDAR, Kameras, RADAR)
- Vertrautheit mit ROS und Datenverarbeitung
Zielgruppe
- Experten für Sensorfusion, die an autonomen Navigationssystemen arbeiten
- KI-Ingenieure mit Schwerpunkt auf Multi-Sensor-Integration und Datenverarbeitung
- Forscher im Bereich der autonomen Fahrzeugwahrnehmung
21 Stunden