Schulungsübersicht

Einführung in die Datensensorfusion

  • Bedeutung der Datensensorfusion für die autonome Navigation
  • Herausforderungen bei der Integration von Mehrfachsensoren
  • Anwendungsbereiche der Datensensorfusion in der Echtzeitwahrnehmung

Sensor-Technologien und Datencharakteristika

  • LiDAR: Generierung und Verarbeitung von Punktwolken
  • Kamera: Visuelle Datenerfassung und Bildverarbeitung
  • RADAR: Objekterkennung und Geschwindigkeitsabschätzung
  • Inertiale Messeinheiten (IMUs): Bewegungserfassung

Grundlagen der Datensensorfusion

  • Mathematical Grundlagen: Kalman-Filter, Bayes'sche Inferenz
  • Datenassoziation und -ausrichtungstechniken
  • Umgang mit Sensorrauschen und Unsicherheit

Fusionsalgorithmen für die autonome Navigation

  • Kalman-Filter und erweitertes Kalman-Filter (EKF)
  • Partikelfilter für nichtlineare Systeme
  • Unscented Kalman Filter (UKF) für komplexe Dynamiken
  • Datenassoziation mit Nearest Neighbor und Joint Probabilistic Data Association (JPDA)

Praktische Sensor Fusion Implementierung

  • Integration von LiDAR- und Kameradaten zur Objekterkennung
  • Fusion von RADAR- und Kameradaten zur Geschwindigkeitsabschätzung
  • Kombination von GPS- und IMU-Daten für eine genaue Lokalisierung

Echtzeit-Datenverarbeitung und -Synchronisation

  • Zeitstempelung und Daten-Synchronisationsmethoden
  • Latenzbehandlung und Echtzeit-Leistungsoptimierung
  • Verwaltung von Daten von asynchronen Sensoren

Fortgeschrittene Techniken und Herausforderungen

  • Deep-Learning-Ansätze für die Datensensorfusion
  • Multi-modale Datenintegration und Feature-Extraktion
  • Umgang mit Sensorfehlern und verschlechterten Daten

Leistungsbewertung und -optimierung

  • Quantitative Bewertungsmetriken für die Fusionsgenauigkeit
  • Leistungsanalyse unter verschiedenen Umweltbedingungen
  • Verbesserung der Systemrobustheit und Fehlertoleranz

Fallstudien und reale Anwendungen

  • Fusionstechniken in autonomen Fahrzeugprototypen
  • Erfolgreiche Implementierung von Sensorfusionsalgorithmen
  • Workshop: Implementierung einer Multi-Sensor-Fusionspipeline

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Erfahrung mit Python Programmierung
  • Kenntnisse grundlegender Sensortechnologien (z. B. LiDAR, Kameras, RADAR)
  • Vertrautheit mit ROS und Datenverarbeitung

Zielgruppe

  • Experten für Sensorfusion, die an autonomen Navigationssystemen arbeiten
  • KI-Ingenieure mit Schwerpunkt auf Multi-Sensor-Integration und Datenverarbeitung
  • Forscher im Bereich der autonomen Fahrzeugwahrnehmung
 21 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien