Forschung

Führen Sie heute innovative Forschungsprojekte durch, um die Herausforderungen von morgen zu bewältigen.

GereKa

[09/25 - 05/26]

Benutzerfreundliche 3D Gebäuderekonstruktion zur Bestandsaufnahme mittels Kamera

Projektträger Jülich - Energie und Klima – Energiesystem: Nutzung – Energieeffizienz in Gebäuden (ESN 1)

  • 3D-Semantik-Segmentierung von Gebäuden mithilfe von BIM (Building Information Modeling)
  • Entwicklung einer benutzerfreundlichen Smartphone-/Tablet-App

DIGI-PV

[07/23 - 06/26]

Digitale Planung und automatisierte Produktion von Gebäude-integrierter Photovoltaik

Teilvorhaben: Erfassung, Digitalisierung, Klassifizierung und Strukturierung von Gebäudeoberflächen

Vom Bundesministerium für Wirtschaft und Klimaschutz gefördertes Forschungsprojekt.

Image
Image

GreenAutoML4FAS

[03/23 - 02/26]

Automatisiertes Green-ML anhand des Anwendungsbeispiels Fahrerassistenzsysteme

Forschungsprojekt gefördert durch das Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz.

VISCODA arbeitet mit dem AI (Institut für Künstliche Intelligenz), dem TNT (Institut für Informationsverarbeitung) und dem IMS (Institut für Mikroelektronische Systeme) zusammen.

EVCS-Datensatz:

Veröffentlichungen:

  • L. Chen, S. Südbeck, C. Riggers, T. Geib, K. Cordes, H. Broszio:
  • „EVCS: A Benchmark for Fine-Grained Electric Vehicle Charging Station Detection”, GCPR 2025, angenommen
  • K. Cordes, L. Chen, S. Südbeck, H. Broszio: „Online Optimization of Stereo Camera Calibration Accuracy”, 3D in Science & Applications (3D-iSA), 978-3-942709-34-7, S. 75-78, 2024, Preprint (pdf)
Image
Image
Image

InFusion

[06/20 - 09/23]

Cloud-Anwendung für zeitlich veränderliche Fahrbahnzustandsinformationen für verschiedene Fahrzeugklassen basierend auf fusionierten Fahrzeugdaten von Fahrzeugen verschiedener Klassen (LKW/PKW)

Erkennung, Lokalisierung und Klassifizierung von Straßenbedingungen in Echtzeit anhand der Frontkamera im Fahrzeug. Schätzung der fahrzeugspezifischen Straßenreibung durch Fusion mit Informationen aus anderen Sensoren (z. B. vibroakustische, meteorologische oder Traktionskontrollreaktionen). Ein cloudbasierter Dienst erhöht die Verkehrssicherheit und Effizienz für Fahrassistenz- und automatisierte Fahranwendungen.

Veröffentlichungen:

IWAn

[01/21 - 06/23]

Interaktive Werkzeuge zur automatisierten 2D/3D-Annotation

Entwicklung interaktiver Methoden auf Basis von Computer Vision und maschinellem Lernen zur Vereinfachung und Beschleunigung der Annotation (z. B. Beschriftung) von Bilddaten.

Ziel ist es, mit minimaler Benutzerinteraktion hochpräzise Annotationen zu generieren. Die annotierten Daten dienen als Ground Truth für maschinelle Lernverfahren, die auf Anwendungen im Bereich des autonomen Fahrens abzielen.

Image

KaBa

[05/21 - 03/23]

Kamerabasierte Bewegungsanalyse aller Verkehrsteilnehmer für automatisiertes Fahren

Dieses Projekt befasst sich mit der Bewegungsschätzung von Verkehrsteilnehmern, z. B. Autos und Fußgängern, anhand von monokularen Bildsequenzen. Zu diesem Zweck wird jede Kameraaufnahme einer panoptischen Segmentierung unterzogen, um Objektinstanzen von Verkehrsteilnehmern zu extrahieren.

Anschließend werden die 3D-Informationen (Position, Ausrichtung und Form) der erkannten Verkehrsteilnehmer geschätzt. Erfasste Objektinstanzen werden über mehrere Bilder hinweg durch die Zusammenführung ihrer räumlichen Konsistenz in 2D und 3D miteinander verknüpft. Das Ergebnis ist die Bewegung aller erfassten Verkehrsteilnehmer, was für die Planungsphase des automatisierten Fahrens von grundlegender Bedeutung ist.

Dieses Projekt wurde mit Mitteln des Europäischen Fonds für regionale Entwicklung gefördert.

Scene Reconstruction from Video

[aktuell]

Kamerabasierte Bewegungsanalyse aller Verkehrsteilnehmer für automatisiertes Fahren

Für die Produkte VooCAT/CineCAT werden verschiedene Algorithmen für die Kamerakalibrierung, das Tracking, die Struktur aus Bewegung und die Videosegmentierung entwickelt. Die Grundlage für die Szenenschätzung ist die Verwendung entsprechender Bildmerkmale, die aus einer 3D-Struktur entstehen, die auf verschiedene Kamerabildebenen abgebildet wird. Durch Verwendung eines statistischen Fehlermodells, das die Fehler in der Position der erkannten Merkmalspunkte beschreibt, kann ein Maximum-Likelihood-Schätzer formuliert werden, der gleichzeitig die Kameraparameter und die 3D-Positionen der Bildmerkmale schätzt.

Der Kamerapfad, die Videosegmentierung und die rekonstruierte Szene sind für die Integration virtueller Objekte in das Video unerlässlich. Die Punktwolke wird für 3D-Messungen verwendet, z. B. für Entfernungen zu oder zwischen verschiedenen Objekten der Szene.

Veröffentlichte Videos [YouTube]:

Veröffentlichungen:

Patente:

  • "Method for detecting curbs in the vehicle environment", ("Verfahren zur Erfassung von im Fahrzeugumfeld befindlichen Bordsteinen"), Maciej Korzec, Hellward Broszio, Matthias Narroschke, Nikolaus Meine, DE102016215840A1, 2018-03-01
  • "Method of inherent shadow recognition", ("Verfahren zur Eigenschattenerkennung"), Daniel Liebehenschel, Maciej Korzec, Hellward Broszio, Kai Cordes, Carolin Last, DE102016216462A1, 2018-03-01
  • "Method for continuous estimation of driving surface plane of motor vehicle" ("Verfahren und Vorrichtung zur Schätzung einer Fahrbahnebene und zur Klassifikation von 3D-Punkten"), Andreas Haja, Hellward Broszio, Nikolaus Meine, DE102011118171A1, 2013-05-16
  • "Method for determining e.g. wall in rear area of passenger car during parking" ("Verfahren zur Bestimmung von Objekten in einer Umgebung eines Fahrzeugs"), Andreas Haja, Hellward Broszio, Nikolaus Meine, DE102011113099A1, 2013-03-14
  • "Method for determining angle between towing vehicle and trailer" ("Verfahren und Vorrichtung zur Bestimmung eines Winkels zwischen einem Zugfahrzeug und einem daran gekoppelten Anhänger"), Andreas Haja, Hellward Broszio, Nikolaus Meine, DE102011113197A1, 2013-03-14
  • "Method for detecting obstacle in car surroundings" ("Verfahren und Vorrichtung zur Detektion mindestens eines Hindernisses in einem Fahrzeugumfeld"), Hellward Broszio, Andreas Haja, Nikolaus Meine, DE102010009620A1, 2011-09-01
VooCAT
Image
Real-time Visual Odometry
Image
MicroManeuvers
Image

IdenT

[02/20 - 04/23]

Identifikation dynamik- und sicherheitsrelevanter Trailerzustände für automatisiert fahrende Lastkraftwagen

Die dynamischen Eigenschaften eines Lkw werden in hohem Maße von seinem Anhänger bestimmt. Dennoch wird der Anhänger in aktuellen Lkw-Sensorsystemen kaum berücksichtigt.

Das Ziel von IdenT ist die Entwicklung eines intelligenten Anhänger-Sensornetzwerkes und einer cloudbasierten Datenplattform für die zuverlässige Echtzeit-Schätzung des Zustands von Anhängerkomponenten, die für automatisierte Fahranwendungen entscheidend sind. Mithilfe einer nach hinten gerichteten Kamera liefert VISCODA seinen Projektpartnern eine hochpräzise visuelle Odometrie und eine geometrisch rekonstruierte Szene für die Sensorfusion an Bord und in der Cloud.

Durch eine Kombination aus regelbasierten (geometrischen) und datengesteuerten (maschinelles Lernen) Algorithmen erkennt und lokalisiert VISCODA zusätzlich Verkehrsteilnehmer hinter dem Heck des Anhängers.

Image
Image

RaSar

[01/18 - 12/20]

Ressourcenadaptive Szenenanalyse und -rekonstruktion

Forschungsprojekt in Zusammenarbeit mit dem Institut für Informationsverarbeitung (Leibniz Universität Hannover / LUH) mit dem Ziel einer optimalen Genauigkeit bei der 3D-Szenenrekonstruktion und der Zuverlässigkeit der Objekterkennung unter Berücksichtigung von Ressourcenbeschränkungen wie der hardwarespezifischen Rechenleistung.

Dieses Projekt wurde mit Mitteln des Europäischen Fonds für regionale Entwicklung gefördert.

5GCAR

[06/17 - 07/19]

Kooperative und vernetzte V2X-Anwendungen treiben weitere Verbesserungen von Fahrerassistenzsystemen (ADAS) und automatisiertem Fahren voran. Für die abschließenden Demonstrationen im Rahmen des 5GCAR-Projekts wurden drei Anwendungsfallklassen ausgewählt und Vertreter für jede Klasse identifiziert. Die Klassen sind „Kooperatives Manövrieren“, „Kooperative Wahrnehmung“ und „Kooperative Sicherheit“.

VISCODA entwickelte Multiple Object Tracking (MOT) für den Anwendungsfall „Lane Merge Coordination“ (Spurwechselkoordination).

Darüber hinaus werden Long-Range Sensor Sharing, See-through und Network-assisted Vulnerable Road User (VRU) Protection vorgestellt. Die abschließende Demonstration fand auf der UTAC-Teststrecke in der Nähe von Paris statt.

5GCAR ist ein von der Europäischen Kommission finanziertes H2020-5G-PPP-Phase-2-Projekt.

Projekt-Website:

Projekt-Flyer:

Image
Image

Veröffentlichte Videos:

Veröffentlichungen:

  • K. Cordes, H. Broszio, H Wymeersch, S Saur, F Wen, Nil Garcia, Hyowon Kim: "Radio‐Based Positioning and Video‐Based Positioning",
    https://doi.org/10.1002/9781119692676.ch8, Wiley, April 2021
    Book Chapter at ieeexplore
  • K. Cordes and H. Broszio: "Vehicle Lane Merge Visual Benchmark",
    International Conference on Pattern Recognition (ICPR), IEEE, pp. 715-722, 2021
    Supplementary Video, Poster, Benchmark,
    Paper at ieeexplore
  • K. Antonakoglou, N. Brahmi, T. Abbas, A.E. Fernandez Barciela, M. Boban, K. Cordes, M. Fallgren, L. Gallo, A. Kousaridas, Z. Li, T. Mahmoodi, E. Ström, W. Sun, T. Svensson, G. Vivier, J. Alonso-Zarate:"On the Needs and Requirements Arising from Connected and Automated Driving", J. Sens. Actuator Netw. 2020, 9(2):24.
    OpenAccess: abstract, html, pdf
  • K. Cordes, N.Nolte, N. Meine, and H. Broszio: "Accuracy Evaluation of Camera-based Vehicle Localization", International Conference on Connected Vehicles and Expo (ICCVE), IEEE, pp. 1-7, Nov. 2019
    Paper at ieeexplore
  • "The 5GCAR Demonstrations", Sep. 2019
    Deliverable D5.2 (pdf)
  • B. Cellarius, K. Cordes, T. Frye, S. Saur, J. Otterbach, M. Lefebvre,  F. Gardes, J. Tiphène, M. Fallgren: "Use Case Representations of Connected and Automated Driving", European Conference on Networks and Communications (EuCNC), June 2019
    Extended abstract (pdf), Poster (pdf)
  • K. Cordes and H. Broszio: "Constrained Multi Camera Calibration for Lane Merge Observation" International Conference on Computer Vision Theory and Applications (VISAPP), SciTePress, pp. 529-536, Feb. 2019
    Paper preprint (pdf), Poster (pdf)
  • "5GCAR Demonstration Guidelines", May 2018, Deliverable D5.1
  • M. Fallgren, M. Dillinger, A. Servel, Z. Li, B. Villeforceix, T. Abbas, N. Brahmi, P. Cuer, T. Svensson, F. Sanchez, J. Alonso-Zarate, T. Mahmoodi, G. Vivier, M. Narroschke: "On the Fifth Generation Communication Automotive Research and Innovation Project 5GCAR - The Vehicular 5G PPP Phase 2 Project",
    European Conference on Networks and Communications (EuCNC), June 2017
    Extended abstract (pdf)

Objektbewegungs-schätzung

[aktuell]

Zur Schätzung von Bewegungsmodellen bewegter Objekte in Videos wird eine Bewegungssegmentierungstechnik verwendet. Bei der Bewegungssegmentierung werden die Merkmalsverläufe in einer Bildsequenz verschiedenen Bewegungen zugeordnet. Hypergraphbasierte Ansätze verwenden einen spezifischen Graphen, um Ähnlichkeiten höherer Ordnung für die Schätzung von Bewegungsklustern zu berücksichtigen. Sie folgen dem Konzept der Hypothesenbildung und -validierung.

Unser Ansatz verwendet ein einfaches, aber effektives Modell zur Einbeziehung bewegungskohärenter Affinitäten. Die aus dem resultierenden Hypergraphen generierten Hypothesen führen zu einer deutlichen Verringerung des Segmentierungsfehlers.

Veröffentlichungen

  • K. Cordes, C. Ray’onaldo, H. Broszio: „Motion-Coherent Affinities for Hypergraph Based Motion Segmentation”, Internationale Konferenz zur Computeranalyse von Bildern und Mustern (CAIP), Springer LNCS, S. 121–132, August 2017
Image
Wir benutzen Cookies

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.