Ihre KI. Ihre Hardware.
Wir wandeln komplexe neuronale Netze in Edge-fähige Modelle um.
Ohne Abstriche bei der Genauigkeit
6x
FLOPS Reduzierung
84%
Energieeinsparung
74+
FPS auf Edge Devices
GPU


Embedded

Das Problem
Das Dilemma auf Edge-Geräten
Sie haben ein funktionierendes neuronales Netzwerk entwickelt. Doch bei der Implementierung auf Edge-Geräten müssen Sie sich zwischen Geschwindigkeit und Leistung entscheiden.
Schnelle Inferenz
Geringe Genauigkeit
Hohe Genauigkeit
Zu langsam
Unserer Lösung
Optimierte Architektur
Maßgeschneiderte Modellentwicklung, die auf Ihre Hardware-Anforderungen zugeschnitten ist
Maximale Kompression
Schnelle Inferenz ohne Einbußen bei der Genauigkeit
Beispiel
Leistungssteigerungen in der Praxis
Maximale Reduzierung der Rechenressourcen bei minimalem Leistungsverlust.
Tiefenschätzung in einer Ansicht auf dem NVIDIA Jetson Nano
Durchsatz
FPS
11.4 🠆 74.7
+555% Boost
Energie pro Frame
mJ
5.8 🠆 0.47
84% Einsparung
Operationen
FLOP
7.18 G 🠆 1.19 G
6x Reduzierung
Einblicke
Automatische Wissens-Distillation
Wir übertragen die „Intelligenz“ großer Modelle, die für leistungsstarke GPUs entwickelt wurden, in kompakte, für den Einsatz auf Edge-Geräten geeignete Architekturen.
Foundation -> Edge
Mehrzieloptimierung
Unsere AutoML-Pipeline optimiert gleichzeitig Größe, Geschwindigkeit und Genauigkeit und findet so die perfekte Balance für Ihren Anwendungsfall.
SMAC + Hyperband
Automatisches Pruning
Entfernung überflüssiger Gewichte und Verbindungen auf intelligente Weise ohne die Modellleistung zu beeinträchtigen
Strukturiertes Pruning
Quantisierung
In INT8/FP16 konvertieren, um eine maximale Hardwarebeschleunigung auf Edge-Geräten zu erzielen.
Edge Device Ready

