Ceva, Inc. gab bekannt, dass es seine Ceva-NeuPro Familie von Edge-KI-NPUs mit der Einführung der Ceva-NeuPro-Nano NPUs erweitert hat. Diese hocheffizienten, autarken NPUs bieten die Energie-, Leistungs- und Kosteneffizienz, die Halbleiterunternehmen und OEMs benötigen, um TinyML-Modelle in ihre SoCs für Verbraucher-, Industrie- und Allzweck-KIoT-Produkte zu integrieren. TinyML bezieht sich auf den Einsatz von maschinellen Lernmodellen auf stromsparenden, ressourcenbeschränkten Geräten, um die Leistungsfähigkeit der KI in das Internet der Dinge (IoT) zu bringen.

Angetrieben durch die steigende Nachfrage nach effizienten und spezialisierten KI-Lösungen in IoT-Geräten wächst der Markt für TinyML schnell. Laut dem Marktforschungsunternehmen ABI Research werden bis 2030 mehr als 40 % der TinyML-Lieferungen von dedizierter TinyML-Hardware statt von Allzweck-MCUs betrieben werden. Die Ceva-NeuPro-Nano NPUs adressieren die spezifischen Leistungsanforderungen von TinyML und zielen darauf ab, KI allgegenwärtig, wirtschaftlich und praktisch für eine breite Palette von Anwendungsfällen zu machen, die von Sprach- und Bildverarbeitung über prädiktive Wartung bis hin zu Gesundheitssensorik in Verbraucher- und industriellen IoT-Anwendungen reichen.

Die neue Ceva-NeuPro-Nano Embedded AI NPU-Architektur ist vollständig programmierbar und führt Neuronale Netze, Merkmalsextraktion, Steuercode und DSP-Code effizient aus. Sie unterstützt die fortschrittlichsten Datentypen und Operatoren für maschinelles Lernen, einschließlich nativer Transformationsberechnung, Sparsity-Beschleunigung und schneller Quantisierung. Dank dieser optimierten, autarken Architektur bieten die Ceva-NeuPro-Nano NPUs eine überragende Energieeffizienz, einen geringeren Platzbedarf auf dem Silizium und eine optimale Leistung im Vergleich zu den bestehenden Prozessorlösungen für TinyML-Workloads, die eine Kombination aus CPU oder DSP mit KI-Beschleuniger-basierten Architekturen verwenden. Darüber hinaus verarbeitet die Ceva-NetSqueeze KI-Komprimierungstechnologie direkt die komprimierten Modellgewichte, ohne dass eine zwischengeschaltete Dekomprimierungsstufe erforderlich ist.

Dadurch können die Ceva-NeuPro-Nano NPUs den Speicherbedarf um bis zu 80% reduzieren und damit einen wichtigen Engpass beseitigen, der die breite Einführung von KIoT-Prozessoren verhindert. Die Ceva-NeuPro-Nano NPU ist in zwei Konfigurationen erhältlich - der Ceva-NPN32 mit 32 int8 MACs und der Ceva-NPN64 mit 64 int8 MACs, die beide von Ceva-NetSqueeze für die direkte Verarbeitung von komprimierten Modellgewichten profitieren. Der Ceva-NPN32 ist für die meisten TinyML-Workloads optimiert, die auf Sprach-, Audio-, Objekt- und Anomalieerkennung abzielen.

Der Ceva-NPN64 bietet eine zweifache Leistungsbeschleunigung durch Weight Sparsity, eine größere Speicherbandbreite, mehr MACs und Unterstützung für 4-Bit-Gewichte, um die Leistung für komplexere KI-Anwendungsfälle auf dem Gerät wie Objektklassifizierung, Gesichtserkennung, Spracherkennung, Gesundheitsüberwachung und andere zu verbessern. Die NPUs werden mit einem kompletten KI-SDK - Ceva-NeuPro Studio - ausgeliefert. Dabei handelt es sich um einen einheitlichen KI-Stack, der einen gemeinsamen Satz von Tools für die gesamte Ceva-NeuPro NPU-Familie bereitstellt und offene KI-Frameworks wie TensorFlow Lite für Mikrocontroller (TFLM) und microTVM (µTVM) unterstützt. Die wichtigsten Merkmale des Ceva-NeuPro-Nano: Flexible und skalierbare NPU-Architektur: Vollständig programmierbar zur effizienten Ausführung von Neuronalen Netzen, Merkmalsextraktion, Steuercode und DSP-Code; Skalierbare Leistung für eine Vielzahl von Anwendungsfällen; MAC-Konfigurationen mit bis zu 64 int8 MACs pro Zyklus; Zukunftssichere Architektur, die die fortschrittlichsten ML-Datentypen und Operatoren unterstützt; Unterstützung von 4-Bit- bis 32-Bit-Ganzzahlen; Native Transformatorberechnung; Ultimative ML-Performance für alle Anwendungsfälle unter Verwendung fortschrittlicher Mechanismen; Sparsity-Beschleunigung; Beschleunigung nichtlinearer Aktivierungstypen; Schnelle Quantisierung; Edge NPU mit extrem geringem Speicherbedarf: Hocheffizientes Single-Core-Design für die NN-Berechnung, die Merkmalsextraktion, den Steuercode und den DSP-Code macht eine begleitende MCU für diese rechenintensiven Aufgaben überflüssig; bis zu 80 % weniger Speicherbedarf durch Ceva-NetSqueeze, das komprimierte Modellgewichte direkt verarbeitet, ohne dass eine zwischengeschaltete Dekomprimierungsstufe erforderlich ist; extrem niedriger Energieverbrauch durch innovative Energieoptimierungstechniken: Automatisches Energie-Tuning on-the-fly; drastische Energie- und Bandbreitenreduzierung durch Destillation von Berechnungen unter Verwendung der Weight-Sparsity-Beschleunigung; komplettes, einfach zu verwendendes KI-SDK: Ceva-NeuPro Studio bietet einen einheitlichen KI-Stack für alle Ceva-NeuPro NPUs, vom neuen Ceva-NeuPro-Nano bis zum leistungsstarken Ceva-NeuPro-M. Schnelle Markteinführung durch Beschleunigung der Softwareentwicklung und -bereitstellung. Optimiert für die nahtlose Zusammenarbeit mit führenden, offenen KI-Inferenz-Frameworks wie TFLM und µTVM; Modell-Zoo mit vortrainierten und optimierten TinyML-Modellen für Sprach-, Bildverarbeitungs- und Erkennungsanwendungen; Flexibel für die Anpassung an neue Modelle, Anwendungen und Marktanforderungen; Umfassendes Portfolio an optimierten Laufzeitbibliotheken und anwendungsspezifischer Standardsoftware.