A Hardware Acceleration Platform for AI-Based Inference at the Edge
PBN-AR
Instytucja
Wydział Elektroniki i Technik Informacyjnych (Politechnika Warszawska)
Informacje podstawowe
Główny język publikacji
en
Czasopismo
Circuits Systems and Signal Processing
ISSN
0278-081X
EISSN
Wydawca
DOI
URL
Rok publikacji
2019
Numer zeszytu
first online
Strony od-do
1-12
Numer tomu
first online
Identyfikator DOI
Liczba arkuszy
0.55
Autorzy
(liczba autorów: 7)
Pozostali autorzy
+ 6
Słowa kluczowe
en
Acceleration
YOLO
EDG
Fog
ML
Acceleration of machine learning
AI
Computing
PCP
Streszczenia
Język
en
Treść
Machine learning (ML) algorithms are already transforming the way data are collected and processed in the data center, where some form of AI has permeated most areas of computing. The integration of AI algorithms at the edge is the next logical step which is already under investigation. However, harnessing such algorithms at the edge will require more computing power than what current platforms offer. In this paper, we present an FPGA system-on-chip-based architecture that supports the acceleration of ML algorithms in an edge environment. The system supports dynamic deployment of ML functions driven either locally or remotely, thus achieving a remarkable degree of flexibility . We demonstrate the efficacy of this architecture by executing a version of the well-known YOLO classifier which demonstrates competitive performance while requiring a reasonable amount of resources on the device.
Inne
System-identifier
WUT4be30a75970a406dac44c107954a58b6
CrossrefMetadata from Crossref logo
Cytowania
Liczba prac cytujących tę pracę
Brak danych
Referencje
Liczba prac cytowanych przez tę pracę
Brak danych