Treffer: Comparison of Floating-point Representations for the Efficient Implementation of Machine Learning Algorithms ; Srovnání reprezentací v plovoucí desetinné čárce pro efektivní implementaci algoritmů strojového učení

Title:
Comparison of Floating-point Representations for the Efficient Implementation of Machine Learning Algorithms ; Srovnání reprezentací v plovoucí desetinné čárce pro efektivní implementaci algoritmů strojového učení
Publisher Information:
IEEE
Publication Year:
2022
Collection:
Digitální knihovna Univerzity Pardubice
Document Type:
Konferenz conference object
File Description:
p. 191-196; application/pdf
Language:
English
Relation:
2022 32ND INTERNATIONAL CONFERENCE RADIOELEKTRONIKA (RADIOELEKTRONIKA); https://ieeexplore.ieee.org/document/9764927/; https://hdl.handle.net/10195/81287; 000856002200040
DOI:
10.1109/RADIOELEKTRONIKA54537.2022.9764927
Rights:
open access (green)
Accession Number:
edsbas.B02F11A4
Database:
BASE

Weitere Informationen

Smart systems are enabled by artificial intelligence (AI), which is realized using machine learning (ML) techniques. ML algorithms are implemented in the hardware using fixedpoint, integer, and floating-point representations. The performance of hardware implementation gets impacted due to very small or large values because of their limited word size. To overcome this limitation, various floating-point representations are employed, such as IEEE754, posit, bfloat16 etc. Moreover, for the efficient implementation of ML algorithms, one of the most intuitive solutions is to use a suitable number system. As we know, multiply and add (MAC), divider and square root units are the most common building blocks of various ML algorithms. Therefore, in this paper, we present a comparative study of hardware implementations of these units based on bfloat16 and posit number representations. It is observed that posit based implementations perform 1.50x better in terms of accuracy, but consume 1.51x more hardware resources as compared to bfloat16 based realizations. Thus, as per the trade-off between accuracy and resource utilization, it can be stated that the bfloat16 number representation may be preferred over other existing number representations in the hardware implementations of ML algorithms. ; Inteligentní systémy jsou umožněny umělou inteligencí (AI), která je realizována pomocí technik strojového učení (ML). Algoritmy ML jsou implementovány v hardwaru s využitím reprezentace s pevnou řádovou čárkou, celými čísly a plovoucí řádovou čárkou. Výkonnost hardwarové implementace je ovlivněna velmi malými nebo velkými hodnotami kvůli jejich omezené velikosti slova. K překonání tohoto omezení se používají různé reprezentace s plovoucí desetinnou čárkou, například IEEE754, posit, bfloat16 atd. Navíc pro efektivní implementaci ML algoritmů je jedním z nejintuitivnějších řešení použití vhodné číselné soustavy. Jak víme, nejběžnějšími stavebními prvky různých ML algoritmů jsou jednotky pro násobení a sčítání (MAC), dělička a odmocnina. ...