L’utilizzo della potenza di calcolo delle GPU è diventato sempre più frequente, non solo quando si ha a che fare con la grafica 3D. Per molte applicazioni di machine learning e analisi dei dati, è infatti divenuto cruciale il supporto di questi dispositivi, dotati di processori in grado di effettuare operazioni algebriche e matriciali in maniera estremamente efficiente, grazie al calcolo parallelo che sono in grado di supportare. Molti linguaggi di programmazione permettono, in effetti, di sfruttare le potenzialità delle GPU, tramite l’uso di librerie specifiche, o in qualche caso addirittura di appositi costrutti nativi. Ciò è però meno intuitivo in JavaScript. In effetti, essendosi diffuso inizialmente come linguaggio per i browser, la necessità dell’accelerazione hardware per le applicazioni basate su JavaScript è rimasta sempre…
