Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation from Heise's blog
Forscher entwickeln Sprachmodelle, die ohne speicherintensive Matrixmultiplikationen auskommen und dennoch mit modernen Transformern konkurrieren können sollen.
The Wall