heise+ | Deep Learning: Wie Compiler dabei helfen, Modelle auf Hardware zu optimieren from Heise's blog

Um Deep-Learning-Modelle auf unterschiedlicher Zielhardware effizient einzusetzen, nutzen Compiler wie TensorFlow XLA und Apache TVM den LLVM-Compilerstack.


Source: https://www.heise.de/tests/Deep-Learning-Wie-Compiler-dabei-helfen-Modelle-auf-Hardware-zu-optimieren-7240282.html?wt_mc=rss.red.ho.ho.rdf.beitrag_plus.beitrag_plus


Previous post     
     Next post
     Blog home

The Wall

No comments
You need to sign in to comment

Post

By Heise
Added Aug 29 '22, 05:11PM

Tags

Rate

Your rate:
Total: (0 rates)

Archives