Natural Language Processing: Google veröffentlicht Modell für Pre-Training from Heise's blog

Mit den quelloffenen "Bidirectional Encoder Representations from Transformers" (BERT) soll das Training neuer Modelle einfacher und schneller laufen.

Source: https://www.heise.de/developer/meldung/Natural-Language-Processing-Google-veroeffentlicht-Modell-fuer-Pre-Training-4211010.html?wt_mc=rss.ho.beitrag.rdf


Previous post     
     Next post
     Blog home

The Wall

No comments
You need to sign in to comment

Post

By Heise
Added Nov 5 '18, 03:48PM

Tags

Rate

Your rate:
Total: (0 rates)

Archives