ep50 (ICLR): ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators - a podcast by jojonki

from 2020-03-14T06:09:34

:: ::

ICLR 2020より,Replaced Token Detectionタスクによる事前学習によってGLUEとSQuADでSOTAを獲得したStanford x Googleのモデルを解説しました.


今回紹介した記事はこちらのissueで解説しています.

https://github.com/jojonki/arXivNotes/issues/391


サポーターも募集中です.

https://www.patreon.com/jojonki



---

Support this podcast: https://anchor.fm/lnlp-ninja/support

Further episodes of Leading NLP Ninja

Further podcasts by jojonki

Website of jojonki