===== RoBERTa ===== === 言語資源 === ^Japanese RoBERTa|https://github.com/informatix-inc/bert| ^roberta-large-japanese|https://huggingface.co/nlp-waseda/roberta-large-japanese| ^roberta-long-japanese|https://huggingface.co/megagonlabs/roberta-long-japanese| === 記事 === * 2022-04-17 | (動画) [[https://www.youtube.com/watch?v=yr2h0Xd1imU|りんな 日本語 RoBERTa の fine tuningをGoogle Colabの無料枠で試す方法【前編:ファインチューニングまで】【あざい るぅか】]] * 2022-01-31 | [[https://qiita.com/shiba_inu_/items/02200dac681900360235|言語モデルRoBERTaで深層距離学習モデルを作ってみる]]