ユーザ用ツール

サイト用ツール


言語モデル:roberta

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
言語モデル:roberta [2022/05/22 10:57] admin言語モデル:roberta [2022/10/22 17:23] (現在) admin
行 2: 行 2:
 === 言語資源 === === 言語資源 ===
 ^Japanese RoBERTa|https://github.com/informatix-inc/bert| ^Japanese RoBERTa|https://github.com/informatix-inc/bert|
-^nlp-waseda/roberta-large-japanese|https://huggingface.co/nlp-waseda/roberta-large-japanese|+^roberta-large-japanese|https://huggingface.co/nlp-waseda/roberta-large-japanese| 
 +^roberta-long-japanese|https://huggingface.co/megagonlabs/roberta-long-japanese|
  
 === 記事 === === 記事 ===
 +  * 2022-04-17 | (動画) [[https://www.youtube.com/watch?v=yr2h0Xd1imU|りんな 日本語 RoBERTa の fine tuningをGoogle Colabの無料枠で試す方法【前編:ファインチューニングまで】【あざい るぅか】]]
   * 2022-01-31 | [[https://qiita.com/shiba_inu_/items/02200dac681900360235|言語モデルRoBERTaで深層距離学習モデルを作ってみる]]   * 2022-01-31 | [[https://qiita.com/shiba_inu_/items/02200dac681900360235|言語モデルRoBERTaで深層距離学習モデルを作ってみる]]
  
  
(感想・要望・情報提供) 
.gz · 最終更新: 2022/05/22 10:57 by admin

(広告募集)