内容へ移動
自然言語処理の餅屋
https://www.jnlp.org/
ユーザ用ツール
ユーザー登録
ログイン
サイト用ツール
検索
ツール
文書の表示
以前のリビジョン
バックリンク
最近の変更
メディアマネージャー
サイトマップ
ユーザー登録
ログイン
>
最近の変更
メディアマネージャー
サイトマップ
現在位置:
自然言語処理の餅屋
»
言語モデル
»
RoBERTa
言語モデル:roberta
この文書は読取専用です。文書のソースを閲覧することは可能ですが、変更はできません。もし変更したい場合は管理者に連絡してください。
===== RoBERTa ===== === 言語資源 === ^Japanese RoBERTa|https://github.com/informatix-inc/bert| ^roberta-large-japanese|https://huggingface.co/nlp-waseda/roberta-large-japanese| ^roberta-long-japanese|https://huggingface.co/megagonlabs/roberta-long-japanese| === 記事 === * 2022-04-17 | (動画) [[https://www.youtube.com/watch?v=yr2h0Xd1imU|りんな 日本語 RoBERTa の fine tuningをGoogle Colabの無料枠で試す方法【前編:ファインチューニングまで】【あざい るぅか】]] * 2022-01-31 | [[https://qiita.com/shiba_inu_/items/02200dac681900360235|言語モデルRoBERTaで深層距離学習モデルを作ってみる]]
(感想・要望・情報提供)
· 最終更新: 2022/10/22 17:23 by
admin
ページ用ツール
文書の表示
以前のリビジョン
バックリンク
文書の先頭へ
(広告募集)