全文検索:
- ファインチューニング
- ===== ファインチューニング ===== ファインチューニング(fine tuning) * 2023-02-27 | [[https://note.com/npaka/n/n138952d15312|Google Colab で trlX による大規模言語モデルのファインチューニングを試す]] * 2023-02-26 | [[https://zenn.dev/vel/articles/573d6b952c319d|2ちゃんねらーAI : 大規模言語モデルのファインチューニングの実験]] * 2022-12-09 | [[https://www.ai-shift.co.j
- BERT
- [人工知能:深層学習]]の[[:言語モデル]]。 * [[transformer]]を用いて[[ファインチューニング]]に使えるパラメータを事前学習する。 * 2020年7月の現在では5000近くの論文で引用され... |【深層学習】BERT - 実務家必修。実務で超応用されまくっている自然言語処理モデル【ディープラーニングの世界vol.32】#110 #VRアカデミア #DeepLearning]] * 2021-0
- GPT-2 @言語モデル:gpt
- robes/articles/24ee45dd81636a|【自然言語処理】日本語GPT-2モデルをファインチューニングして文章生成をやってみる]] * 2022-12-15 | [[https://qiita.co... //qiita.com/m__k/items/36875fedf8ad1842b729|GPT-2をファインチューニングしてニュース記事のタイトルを条件付きで生成してみた。]] * 2021-08-23 | [[ht... 学習】GPT-2 - 大規模言語モデルの可能性を見せ、社会もざわつかせたモデルの仕組み【ディープラーニングの世界vol.33】#113 #VRアカデミア #DeepLearning]] * 2021-0
- Sentence-BERT
- e-BERT ===== Sentence-BERTとは、類似文章検索のために[[BERT]]を[[ファインチューニング]]した[[:言語モデル]]。SBERT と表記されることもあります。 === 元論文 === ^... 実装したもの。 ^Sentence-Transformers|https://www.sbert.net/| === 関連ページ === * [[:類似度]] * [[言語モデル:ファインチューニング]]
- RoBERTa
- 本語 RoBERTa の fine tuningをGoogle Colabの無料枠で試す方法【前編:ファインチューニングまで】【あざい るぅか】]] * 2022-01-31 | [[https://qiita.co