内容へ移動
自然言語処理の餅屋
https://www.jnlp.org/
ユーザ用ツール
ユーザー登録
ログイン
サイト用ツール
検索
ツール
文書の表示
以前のリビジョン
バックリンク
最近の変更
メディアマネージャー
サイトマップ
ユーザー登録
ログイン
>
最近の変更
メディアマネージャー
サイトマップ
現在位置:
自然言語処理の餅屋
»
言語モデル
»
ファインチューニング
言語モデル:ファインチューニング
この文書は読取専用です。文書のソースを閲覧することは可能ですが、変更はできません。もし変更したい場合は管理者に連絡してください。
===== ファインチューニング ===== ファインチューニング(fine tuning) * 2023-02-27 | [[https://note.com/npaka/n/n138952d15312|Google Colab で trlX による大規模言語モデルのファインチューニングを試す]] * 2023-02-26 | [[https://zenn.dev/vel/articles/573d6b952c319d|2ちゃんねらーAI : 大規模言語モデルのファインチューニングの実験]] * 2022-12-09 | [[https://www.ai-shift.co.jp/techblog/2985|【AI Shift/Kaggle Advent Calendar 2022】Kaggleで学んだBERTをfine-tuningする際のTips④〜Adversarial Training編〜]] * 2022-01-28 | [[https://zenn.dev/lsii/scraps/0686d6474d7180|Sentence BERTのファインチューニング手順]] * 2020-04-12 | [[https://data-analytics.fun/2020/04/12/understanding-semi-supervised-learning/|事前学習 – ファインチューニングを理解する]] === ファインチューニングは不安定 === * 2021-03-03 | [[https://ai-scholar.tech/articles/bert/bert-fine-tuning|BERTのfine-tuning不安定性はどのように解決できるか?]]
(感想・要望・情報提供)
· 最終更新: 2023/04/10 11:12 by
admin
ページ用ツール
文書の表示
以前のリビジョン
バックリンク
文書の先頭へ
(広告募集)