===== RWKV ===== RWKVとはTransformerレベルの性能を持つ高性能な RNN。 * 2023-07-17 | [[https://note.com/kan_hatakeyama/n/n56c819862385|大規模言語モデル RWKV-worldで学習で巨大なデータ(学会の予稿集のpdf)をファインチューニング(LoRA)する]] * 2023-07-09 | [[https://gigazine.net/news/20230709-rwkv-language-model/|従来の大規模言語モデルの制約だった「入力量の限界」を取り払った「RWKV」は一体どんな言語モデルなのか?]] * 2023-06-14 | [[https://blog.brainpad.co.jp/entry/2023/06/14/144554|RWKV(Receptance Weighted Key Value)をつかってみた]] * 2023-04-08 | [[https://qiita.com/toshi_456/items/5d3141033e6c78b35aac|"RWKV_CUDA_ON"を1に設定してRWKVを高速化する]]