===== T5 ===== === モデル == * 2021-09-11 | [[https://huggingface.co/megagonlabs/t5-base-japanese-web-8k|t5-base-japanese-web (with Byte-fallback, 8K)]] - T5 (Text-to-Text Transfer Transformer) model pre-trained on Japanese web texts. * 2021-04-06 | [[https://qiita.com/sonoisa/items/a9af64ff641f0bbfed44|【日本語モデル付き】2021年に自然言語処理をする人にお勧めしたい事前学習済みモデル]] === mT5 === T5の多言語版。 * (PDF) [[https://arxiv.org/abs/2010.11934|mT5: A massively multilingual pre-trained text-to-text transformer]] === FLAN-T5 === ^FLAN-T5 XXL|https://huggingface.co/google/flan-t5-xxl| * 2022-11-11 | [[https://self-development.info/%E3%80%90%E7%84%A1%E6%96%99%E3%80%91gpt-3%E3%83%AC%E3%83%99%E3%83%AB%E3%81%AEgoogle%E8%A3%BDflan-t5%E3%82%92%E5%88%A9%E7%94%A8%E3%81%99%E3%82%8B%E6%96%B9%E6%B3%95/|【無料】GPT-3レベルのGoogle製Flan-T5を利用する方法]] * 2022-10-28 | [[https://note.com/it_navi/n/n12ef94f074c6|Googleの新しい言語モデルのFlan-T5のデモが公開されたので色々と質問してみた]] * 2022-10-23 | [[https://note.com/npaka/n/n62c38906c3e4|Google AIの新しい言語モデル Flan-T5 を試す]] === 記事 === * 2021-12-19 | [[https://qiita.com/iNakamura/items/683091fb65396570a63d|雑談のためのチャットボットを深層学習自然言語処理モデル(T5)で作る]] * 2021-11-12 | [[https://www.dskomei.com/entry/2021/11/12/103050|PytorchのTransformersのT5を使って要約モデルを作る]] * 2021-09-28 | [[https://www.dskomei.com/entry/2021/09/28/110016|テキスト生成モデルのT5を構築 〜Transformersを使って転移学習による手軽な実践〜]] * 2021-06-18 | [[https://qiita.com/toshi0427/items/61f2f4a6fb385b31c638|日本語T5を使って文章生成 〜ヒロアカのキャラ名予測〜]] * 2020-02-26 | [[https://www.ogis-ri.co.jp/otc/hiroba/technical/similar-document-search/part7.html|第7回 T5 によるテキスト生成の検証]] * 2020-12-10 | [[https://note.com/asahi_ictrad/n/n4deeb15ddd4f|「般若心経」をT5(Text-to-Text Transfer Transformer)を使って現代語訳してみた!]] * 2020-03-26 | [[https://www.acceluniverse.com/blog/developers/2020/03/Text-to-Text-Transfer-Transformer.html|Googleが発表した自然言語処理モデルText-to-Text Transfer Transformer(T5)とは?]] * 2020-02-26 | [[https://www.ogis-ri.co.jp/otc/hiroba/technical/similar-document-search/part7.html|はじめての自然言語処理/第7回 T5 によるテキスト生成の検証]]