内容へ移動
自然言語処理の餅屋
https://www.jnlp.org/
ユーザ用ツール
ユーザー登録
ログイン
サイト用ツール
検索
ツール
文書の表示
以前のリビジョン
バックリンク
最近の変更
メディアマネージャー
サイトマップ
ユーザー登録
ログイン
>
最近の変更
メディアマネージャー
サイトマップ
現在位置:
自然言語処理の餅屋
»
言語モデル
»
BART
言語モデル:bart
この文書は読取専用です。文書のソースを閲覧することは可能ですが、変更はできません。もし変更したい場合は管理者に連絡してください。
===== BART ==== BARTは[[bert]]をSequence-to-Sequence([[seq2seq]])の形にしたもの。 * 2023-01-24 | [[https://tech.stockmark.co.jp/blog/bart-japanese-base-news/|日本語ビジネスニュースコーパスを学習したBART事前学習済モデルの紹介]] * 2022-10-31 | [[https://qiita.com/takky_0330/items/f20d1ba0987230e7b1a1|BARTで日本語を抽象型要約してみた(fairseq)]] * 2021-03-19 | [[https://data-analytics.fun/2021/03/19/understanding-bart/|【論文解説】BARTを理解する]]
(感想・要望・情報提供)
· 最終更新: 2023/01/29 16:19 by
admin
ページ用ツール
文書の表示
以前のリビジョン
バックリンク
文書の先頭へ
(広告募集)