ユーザ用ツール

サイト用ツール


パープレキシティ

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
パープレキシティ [2022/07/16 16:08] adminパープレキシティ [2023/02/09 17:32] (現在) admin
行 1: 行 1:
 ===== パープレキシティ ===== ===== パープレキシティ =====
-==== パープレキシティとは ===+=== パープレキシティとは ===
 [[言語モデル]]の複雑さを表現する指標で、大きいほうが複雑であり、小さいほうが良い言語モデル。直観的には、後続する可能性のある単語数の平均。2のエントロピー乗で計算。 [[言語モデル]]の複雑さを表現する指標で、大きいほうが複雑であり、小さいほうが良い言語モデル。直観的には、後続する可能性のある単語数の平均。2のエントロピー乗で計算。
  
-==== リンク ====+=== ツール ==
 +|Language Model Perplexity (LM-PPL)|https://github.com/asahi417/lmppl| 
 + 
 +=== 記事 ===
   * 2021-07-05 | (動画) [[https://www.youtube.com/watch?v=Xd_KfgWVWsI|第7回: Lower Perplexity is Not Always Human-Like]]   * 2021-07-05 | (動画) [[https://www.youtube.com/watch?v=Xd_KfgWVWsI|第7回: Lower Perplexity is Not Always Human-Like]]
   * 2020-11-26 | (PDF) [[https://arxiv.org/abs/2011.13220|Unigram-Normalized Perplexity as a Language Model Performance Measure with Different Vocabulary Sizes]]   * 2020-11-26 | (PDF) [[https://arxiv.org/abs/2011.13220|Unigram-Normalized Perplexity as a Language Model Performance Measure with Different Vocabulary Sizes]]
(感想・要望・情報提供) 
· 最終更新: 2023/02/09 17:32 by admin

(広告募集)