パープレキシティ
パープレキシティとは
言語モデル
の複雑さを表現する指標で、大きいほうが複雑であり、小さいほうが良い言語モデル。直観的には、後続する可能性のある単語数の平均。2のエントロピー乗で計算。
ツール
Language Model Perplexity (LM-PPL)
https://github.com/asahi417/lmppl
記事
2021-07-05 | (動画)
第7回: Lower Perplexity is Not Always Human-Like
2020-11-26 | (PDF)
Unigram-Normalized Perplexity as a Language Model Performance Measure with Different Vocabulary Sizes
【初学者向け】パープレキシティとは。クロスエントロピーとの関係も解説。
(スライド)
トピックモデルの評価指標 Perplexity とは何なのか?
エントロピーとパープレキシティ
Perplexityとは
(PDF)
複合語のパープレキシティに基づく重要語抽出法の研究