相田 太一‎ > ‎文献紹介‎ > ‎

2019/04/08

論文:Bayesian Optimization of Text Representations
担当:吉澤

CNNを使った結果はAmazonとIMDBの映画レビューだけ?:多分。その2つの結果でCNNに迫るということを言いたかった。あとはニューラルでない既存手法との比較。
今回使ったモデルがそのままニューラルに使えそう?:同じ結果になるかも。
過学習については述べられていない。


論文:Baseline Needs More Love: On Simple Word-Embedding-Based Models and Associated Pooling Mechanisms
担当:勝田さん

Hierarchical pooling、どうして語順を考慮できる?:ngramで語順(フレーズ)を扱える。
計算の速さは SWEM > CNN > LSTM。
LSTMはある程度の長さは見れるが、SWTMはそれができない。
CNN、LSTMは語順を考慮でき、短い文が得意。SWTMは長い文が得意。
感情分類にはある程度語順を考慮できるものが良い。
シャッフルの前後で2ポイントしか落ちていない。:フレーズが取れていれば大丈夫そう。

Comments