相田 太一‎ > ‎文献紹介‎ > ‎

2019/01/28

論文:Phrase-level Self-Attention Networks  for Universal Sentence Encoding
担当:勝田さん
・RNNは時間効率悪い。提案手法との時間比較は?→していない。マシンの力による?作る人次第。
・単語アライメント:この単語に対してそれとの関係が強そうなものを学習。単語と単語の繋がり。visualization and case studyの図がそれを表す。
・短い文だとsentence > phraseだが長い文だとsentence < phrase。総合するとsentence < phrase。


論文:Attention-based LSTM for Aspect-level Sentiment Classification
担当:Vietさん
・table3がrestaurantでtable4がlaptop
・TD-LSTMとTC-LSTMの違い
    ・TD-LSTM:アスペクトをターゲットに
    ・TC-LSTM:ターゲットから文の表現
・カスタマーズレビューのドメインがたくさんある?
Comments