【国際会議】COLING2016(WAT2016)

COLING 2016 (WAT2016 参加報告)

時間:12/10(WAT2016)
        12/11 - 12/16 (COLING2016 本会議)
場所:大阪国際会議場

WAT2016 参加報告

発表内容

Integrating empty category detection into preordering Machine Translation Shunsuke Takeno, Masaaki Nagata, and Kazuhide Yamamoto

質問内容

  • Forest-to-stringなどを試してみるのは

解決策としてそれは効果的であることには違いないが 欠落語の問題を解決する上で重要なのは、目的言語との関係をちゃんと認識すること 原言語情報だけの情報を使って補完してもあまり効果が無い。

聴講内容

Google's Neural Machine Translation System: Training and Serving Very Large Neural MT Models
Dr. Hideto Kazawa

GoogleのNMTの話; 基本的に論文以上の情報はなし
  - encoder 8層/decoder 8層.
  - 初めの層だけ bidirectional RNN. Residual network.
 - 強化学習も組み合わせている - 多言語化対応のため, 学習の際に言語タグを入れる.
      * これをすることで, 直接学習させていない言語対でもうまく出力できるようになる

Kyoto University Participation to WAT 2016
Fabien Cromieres, Chenhui Chu, Toshiaki Nakazawa, and Sadao Kurohashi

京都大学のNMTのシステム説明

基本的にNMTのSOTAのシステム 長年構築されてきたEBMTではなくNMT。 
基本的にシステムをアンサンブルするのと層を追加すること.

NMTの登場はものすごい大きい影響であった。 

所感

流暢性の壁がNMTまたはRNNの言語モデルにより 取り払われたのであとは妥当性(adequacy)の問題.

会議中で言われていたNMTの残りの課題(講演等で言われていた課題):
 - より表現能力が高いモデルをいかに構築するか?
 - 言語的な説明能力をどうやって担保するか?
 - 訓練時の複雑さ(膨大な学習時間)をいかに小さくするか
 - いかに外部知識を導入できる機構を作るか?

他の問題としては
 * 語彙の問題 -> BPE (出力側の言語モデルが相当に強力)
 * repetitionまたはattentionがちゃんと当たらない問題(reconstruction, coverageモデル)
    - attention != alignment問題(guided alignmentなどがある) 
    - 他attentionをwrite/readの様な形にすることで解決したといような話も
    - ここらへんの問題は, 原語文の訳さない語などがあるから?とは思う

  • 学習時間の問題(CNNのようなモデルを導入する?)
  • attention-basedのことを考えると encoderの方はCNNを使っているのと変わらない?
  • 解釈性ををどうやって担保するか?
    • 分散表現層を解析するのは意味が無くて, 何かしらの解釈ができるように学習すれば良いのではないか?

COLING2016 参加報告

優秀論文賞内容

  • Predicting Human Similarity Judgements with Distributional Models: The Value of Word Associations
  • Extending the Use of Adaptor Grammars for Unsupervised Morphological Segnmentation of Unseen Languages.

二つの論文とも 言語学的な側面からの問題設定としての面白さ, 考察の面白さから選ばれているように感じる NNは機械学習のための良い道具であるが, 研究として面白くなるのは 言語に対する認知学的な観点を持つ、ということなのかと思った。

他聴講内容について

MTに関しては基本的にはNMTのネットワーク構造をうまく替えましたという話が多い パラメータ数の数が等価でないので, ちゃんとした比較もしくはモデル化をしているのかが謎である.
そう考えたとき、COLINGででてきたMTの内容は そこら辺の話がちゃんとできていないものが多かったのではないかと感じる.

結論から言ってしまえば, 研究が示しているモデルの正しさをしめす例が
BLEUが上がっていることしか根拠がない点は問題であると感じる。

統計学のモデル選択 or 言語学的なエラー分析もしっかりしていくべきと感じる
関連して, RIBESやBLEUの評価尺度が訳になっているのか怪しいとも思う.
特にRIBESは流暢性がこれだけよくなった中で正しい評価ができているのか怪しい.

構文木をmini-batch化するのに, プッシュダウンオートマトンのアクション系列に変換する

  • Task-Oriented Intrinsic Evaluation of Semantic Textual Similarity
    非線形性の評価尺度を以下に評価するか? (ピアソン係数とかでは無理) -> 複数の評価をアンサンブルする
  • TASTY: Interactive Entity Linking As-You-Type
    デモとして非常に面白かった。 オンライン デモ テキスト編集 + 固有名詞抽出しながら編集が可能。 アプリケーションとしては良いなと思った
  • Automatically Processing Tweets from Gang-Involved Youth: Towards Detecting Loss and Aggression
    ギャングたちのツイートから, 攻撃的なツイートを判定するシステム. 日本でも2chの犯罪予告のレスから自動的に通報するシステムもあったなと思い出しながら聞いていた。 分類器は loss(友人の死を悲しむ)/aggresive(攻撃的なツイート;他人を殺す予兆のあるツイートなど)/他を分類する。
Ċ
竹野峻輔,
2016/12/25 0:12
Ċ
竹野峻輔,
2016/12/25 0:11
Comments