読者です 読者をやめる 読者になる 読者になる

Question Answering with Subgraph Embeddings

  • conference: EMNLP2014
  • author: Antoine Bordes, Sumit Chopra, Jason Weston

どんなもの?

 Facebook AI研の方々の研究.

オープンドメイン質問応答システム.分散表現を使う.

先行研究と比べてどこがすごい?

 質問応答システムは,KBに対してはスケーラビリティが高い一方で語彙や文法に関する知識やKBのスキーマなどに関しては熟練の技術者が注意深く設計しなくてはならなかった.

Faderら(2013)はほとんど人手のアノテーションを必要としないシステムを作ったが,このモデルはBordesら(2014)の分散表現を用いたモデルに負けた.

しかし,このモデルも十分な汎用性を持っているとは言えない.

 そこで,この手法ではBordesらのモデルを改良する.

  • より洗練された推論手続き
  • 解答の符号化がよりリッチになった(よく分からなかった)

 Barent,Liang(2014)のstate-of-the-artなモデルと同等のベンチマーク結果を出した(語彙に関する知識やその他の情報を用いていないにもかかわらず!).

技術や手法のキモはどこ?

 質問文とEntity(KBの中身?)とFREEBASEのrelation types(FREEBASEは知識をグラフの形で保持しているので,relation typeはエッジの属性に相当するのかなと思う)に出現する単語のembeddingsを学習する.

 質問文を$$q$$,解答を$$a$$として,スコア関数$$S(q, a) = f(q)T g(a)$$と定義する.

質問文と解答文が正しい組み合わせであればスコア関数が大きくなるんだと思う.

$$f()$$は質問文をEmbedding空間にマッピングする関数で,$$g()$$は解答をマッピングする関数.

$$f(q) = \bf{W}\phi(q$$,$$g(a) = \bf{W}\psi(a)$$であり,重み行列である$$\bf{W}$$を最適化する.

$$\phi$$と$$\psi$$は文章をバイナリエンコーディングする関数だと思う.

どうやって有効だと検証した?

 WebQuestionを用いてベンチマークテストを行った.

ベースラインと同等くらいの正解率(40%くらいだけど).

語彙とか文法とかの情報なしで同等の精度を出せるのは結構すごいと思った.

MLNとかと比較してどうなんだろう(そういえばMLNもEMNLP2014だったっけ).

次に読むべき論文は?

zatsu

  • 自然言語を解釈するのがそもそも難しくて,そのせいもあって質問応答は難しい
  • 質問応答のstate-of-the-artは二つのアプローチがある
    • information retrieval base
      • KBへのアクセス重視
    • semantic parsing base
      • KBに投げるクエリ重視