Multi-Head Self-Attentionを用いたSNLIタスク実践
Stanford Natural Language Inference (SNLI) という、与えられた文章とその仮説について、 (合致)・(矛盾)・(いずれでもない)、を回答する三値分類タスクに取り組んだ。モデルは、自 然言語処理分野における機械学習モデルのブレークスルーとなった Transformer 内の Multi- Head Self-Attention を用いたモデルをKeras + Tensorflow で実装。単語埋め込み次 元を分割してMulti-Head化することで精度向上することを確認。