<aside> 💡 [본 논문의 핵심 포인트는 무엇인가?]

</aside>

1. Introduction

🍪 NLP task의 발전을 이끈 Model Pre-training! (with language modeling)


🍪 본 논문에서 제안하는 UniLM은요?


<aside> 💡 Cloze Task가 무엇인가?

Cloze task는 원래 교육 심리학에서 시작된 개념으로, 텍스트에서 특정 단어나 구절을 빈칸으로 만들고 이를 채우도록 하는 문제를 말함. NLP에서는 이 기법을 언어 모델이 문맥을 이해하도록 학습하는 데 사용하고 있음. 예를 들어, 문장이 "The cat sat on the [MASK]"이라면 모델은 [MASK] 자리에 "mat"을 예측하도록 훈련되는 식!

</aside>


🍪 Summary

  1. 여러 가지 모델링 기법을 통합한 pre-training은 cloze task를 통해 objective를 정의함으로써 여러 네트워크를 구현할 필요가 없음
  2. 다양한 모델링 objective로 학습되기 때문에 좀 더 일반화된 representation을 학습할 수 있음
  3. Seq-to-seq LM을 학습함으로써 더욱 복잡한 NLG task (abstractive summarization, question generation)에서 좀 더 나은 성능을 보임

2. Unified Language Model Pre-training (Method)

🍪 Input Representation