[Paper review] More is Better: Enhancing Open-Domain Dialogue Generation via Multi-Source Heterogeneous Knowledge

하나·2023년 5월 4일
0

Paper review

목록 보기
2/5

논문링크 : https://aclanthology.org/2021.emnlp-main.175.pdf

github 링크 : https://github.com/pku-sixing/EMNLP2021-MSKE_Dialog

이전에는 single-source homogeneous knowledge base 사용, 모든 dialogues 가 knowledge entries 에 연결될 수 없다는 한계, 이 논문에서는 새로운 dialogue generation model, MSKE-Dialog 제시

  1. 여러개의 heterogeneous knowledge 동시에 활용 가능

  2. Topic conflict 문제 → context와 다른 knowledge source 간의 topic 충돌을 피하기 위해 Multi-Reference Selection을 제안

    (대화가 주어지면 knowledge entries 는 일반적으로 entity name 일치 기술(?) 로 검색이 되는데 그렇기 때문에 한 소스에서 검색된 knowledge entries는 dialogue context 와 관련 없을 수도 있고 다른 소스에서 검색 된 entries 와 다른 topic 을 가질 수 있음)

  3. Generation Conflict 문제 → 여러 reference 를 동시에 참조해서 informative response를 생성하기 위한 Multi-Reference Generation 제안

    (예를 들어 dialogue vocab 과 commonsense vocab 에 둘 다 들어있던 ‘apple’ 이라는 두 개의 사과는 다음 단어를 예측할 때 두개의 다른 확률을 가지기 때문에 모델이 어떤 것을 목표로 할지 판단하기 어려움)

  • 사용한 multi source (하나의 소스를 사용한 것 보다 데이터 셋에서 커버리지를 63~200%향상 시켰다고 함)
  1. commonsense
  2. text
  3. infobox table
  • Data set
  1. ConceptNet for commonsense
  2. Chinese Wikipedia for the text knowledge
  3. Chinese Wikipedia for the infobox tables
  • MSKE-Dialog 는 knowledge-type-specific module 이 필요 없어서 scalability 한 특성이 있음. 단순히 새로운 knowledge 소스를 추가하거나 제거해서 사용할 수 있음.
  • 15개 중 12개의 metrics 에 대해서 좋은 결과를 냄. GPT-base 에 대해서는 더 낮은 성능을 보였는데 62%의 파라미터와 10%도 안되는 데이터의 양을 사용했다고 함.
  • 코드 있음, 데이터셋이 중국어임….

0개의 댓글