# NLU

7개의 포스트

프로젝트와 나를 개선한다

챗봇 프로젝트에 NLU(Natual Language Understanding)개발 담당으로 참여하게 되었다

2022년 3월 19일
·
0개의 댓글
·
post-thumbnail

GLUE - 이것은 "풀"이 아니다 (자연어 이해 벤치마크를 파헤쳐 보자!)

GLUE는 자연어 이해 모델에서 범용적으로 사용되는 성능지표이다. GLUE를 파헤쳐 보자!

2022년 3월 12일
·
0개의 댓글
·
post-thumbnail

[NLP] NLU - Linguistic Acceptability(언어적 용인 가능성)

저번 시간에, NLP 자연어처리 분야에는 크게 NLU와 NLG로 나눠진다는 개념을 살펴보았다. NLG라는 Natural Language Generation에 관심이 많기에 자연어를 생성하고 이를 문법적으로 보좌할 수 있는 NLU의 Linguistic Acceptabil

2022년 2월 22일
·
5개의 댓글
·
post-thumbnail

NLU 기술 상용화 이해

자연어 이해(NLU, Natural Language Understanding)는 사용자의 의도가 무엇인지 기계가 알 수 있도록 하는 것개체명 인식(Named Entity Recognition)Sequence Labeling어떻게 문장의 의도(목적)을 알아낼까?1\. R

2021년 9월 16일
·
0개의 댓글
·
post-thumbnail

NLU 의미 이해 방법 Semantics

Distributional Semantics: Semantically similar words occur in similar context \-> Semantic Role Labeling모든 상황을 다룰 필요는 없음Language as Programs

2021년 9월 16일
·
0개의 댓글
·
post-thumbnail

NLU 기술이란? 자연어 특징

사람의 언어를 입력으로 실제 의도를 분석하는 기술과 이러한 기술의 상용화 과정을 이해해보자.자연어 이해 기술이란? 기계가 사람의 말을 이해할 수 있도록 하는 기술자연어 이해 기술의 목적: 가장 인간 같은 기계Turing Test에 대한 비판자연어 이해 기술의 목적: N

2021년 9월 16일
·
0개의 댓글
·
post-thumbnail

BERT - Pre-training of Deep Bidirectional Transformers for Language Understanding

BERT는 대표적인 NLU 태스크에 적합한 pre-trained 모델이다. bert는 양방향 인코더를 활용해 레이블이 없는 자연어를 학습시켜 단순하게 마지막에 가까운 레이어만 fine tuning하면 당시 QA 등의 다양한 SOTA를 달성할 수 있었다. BERT는 현재

2021년 9월 12일
·
0개의 댓글
·