profile
한성대학교 네이버 AI Tech 5기 NLP
post-thumbnail

네이버 부스트캠프 5기 14~16주차 주간 회고(ODQA 대회)

1\. 프로젝트 개요 2\. 프로젝트 팀 구성 및 역할 3\. 프로젝트 수행 절차 및 방법 원활한 협업을 위해서는 GitHub 을 사용할 때 반복적으로 수행되는 내용을 자동화하여 시간을 절약해야 한다고 생각했기 때문에 , 프

2023년 6월 27일
·
1개의 댓글
·
post-thumbnail

네이버 부스트캠프 5기 12~13주차 주간 회고(KlUE TC 대회)

프로젝트 개요 프로젝트 팀 구성 및 역할 프로젝트 수행 내용 EDA(Exploratory Data Analysis) 데이터 전처리 및 증강 이전 주어진 데이터의 feature를 파악하여 모델 성능 향상을 위한 방향성 확립을 위해 진행 데이터 중복 및 결측치 존재 여부

2023년 6월 9일
·
1개의 댓글
·
post-thumbnail

KLUE-YNAT 대회 관련 모델 제작 및 배포

KLUE-YNAT의 데이터는 연합뉴스 기사 제목으로 구성된 데이터이다.부스트캠프 Data-Centric에서는 데이터의 일부가 P2G데이터로 구성되있으며 임의로 label을 다르게 추가하였다.이를 원상으로 복구하기 위한 모델을 개발하고 오픈소스로 배포하였다. 또한 데이터

2023년 6월 6일
·
2개의 댓글
·
post-thumbnail

[GPT-1 논문 리뷰](Improving Language Understanding by Generative Pre-Training)

GPT > GPT는 현재 LLM인 ChatGPT와 GPT-4의 근간이 되는 모델로 OpenAi에서 개발하였다. GPT는 언어 생성 모델로 NLP의 대부분 task에서 사용이 가능하다. 아직 GPT2와는 다르게 특정 task를 위해 fine-tuning이 필요하며 특정

2023년 5월 23일
·
1개의 댓글
·
post-thumbnail

네이버 부스트캠프 5기 9~11주차 주간 회고(KlUE RE 대회)

업로드중..\- 모더레이터 외에도 Github 관리자를 두어 베이스라인 코드의 버전 관리를 원활하게 하고, 같은 분야라도 다른 작업을 진행할 수 있도록 분업을 하여 협업을 진행하였다.팀 협업을 위해 개선점 파악을 위해 지난 NLP 기초 프로젝트 관련한 회고를 진행하였다

2023년 5월 23일
·
1개의 댓글
·
post-thumbnail

BERT 문장 토큰 관계 분류 task

주어진 문장의 각 token이 어떤 범주에 속하는지 분류하는 task개체명 인식은 문맥을 파악해서 인명,기관명,지명 등과 같은 문장 또는 문서에서 특정한 의미를 가지고있는 단어 또.는 어구(개체)등을 인식하는 과정을 의미한다.품사란 단어를 문법적 성질의 공통성에 따라

2023년 5월 22일
·
1개의 댓글
·
post-thumbnail

BERT 두 문장 관계 분류 Task

주어진 2개의 문장을 SEP토큰을 기준으로 입력으로 넣어 최종으로 나온 CLS 토큰으로 두 문장의 관계를 분류하는 Task이다.언어모델이 자연어의 맥락을 이해할 수 있는지 검증하는 task전체문장(Premise)과 가설문장(Hypothesis)을 Entailment(함

2023년 5월 22일
·
1개의 댓글
·
post-thumbnail

BERT 단일 문장 분류 Task

BERT 문장 분류 Task 감정 분석 주제 라벨링 언어 감지 의도 분류

2023년 5월 13일
·
2개의 댓글
·
post-thumbnail

KLUE 데이터셋

한국어 자연어 벤치마크(Korean Language Understanding Evaluation,KLUE)KLUE 링크 https://klue-benchmark.com/문장분류관계 추출문장 유사도자연어 추론개채명 인식품사 태깅질의 응답목적형 대화의존 구문 분석

2023년 5월 12일
·
0개의 댓글
·
post-thumbnail

BERT 언어모델

BERT(Bidirectional Encoder Representations from Transformers)는 구글에서 2018년에 발표한 언어 모델로, Transformer 아키텍처를 기반으로 하고 양방향(bidirectional) 학습을 사용하여 이전의 모델보다

2023년 5월 11일
·
1개의 댓글
·
post-thumbnail

네이버 부스트캠프 5기 8주차 주간 회고

각 모듈이 서로 영향을 주지 않고 쉽게 교체가능하게끔 독립적으로 설계하는 것을 의미한다. (함수의 집합 == 모듈)각 모듈내의 함수가 서로 엮여서 동작한다. 각 모듈의 구성요소가 목적을 달성하기 위한 정도각 모듈들의 상호 의존성을 나타낸다.응집도 ↑ 모듈성 ↓ 소프트웨

2023년 5월 1일
·
1개의 댓글
·
post-thumbnail

네이버 부스트캠프 5기 6,7주차 주간 회고(STS 대회)

대부분의 팀원들이 첫 NLP 도메인의 프로젝트인만큼 명확한 기준을 가지고 업무를 구분한 것보다 다양한 인사이트를 기르기 위해 데이터 전처리부터 모델 튜닝까지 End-to-End로 경험하는 것을 목표로 하여 협업을 진행했다. 따라서 각자 튜닝할 모델을 할당하여 하이퍼 파

2023년 4월 25일
·
0개의 댓글
·
post-thumbnail

네이버 부스트캠프 5기 5주차 주간 회고

NLP Word Embedding One-hot vector >각 Token을 자기 자신을 1로 만들고 나머지를 0으로 만든다. 이떄 각 Token의 길이는 전체 Vocab size가 됨으로 각 token간의 차원이 매우 커짐으로써 차원의 저주에 걸리게 된다. Wo

2023년 4월 23일
·
1개의 댓글
·
post-thumbnail

[Transformer 논문리뷰](Attention is all you need)

\*본 템플릿은 DSBA 연구실 이유경 박사과정의 템플릿을 토대로 하고 있습니다. Task: Recurrent와 Convolution을 배제한 Attention 메커니즘 모델 Transformer이전의 시퀀스 변형 모델은 RNN과 CNN을 기반으로 인코더와 디코더를

2023년 4월 23일
·
2개의 댓글
·
post-thumbnail

[Seq2Seq with Attetnion 논문리뷰](Effective Approaches to Attention-based Neural Machine Translation)

Seq2Seq with Attetnion 논문리뷰를 진행하였습니다. 링크로 첨부하겠습니다.Seq2Seq with Attention Githubppt 버전도 있습니다.

2023년 3월 30일
·
1개의 댓글
·
post-thumbnail

[Seq2Seq 논문리뷰](Sequence to Sequence Learning with Neural Networks)

Seq2Seq에 대한 논문 리뷰입니다. 다만 PDF파일이라 첨부가 불가하여 Github링크를 첨부했습니다.

2023년 3월 26일
·
1개의 댓글
·
post-thumbnail

네이버 부스트캠프 5기 19일차 ViT 코드리뷰

Vistion Transformer은 An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale으로 구글에서 2020년 10월 20일날 발표된 논문이다 이미지 분류에 Transformer을 사용

2023년 3월 26일
·
1개의 댓글
·